Statistick´ e metody v psychologii studijn´ı opora pro rok 2016/17 k pˇredmˇet˚ um SMP1B, SMP1D, SMP2B a SMP2D
´l Daniel Dosta
Obsah ´ Uvod
5
1 Z´ akladn´ı matematick´ e pojmy 1.1 Mnoˇziny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Matematick´e funkce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6 6 7
2 N´ ahoda a pravdˇ epodobnost 2.1 N´ahodn´ y jev . . . . . . . . . . . . . . . . . . . . 2.2 Pravdˇepodobnost . . . . . . . . . . . . . . . . . 2.2.1 Klasick´a pravdˇepodobnost . . . . . . . . 2.2.2 Geometrick´a pravdˇepodobnost . . . . . . 2.3 N´ahodn´a veliˇcina . . . . . . . . . . . . . . . . . 2.4 Rozdˇelen´ı pravdˇepodobnosti a distribuˇcn´ı funkce ˇ ıseln´e charakteristiky n´ahodn´ 2.5 C´ ych veliˇcin . . . .
2.6
2.7
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
11 11 12 13 13 15 17
. . . . . . . 2.5.1 Stˇredn´ı hodnota . . . . . . . . . . . . . . . . . . . . . 2.5.2 Rozptyl . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.3 Kovariance, z´avislost a nez´avislost n´ahodn´ ych veliˇcin 2.5.4 Kvantily n´ahodn´e veliˇciny . . . . . . . . . . . . . . . Diskr´etn´ı rozdˇelen´ı pravdˇepodobnosti . . . . . . . . . . . . . 2.6.1 Alternativn´ı rozdˇelen´ı . . . . . . . . . . . . . . . . . . 2.6.2 Binomick´e rozdˇelen´ı . . . . . . . . . . . . . . . . . . . 2.6.3 Poissonovo rozdˇelen´ı . . . . . . . . . . . . . . . . . . 2.6.4 Dalˇs´ı diskr´etn´ı rozdˇelen´ı pravdˇepodobnosti . . . . . . Spojit´a rozdˇelen´ı pravdˇepodobnosti . . . . . . . . . . . . . . 2.7.1 Rovnomˇern´e rozdˇelen´ı . . . . . . . . . . . . . . . . . 2.7.2 Norm´aln´ı rozdˇelen´ı . . . . . . . . . . . . . . . . . . . 2.7.3 Normovan´e norm´aln´ı rozdˇelen´ı . . . . . . . . . . . . . 2.7.4 Rozdˇelen´ı χ2 . . . . . . . . . . . . . . . . . . . . . . . 2.7.5 Studentovo t-rozdˇelen´ı . . . . . . . . . . . . . . . . . 2.7.6 Fisherovo F rozdˇelen´ı . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
20 20 22 22 24 25 27 27 28 29 30 32 33 34 38 39 40
3 Popisn´ a statistika 3.1 Statistick´ y soubor a statistick´ y znak . . . . . ˇ 3.2 Cetnosti . . . . . . . . . . . . . . . . . . . . . 3.2.1 Histogram . . . . . . . . . . . . . . . . 3.3 Extr´emy, variaˇcn´ı rozpˇet´ı a odlehl´a pozorov´an´ı 3.3.1 Odlehl´a pozorov´an´ı . . . . . . . . . . . 3.4 M´ıry polohy . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
42 . . . . . . . . . . . . . . . . 43 . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
43 44 45 47 47
3.5
3.6 3.7
3.4.1 Aritmetick´ y pr˚ umˇer . . . . . . . . . . . . . . . . . . . . . 3.4.2 Robustn´ı modifikace aritmetick´eho pr˚ umˇeru . . . . . . . 3.4.3 Medi´an a v´ ybˇerov´ y kvantil . . . . . . . . . . . . . . . . . 3.4.4 V´ ybˇerov´ y modus . . . . . . . . . . . . . . . . . . . . . . 3.4.5 Krabicov´ y graf . . . . . . . . . . . . . . . . . . . . . . . M´ıry variability . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Pr˚ umˇern´a absolutn´ı a medi´anov´a absolutn´ı odchylka . . 3.5.2 Souˇcet ˇctverc˚ u, v´ ybˇerov´ y rozptyl a smˇerodatn´a odchylka 3.5.3 Variabilita kvalitativn´ıho znaku . . . . . . . . . . . . . . V´ ybˇerov´a ˇsikmost a ˇspiˇcatost . . . . . . . . . . . . . . . . . . . M´ıry z´avislosti statistick´ ych znak˚ u . . . . . . . . . . . . . . . . 3.7.1 V´ ybˇerov´a kovariance . . . . . . . . . . . . . . . . . . . . 3.7.2 Pearson˚ uv korelaˇcn´ı koeficient . . . . . . . . . . . . . . . 3.7.3 Dalˇs´ı varianty Pearsonova korelaˇcn´ıho koeficientu . . . . 3.7.4 Spearman˚ uv korelaˇcn´ı koeficient . . . . . . . . . . . . . . 3.7.5 Bodov´ y graf . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
4 Statistick´ e odhady 4.1 N´ahodn´ y v´ ybˇer a statistiky . . . . . . . . . . . . . . . . . . . . . 4.2 Bodov´e odhady parametr˚ u . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Odhad stˇredn´ı hodnoty . . . . . . . . . . . . . . . . . . . . 4.2.2 Odhad rozptylu . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Odhad korelaˇcn´ıho koeficientu . . . . . . . . . . . . . . . . 4.3 Intervaly spolehlivosti . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Interval spolehlivosti pro stˇredn´ı hodnotu . . . . . . . . . . 4.3.2 Interval spolehlivosti pro rozptyl a smˇerodatnou odchylku .
4.4
. . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . . . . . . . . . .
47 49 50 52 52 54 54 55 57 57 59 60 60 63 64 65
. . . . . . . .
67 68 70 72 73 74 77 81 83
4.3.3
*Interval spolehlivosti pro rozd´ıl stˇredn´ıch hodnot* . . . . . . . . . 84
4.3.4
*Interval spolehlivosti pro relativn´ı ˇcetnost* . . . . . . . . . . . . . 85
4.3.5 *Interval spolehlivosti pro Pearson˚ uv korelaˇcn´ı koeficient* . . . . . 86 Metafora populace a v´ ybˇer“ . . . . . . . . . . . . . . . . . . . . . . . . . . 87 ”
5 Testov´ an´ı statistick´ ych hypot´ ez 5.1 Datov´a matice a typy promˇenn´ ych . . . . . . . . . . . . 5.2 Logika testov´an´ı statistick´ ych hypot´ez . . . . . . . . . . . 5.2.1 Statistick´ y test . . . . . . . . . . . . . . . . . . . 5.2.2 Jednostrann´e a dvoustrann´e alternativn´ı hypot´ezy 5.3 Praktick´a v´ yznamnost a m´ıry u ´ˇcinku . . . . . . . . . . . 5.4 Parametrick´e testy . . . . . . . . . . . . . . . . . . . . . 5.4.1 Jednov´ ybˇerov´ y t-test a p´arov´ y t-test . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
89 89 91 92 96 98 100 101
5.5
5.6
5.7
5.8
5.4.2 T-test pro dva nez´avisl´e v´ ybˇery a Welch˚ uv test 5.4.3 Test rozptylu a F-test . . . . . . . . . . . . . . 5.4.4 Testy korelaˇcn´ıho koeficientu . . . . . . . . . . . 5.4.5 Anal´ yza rozptylu pˇri jednoduch´em tˇr´ıdˇen´ı . . . 5.4.6 Ovˇeˇren´ı pˇredpoklad˚ u a testy normality . . . . . Anal´ yza s´ıly testu . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
104 109 111 113 118 124
5.5.1 *V´ ypoˇcet s´ıly testu* . . . . . . . . . . . . . . . . . . . . . 5.5.2 Stanoven´ı rozsahu souboru . . . . . . . . . . . . . . . . . . Testy dobr´e shody a dalˇs´ı testy ˇcetnost´ı . . . . . . . . . . . . . . . 5.6.1 Test dobr´e shody pro jeden v´ ybˇer . . . . . . . . . . . . . . 5.6.2 Kontingenˇcn´ı tabulky a jejich testov´an´ı . . . . . . . . . . . 5.6.3 Fisher˚ uv faktori´alov´ y test . . . . . . . . . . . . . . . . . . 5.6.4 McNemar˚ uv test a test symetrie podle Bowkera . . . . . . Neparametrick´e testy . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.1 Znam´enkov´ y test . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Wilcoxon˚ uv jednov´ ybˇerov´ y test a Wilcoxon˚ uv p´arov´ y test 5.7.3 Mann˚ uv-Whitney˚ uv U-test . . . . . . . . . . . . . . . . . . 5.7.4 Test Spearmanova korelaˇcn´ıho koeficientu . . . . . . . . . 5.7.5 Kruskall˚ uv-Wallis˚ uv test . . . . . . . . . . . . . . . . . . . V´ ybˇer statistick´eho testu . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
127 129 131 134 135 139 141 144 145 148 151 155 156 157
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
164 164 172 172 173 173
6 Cviˇ cen´ı 6.1 Poˇc´ıt´an´ı se sumou . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Pr´ace s pravdˇepodobnost´ı, vyuˇzit´ı kombinatorick´ ych pravidel 6.2.1 Kombinatorick´e pravidlo soˇctu a souˇcinu . . . . . . . 6.2.2 Permutace . . . . . . . . . . . . . . . . . . . . . . . . 6.2.3 Kombinace . . . . . . . . . . . . . . . . . . . . . . . 6.3 Pr´ace s ˇc´ıseln´ ymi charakteristikami n´ahodn´ ych veliˇcin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Distribuˇcn´ı funkce a pravdˇepodobnostn´ı funkce diskr´etn´ı n´ahodn´e veliˇciny . . . . . . . . . . . . . . . . . . . 6.5 Distribuˇcn´ı funkce a hustota pravdˇepodobnosti spojit´e n´ahodn´e veliˇciny . . . . . . . . . . . . . . . . . . . . 6.6 M´ıry polohy a variability . . . . . . . . . . . . . . . . . . . . 6.7 Korelaˇcn´ı koeficienty . . . . . . . . . . . . . . . . . . . . . . 6.8 Grafick´a reprezentace dat . . . . . . . . . . . . . . . . . . . 6.9 Intervaly spolehlivosti . . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . .
. . . . . .
. . . . .
. . . . .
. . . . . . . . 179 . . . . . . . . 184 . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
188 193 196 200 204
´ Uvod Statistika se mezi studenty spoleˇcensk´ ych vˇed obvykle netˇeˇs´ı velk´e oblibˇe a obecnˇe m´a sp´ıˇs ˇspatnou povˇest. Nen´ı nezvykl´e, ˇze i studenti s v´ yborn´ ym prospˇechem vid´ı ve statistick´ ych postupech jen obskurn´ı ritu´aly s ˇc´ısly, kter´e kdyˇz bezchybnˇe vykon´ame, vypliv” nou“ nˇejakou hodnotu, kter´a m´a d´at odpovˇed’ na naˇsi ot´azku. Autoˇri uˇcebnic statistiky se s malou oblibou tohoto pˇredmˇetu snaˇz´ı bojovat. Mezi nejpouˇz´ıvanˇejˇs´ı zbranˇe patˇr´ı vedle z´aplavy metafor a obr´azk˚ u bohuˇzel i zjednoduˇsov´an´ı l´atky na nejniˇzˇs´ı u ´roveˇ n, kter´a jeˇstˇe d´av´a smysl. Statistika se pak zmˇen´ı ve vypr´avˇen´ı pˇr´ıbˇeh˚ u o tom, jak spr´avnˇe prov´adˇet ritu´aly. Autor tohoto textu se domn´ıv´a, ˇze tato cesta ke k´ yˇzen´emu v´ ysledku nevede. Metafory a zjednoduˇsen´a podobenstv´ı jsou bezesporu skvˇel´ ymi pomocn´ıky, ale jen do t´e doby, neˇz doˇcista nahrad´ı p˚ uvodn´ı sdˇelen´ı. Studenti psychologie jsou vyb´ır´ani podle pˇr´ısn´ ych krit´eri´ı a o jejich schopnosti ch´apat abstraktn´ı probl´emy nem˚ uˇze b´ yt pochyb. M´ısto kr´asn´e vˇedy, jakou statistika je, jim nen´ı potˇreba serv´ırovat pˇr´ıbˇehy, aby pochopili. Z tohoto pˇresvˇedˇcen´ı tato skripta vych´az´ı. Statistick´e pozn´an´ı zde bude budov´ano od sv´eho matematick´eho z´akladu. Daˇ n, kter´a se za to plat´ı, je urˇcit´a suchop´arnost – zejm´ena pro ty studenty, kteˇr´ı nenach´az´ı zal´ıben´ı ve svˇetˇe matematick´ ych konstrukt˚ ua kteˇr´ı potˇrebuj´ı na kaˇzd´em kroku ujiˇst’ovat, ˇze z´ıskan´e znalosti opravdu k nˇeˇcemu jsou. Pokud se vˇsak napln´ı ambice autora tohoto textu, tak ˇcten´aˇri bude odmˇenou opravdov´e porozumˇen´ı statistice v psychologick´em v´ yzkumu. Tedy nejen schopnost bezchybnˇe prov´est onen ritu´al, ale i znalost toho, co se dˇeje pod jeho povrchem. Na z´avˇer pˇripojme jeˇstˇe jedno upozornˇen´ı. Mnoho lid´ı, kdyˇz slyˇs´ı o matematice a ˇcemkoli, co s n´ı souvis´ı, prohl´as´ı, ˇze na to nemaj´ı hlavu a pˇrestanou poslouchat. Pokud to je v´aˇs pˇr´ıpad, bud’te si jist´ı, ˇze vaˇse hlava funguje v´ıc neˇz skvˇele. To, ˇze jste se octli v tomto kurzu, znamen´a, ˇze za sebou m´ate anab´azi test˚ u, pohovor˚ u a dalˇs´ıch u ´trap, kter´e skonˇcily u ´spˇechem. To, co sch´az´ı, nen´ı v hlavˇe, ale v srdci a je jen na v´as to zmˇenit.
Ten, kdo ˇr´ık´a, ˇze to dok´aˇze, i ten, kdo ˇr´ık´a, ˇze to nedok´aˇze, oba maj´ı pravdu.
5
1
Z´ akladn´ı matematick´ e pojmy
1.1
Mnoˇ ziny
V matematice oznaˇcujeme pojmem mnoˇzina soubor libovoln´ ych prvk˚ u. Uvaˇzujeme-li tedy mnoˇzinu, kterou pojmenujeme napˇr´ıklad M , m˚ uˇzeme pro jak´ ykoli objekt (ˇr´ıkejme mu tˇreba x) rozhodnout, zdali n´aleˇz´ı mnoˇzinˇe M (zapisujeme x ∈ M ) nebo, zdali j´ı nen´aleˇz´ı (x ∈ / M ). Chceme-li nˇejakou mnoˇzinu vymezit, obvykle to provedeme tak, ˇze vyp´ıˇseme vˇsechny jej´ı prvky do sloˇzen´ ych z´avorek. Napˇr´ıklad takto: M = {2, 4, 6, 8, 10}. Nebo do sloˇzen´ ych z´avorek vyp´ıˇseme podm´ınky, kter´e pokud libovoln´ y prvek splˇ nuje, tak je prvkem mnoˇziny. Tˇreba z´apis N = {x ∈ M : x < 7} by oznaˇcoval mnoˇzinu vˇsech prvk˚ u mnoˇziny M , kter´e jsou menˇs´ı neˇz ˇc´ıslo 7. Tedy N = {2, 4, 6}. O mnoˇzinˇe N nav´ıc m˚ uˇzeme ˇr´ıct, ˇze je podmnoˇzinou mnoˇziny M . Znamen´a to, ˇze vˇsechny jej´ı prvky jsou obsaˇzeny z´aroveˇ n v mnoˇzinˇe M (pouˇzili bychom oznaˇcen´ı N ⊂ M ). Nˇekdy je tak´e uˇziteˇcn´e nˇekolik mnoˇzin slouˇcit do jedn´e. Poˇz´ıv´a se k tomu symbol sjednocen´ı (∪). Mohli bychom napˇr´ıklad ˇr´ıct, ˇze {3, 4, 5} ∪ {0, 5, 10} = {0, 3, 4, 5, 10}. Slovnˇe jej vyjadˇrujeme jako nebo“. Jde tedy o prvky, kter´e patˇr´ı do prvn´ı nebo do druh´e ” z uveden´ ych mnoˇzin. Jindy n´as zaj´ım´a, zdali existuj´ı nˇejak´e prvky, kter´e patˇr´ı do prvn´ı a z´aroveˇ n do druh´e mnoˇziny. Hovoˇr´ıme pak o pr˚ uniku mnoˇzin (∩). M˚ uˇzeme napˇr´ıklad ˇr´ıct {3, 4, 5} ∩ {0, 5, 10} = {5}. Pokud dvˇe mnoˇziny nemaj´ı ˇza´dn´ y spoleˇcn´ y prvek, a jejich pr˚ unikem je tedy pr´azdn´a mnoˇzina, oznaˇcujeme je za disjunktn´ı. Ve v´ yˇse uveden´ ych pˇr´ıkladech jsme pˇredpokl´adali, ˇze prvky mnoˇzin jsou ˇc´ısla. To je neˇcastˇejˇs´ı pˇr´ıpad, ale nen´ı to pravidlem – m˚ uˇzeme tˇreba vymezit mnoˇzinu student˚ u psychologie, mnoˇzinu nedˇeln´ıch odpoledn´ı, nebo mnoˇzinu n´apad˚ u, kter´e m´ame na veˇc´ırku po ˇctvrt´e tequile. Vzhledem k tomu, ˇze pr´ace s ˇc´ısly n´am usnadn´ı mnoho n´amahy, pˇripomeˇ nme si alespoˇ n dvˇe ˇc´ıseln´e mnoˇziny, na kter´e se budeme odvol´avat nejˇcastˇeji.
6
• Mnoˇzina cel´ ych ˇ c´ısel (odted’ j´ı budeme vˇzdy oznaˇcovat Z) obsahuje vˇsechna ˇc´ısla, kter´a m˚ uˇzeme zapsat bez desetinn´e ˇca´rky. Tedy napˇr´ıklad hodnoty 1, 10, 55 ale i 0 a z´aporn´a ˇc´ısla jako je -6, -100. • Mnoˇzina re´ aln´ ych ˇ c´ısel (R) obsahuje vˇsechny hodnoty, kter´e si pod slovem ˇc´ıslo bˇeˇzn´ y ˇclovˇek dok´aˇze pˇredstavit. Jednak vˇsechna cel´a ˇc´ısla, desetinn´a ˇc´ısla, zlomky √ i ˇc´ısla, kter´a jako zlomek zapsat nedok´aˇzeme (tˇreba 2). Plus a m´ınus nekoneˇcno (znaˇc´ıme ∞) mezi re´aln´a ˇc´ısla vˇsak nepatˇr´ı. V matematick´ ych vzorc´ıch se pomˇernˇe ˇcasto m˚ uˇzeme setkat se dvˇema re´aln´ ymi ˇc´ısly, jejichˇz pˇresnou hodnotu nedok´aˇzeme zapsat pomoc´ı ˇc´ıslic: • π (p´ı) – m´a hodnotu pˇribliˇznˇe 3.14, • e (Eulerovo ˇc´ıslo) – m´a hodnotu pˇribliˇznˇe 2.72. Obˇe mnoˇziny, re´aln´a i cel´a ˇc´ısla, maj´ı nekoneˇcn´ y poˇcet prvk˚ u. I pˇresto je vˇsak zjevn´e, ˇze re´aln´ ych ˇc´ısel je nesrovnatelnˇe v´ıce neˇz cel´ ych ˇc´ısel. Dokonce m˚ uˇzeme ˇr´ıct, ˇze mezi kaˇzd´ ymi dvˇema re´aln´ ymi ˇc´ısly existuje opˇet nekoneˇcno re´aln´ ych ˇc´ısel. Pˇri pr´aci s re´aln´ ymi ˇc´ısly je nˇekdy uˇziteˇcn´e vyb´ırat podmnoˇziny obsahuj´ıc´ı vˇsechny prvky, kter´e jsou ohraniˇcen´e nˇejak´ ymi dvˇema hodnotami. Napˇr´ıklad vˇsechny hodnoty, kter´e jsou menˇs´ı nebo rovny neˇz 10 a vˇetˇs´ı nebo rovny neˇz -1. Takov´ ymto podmnoˇzin´am ˇr´ık´ame intervaly a m´ısto ponˇekud tˇeˇzkop´adn´eho z´apisu {x ∈ R : (x < 10) ∩ (x > −1)} bychom jednoduˇse napsali (−1, 10). Uveden´emu intervalu ˇr´ık´ame otevˇren´ y interval, jelikoˇz neobsahuje sv´e krajn´ı hodnoty (10 a -1 do nˇej nepatˇr´ı). Pokud bychom je do intervalu zahrnuli, budeme jej oznaˇcovat jako uzavˇren´ y interval a znaˇcit [−1, 10]. Interval samozˇrejmˇe m˚ uˇze b´ yt z jedn´e strany uzavˇren´ y a z druh´e otevˇren´ y. Napˇr´ıklad interval vˇsech nez´aporn´ ych ˇc´ısel bychom zapsali [0, ∞)1 .
1.2
Matematick´ e funkce
Pojmem funkce se v matematice rozum´ı urˇcit´ y pˇredpis, kter´ y kaˇzd´emu prvku jedn´e mnoˇziny (ˇr´ık´ame j´ı definiˇ cn´ı obor funkce, Df ) pˇripisuje pr´avˇe jeden prvek z druh´e mnoˇziny (tu oznaˇcujeme jako obor hodnot, Hf ). Nejˇcastˇeji jsou definiˇcn´ı obor i obor hodnot nˇejak´e podmnoˇziny mnoˇziny re´aln´ ych ˇc´ısel, aˇc to nen´ı pravidlem – funkce m˚ uˇzou pracovat s libovoln´ ymi mnoˇzinami. Pokud si vybereme tˇreba prvek x, kter´ y n´aleˇz´ı definiˇcn´ımu oboru funkce f , pak funkˇcn´ı 1
Uzavˇren´ y konec intervalu se tak´ a nˇekdy znaˇc´ı symbolem < nebo > m´ısto hranat´ ych z´avorek. Oba z´ apisy jsou ekvivalentn´ı a m˚ uˇzeme je volnˇe zamˇen ˇovat. Z d˚ uvodu jednoznaˇcnosti v tiˇstˇen´em textu budeme pouˇz´ıvat hranat´e z´ avorky
7
hodnota funkce f v bodˇe x bude rovna nˇejak´emu y z oboru hodnot. Jednoduˇse bychom toto tvrzn´ı zapsali jako vztah: f (x) = y, kde x ∈ Df , y ∈ Hf . Prvek x oznaˇcujeme argument funkce f . Existuje v´ıce zp˚ usob˚ u, jak vymezit nˇejakou konkr´etn´ı funkci – m˚ uˇzeme napˇr´ıklad vyjmenovat vˇsechny prvky definiˇcn´ıho oboru a k nim pˇripsat jejich funkˇcn´ı hodnoty. To ale v pˇr´ıpadˇe rozs´ahl´ ych (nebo dokonce nekoneˇcn´ ych) mnoˇzin dost dobˇre nen´ı moˇzn´e. Vhodn´e je pak funkci definovat pomoc´ı nˇejak´eho matematick´eho vzorce. Na nˇejak´e ˇc´ıseln´e mnoˇzinˇe m˚ uˇzeme definovat napˇr´ıklad funkci jm´enem g takto: g(x) = 2x + 5. Snadno zjist´ıme, ˇze funkˇcn´ı hodnota t´eto funkce v bodˇe 3 bude rovna 11 a tˇreba v bodˇe −1 ˇc´ıslu 3. Mnoˇzinu vˇsech uspoˇr´adan´ ych dvojic {(x, f (x)), x ∈ Df } naz´ yv´ame graf funkce, a jak n´azev napov´ıd´a, umoˇzn ˇuje n´am pr˚ ubˇeh funkce zobrazit. Graf vykresl´ıme pomoc´ı dvou na sebe kolm´ ych os. Na horizont´aln´ı (iksovou) vyneseme jednotliv´e hodnoty z definiˇcn´ıho oboru a na svislou (ypsilovnovou) pˇr´ısluˇsn´e funkˇcn´ı hodnoty. V´ ysledkem pak bude nˇejak´a kˇrivka nebo mnoˇzina izolovan´ ych bod˚ u. Rozmanit´ ych funkc´ı m˚ uˇzeme definovat libovoln´ y poˇcet. Pˇripomeˇ nme si nˇejak´e z´akladn´ı funkce a jejich grafy. Line´ arn´ı funkce vyjadˇruj´ı vztah pˇr´ım´e nebo nepˇr´ım´e u ´mˇery mezi argumentem funkce a funkˇcn´ı hodnotou. Line´arn´ı funkci m˚ uˇzeme vyj´adˇrit ve tvaru y = a + bx, kde a a b jsou konstanty (tedy libovoln´a ˇc´ısla). M˚ uˇzeme ˇr´ıct, ˇze za kaˇzd´ y bod, o kter´ y naroste hodnota argumentu x, vzroste funkˇcn´ı hodnota y o b bod˚ u (pokud je b < 0, jde pochopitelnˇe o pokles). Pokud je b = 0, pak pˇr´ısnˇe vzato o lin´ern´ı funkci nejde, ale hovoˇr´ıme o konstatn´ı funkci. Grafem line´arn´ı funkce je vˇzdy pˇr´ımka. y = −0.5x + 1
y=x 1
−1
0
y = 1.5
1
1
x
−1
1
0
1
x
−1
0
1
x
−1
Kvadratick´ a funkce obsahuje ve sv´em pˇredpisu argument v druh´e mocninˇe. Obecnˇe bychom ji mohli vystihnout pˇredpisem y = a + b1 x + b2 x2 . Grafem kvadratick´e funkce je parabola, pr˚ ubˇeh tedy pˇripom´ın´a ,,´ udol´ı” nebo ,,kopec”. 8
y = x2 2
2
1
1
0
−1
y = −x2 + 2
x
1
y = 0.2(x + 1)2 + 0.3 1
0
−1
x
1
−1
0
x
1
Line´ arn´ı funkci s absolutn´ı hodnotou lze vyj´adˇrit pˇredpisem y = b|x − a| + c a jej´ı graf vypad´a jako zalomen´a rovn´a ˇca´ra. Oper´ator absolutn´ı hodnoty si m˚ uˇzeme pˇredstavit jako vzd´alenost ˇc´ısla od nuly. Absolutn´ı hodnota kladn´ ych ˇc´ısel se rovn´a jejich hodnotˇe (napˇr. |2| = 2). Absolutn´ı hodnota z´aporn´ ych ˇc´ısel se rovn´a opaˇcn´e hodnotˇe (tedy | − 2| = 2). Nula v absolutn´ı hodnotˇe z˚ ust´av´a nulou. y = −|2x| + 2 y = |x| 1
0
−1
x
1
2
2
1
1
0
−1
y = |x − 1| + 0.5
x
1
−1
0
x
1
−1
Pˇredpis logaritmick´ e funkce obsahuje oper´ator logaritmu. Nejˇcastˇeji se setk´ame s dvˇema logaritmy - pˇrirozen´ ym (znaˇc´ıme ln(x)) a dekadick´ ym (log10 (x)). Dekadick´ y logaritmus ˇr´ık´a, na kolik´atou mus´ıme umocnit ˇc´ıslo 10, abychom dostali hodnotu x. Pˇrirozen´ y logaritmus m´a tut´eˇz funkci, ale m´ısto des´ıtky pouˇz´ıv´a Eulerovo ˇc´ıslo e. Dekadick´ y logaritmus ˇc´ısla 100 se rovn´a 2, ˇc´ısla 1000 se rovn´a 3 atd. Logaritmus je definov´an pouze pro kladn´e hodnoty a v nule se limitnˇe bl´ıˇz´ı m´ınus nekoneˇcnu. y = ln(x) 2 1
0
1
2
3
4
5
−1 −2
9
6
7
8
9
10
x
Exponenci´ ala je kˇrivka vyj´adˇren´a pˇredpisem y =
y = ex
x
e , pˇr´ıpadnˇe y = exp(x), a je typick´a sv´ ym strm´ ym 7
r˚ ustem. Podobnˇe jako u logaritmu, bychom mohli vytvoˇrit dalˇs´ı exponenci´aln´ı funkce, pokud bychom nahradili e jinou hodnotou. Exponenci´ala a logaritmus jsou v˚ uˇci sobˇe takzvanˇe inverzn´ı. Znamen´a to, ˇze pokud nˇejakou hodnotu pouˇzijeme jako argument logaritmu a v´ ysledek pouˇzijeme opˇet jako argument exponenci´aln´ı funkce, z´ısk´ame p˚ uvodn´ı hodnotu. Jed-
6 5 4 3
x
noduˇse ln(e ) = x. 2
Matematick´e funkce m˚ uˇzeme popisovat z hlediska nespoˇctu vlastnost´ı. Pro naˇse u ´ˇcely si vˇsak vystaˇc´ıme s t´ım, jestli je funkce rostouc´ı nebo klesaj´ıc´ı. Pro rostouc´ı funkci plat´ı to, ˇze s rostouc´ı hodnotou argu-
1
−3
−2
−1
0
1
2
x
mentu funkce (x) se bez v´ yjimek vˇzdy zvyˇsuje funkˇcn´ı hodnota f (x). U klesaj´ıc´ı funkce tomu je naopak: rostouc´ı hodnota x znamen´a klesaj´ıc´ı hodnotu f (x). To, jestli je funkce rostouc´ı ˇci klesaj´ıc´ı, je obvykle patrn´e jiˇz z jej´ıho grafu. Napˇr´ıklad v´ yˇse uveden´a funkce f (x) = x nebo f (x) = ln(x) je rostouc´ı, zat´ımco f (x) = −0.5x + 1 je klesaj´ıc´ı. Kvadratick´a funkce ˇci line´arn´ı funkce s absolutn´ı hodnotou nejsou rostouc´ı ani klesaj´ıc´ı, pokud hovoˇr´ıme o jejich cel´em definiˇcn´ım oboru. Je-li funce rostouc´ı ˇci klesaj´ıc´ı, pak o n´ı m˚ uˇzeme ˇr´ıct, ˇze je monot´onn´ı.
10
2
N´ ahoda a pravdˇ epodobnost
Zkoum´ame-li svˇet pomoc´ı vˇedy, t´emˇeˇr vˇzdy pˇredpokl´ad´ame, ˇze kaˇzd´a ud´alost je pˇresnˇe vymezena sv´ ymi pˇr´ıˇcinami. Neexistuje tedy ˇz´adn´a nahodilost, a pokud bychom dok´azali zmapovat vˇsechny vztahy mezi vˇecmi, mohli bychom s jistotou pˇredpovˇedˇet, co bude n´asledovat. Takov´emuto pojet´ı se ˇr´ık´a determinismus. Pokud pˇrijmeme tento svˇeton´azor (coˇz bychom ostatnˇe pro u ´ˇcely vˇedeck´eho v´ yzkumu alespoˇ n na chv´ıli mˇeli) m˚ uˇze n´as napadnout ot´azka, proˇc v˚ ubec mluv´ıme o nˇejak´e pravdˇepodobnosti. Jsou-li d´any vˇsechny pˇr´ıˇciny a n´asledky, vˇse se dˇeje s jistotou a n´ahoda tedy neexistuje. Pot´ıˇz je v tom, ˇze ˇrada syst´em˚ u je nesm´ırnˇe sloˇzit´ ych a naˇse souˇcasn´e pozn´an´ı ani zdaleka nestaˇc´ı k tomu, abychom jejich chov´an´ı dok´azali s jistotou vysvˇetlit. M˚ uˇzeme nanejv´ yˇs prohl´asit, ˇze za podm´ınek A se urˇcit´ ym zp˚ usobem zmˇen´ı pravdˇepodobnost v´ yskytu d˚ usledk˚ u B. Jedn´ım z takov´ ych mimoˇra´dnˇe sloˇzit´ ych syst´em˚ u, kter´e dok´aˇzeme popsat jen velmi omezenˇe, je ˇclovˇek, respektive jeho chov´an´ı a proˇz´ıv´an´ı. Dalˇs´ım by mohla b´ yt napˇr´ıklad lidsk´a spoleˇcnost nebo ekonomick´e vztahy. Zˇrejmˇe z toho d˚ uvodu si statistika, kter´a s n´ahodou systematicky pracuje, nach´az´ı nejvˇetˇs´ı uplatnˇen´ı pr´avˇe v psychologii, medic´ınˇe, sociologii a ekonomii.
2.1
N´ ahodn´ y jev
Pˇri pr´aci s pravdˇepodobnost´ı mluv´ıme o n´ahodn´em pokusu. Oznaˇcujeme tak realizaci urˇcit´eho syst´emu podm´ınek, kter´e vedou k nˇekter´emu pˇredem nezn´am´emu v´ ysledku. Slovo pokus m˚ uˇzeme br´at pomˇernˇe velkoryse – nemus´ı se jednat o sm´ıch´an´ı nˇekolika chemik´ali´ı ve zkumavce, nebo o vytaˇzen´ı l´ıstku z osud´ı, ale m˚ uˇze to b´ yt napˇr´ıklad narozen´ı d´ıtˇete a zjiˇstˇen´ı, jestli je to chlapec nebo d´ıvka, nebo to, kdyˇz vybereme jednoho studenta a zmˇeˇr´ıme u nˇej nˇejak´e psychologick´e charakteristiky. Mnoˇzinu vˇsech moˇzn´ ych v´ ysledk˚ u n´ahodn´eho pokus budeme oznaˇcovat p´ısmenem Ω. Pokud je tedy pokusem hod hrac´ı y pokus vede k pr´avˇe jednomu kostkou, pak Ω = {{ }, { }, { }, { }, { }, { }}. Kaˇzd´ v´ ysledku – nem˚ uˇzou padnout nar´az dvˇe ˇc´ısla a ani se nem˚ uˇze st´at, ˇze by nepadlo ˇz´adn´e. Jednoprvkov´e mnoˇziny v´ ysledk˚ u oznaˇcujeme jako element´ arn´ı jevy a budeme je znaˇcit p´ısmenem ω. V naˇsem pˇr´ıkladu by to byly jevy { }, { }, { }, { }, { }, { }. Jelikoˇz se jedn´a o mnoˇziny, m˚ uˇzeme s nimi prov´adˇet n´am jiˇz zn´am´e mnoˇzinov´e operace. Napˇr´ıklad { } ∪ { } ∪ { } = { , , } je jev, kter´ y bychom mohli pojmenovat padlo sud´e ˇc´ıslo. Za nesluˇ citeln´ e (disjunktn´ı) jevy oznaˇcujeme takov´e jevy, kter´e nemohou nastat souˇcasnˇe. Mezi sebou jsou nesluˇciteln´e vˇsechny element´arn´ı jevy, nebo z naˇseho pˇr´ıkladu jevy padlo sud´e ˇc´ıslo a padlo lich´e ˇc´ıslo. Ke kaˇzd´emu jevu m˚ uˇzeme tak´e definovat opaˇ cn´ y jev. Oznaˇcuje se tak sjednocen´ı vˇsech element´arn´ıch jev˚ u, kter´e dan´ y jev neobsahuje. Tedy napˇr´ıklad k jevu padla ˇsestka ({ }) je opaˇcn´ y jen padlo nˇeco jin´eho neˇz ˇsestka (tedy { , , , , }). 11
2.2
Pravdˇ epodobnost
Nˇekter´e jevy m˚ uˇzou nastat sn´aze neˇz jin´e. Pro pops´an´ı t´eto odliˇsnosti zav´ad´ıme funkci jm´enem pravdˇ epodobnost. Co tento pojem znamen´a, intuitivnˇe ch´apou i lid´e, co ˇz´adn´ y kurz statistiky neabsolvovali. Abychom s t´ımto konceptem mohli pracovat, mus´ıme jej pˇresnˇe vymezit. Uvˇedomme si, ˇze pravdˇ epodobnost je funkce (budeme ji znaˇ cit P ) kter´ a kaˇ zd´ emu jevu (tedy kaˇ zd´ e podmnoˇ zinˇ e mnoˇ ziny Ω) pˇ ripisuje nˇ ejak´ eˇ c´ıslo z intervalu [0, 1]. Jedniˇcka vyjadˇruje, ˇze se dan´ y jev vyskytne s naprostou jistotou, nula naopak, ˇze jev nastat nem˚ uˇze. Pravdˇepodobnost kaˇzd´eho jevu m˚ uˇzeme vyˇc´ıslit jako souˇcet pravdˇepodobnost´ı vˇsech element´arn´ıch jev˚ u, kter´e obsahuje. V pˇr´ıpadˇe disjunktn´ıch jev˚ u, m˚ uˇzeme analogicky stanovit pravdˇepodobnost jejich sjednocen´ı: P (A ∪ B) = P (A) + P (B). Pokud jevy A a B disjunktn´ı nejsou, tak uveden´ y vztah neplat´ı, jelikoˇz ty prvky (element´arn´ı jevy), kter´e jsou obsaˇzeny v obou mnoˇzin´ach, by byly zahrnuty dvakr´at. Vztah proto mus´ıme upravit do podoby P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Pravdˇepodobnost opaˇcn´eho jevu k jak´emukoli jevu A je rovna 1 − P (A). Tedy pokud je pravdˇepodobnost toho, ˇze na hrac´ı kostce padne ˇsetka, rovn´a 16 , tak pravdˇepodobnost toho, ˇze nepadne ˇsetka je z´akonitˇe 1 −
1 6
= 56 . T´eto vlastnoti budeme hojnˇe vyuˇz´ıvat.
Pokud pro jevy A a B plat´ı P (A ∩ B) = P (A) · P (B), pak jevy A a B oznaˇcujeme za nez´ avisl´ e. Je-li naˇsim n´ahodn´ ym pokusem tˇreba hod dvˇema hrac´ımi kostkami, ˇcernou a b´ılou, pak napˇr´ıklad jevy { } a { } jsou nez´avisl´e, jelikoˇz v´ ysledek jedn´e kostky nijak neovlivˇ nuje v´ ysledek druh´e. Kdyˇz v´ıme, ˇze P ({ }) = 1/6 a P ({ }) = 1/6, pak snadno odvod´ıme, ˇze P ({ } ∩ { }) = 1/36. Informace, ˇze nastal jeden z nez´avisl´ ych jev˚ u, n´am neprozrazuje nic o tom, jestli nastal druh´ y nez´avisl´ y jev. Disjunktn´ı jevy nejsou proto nikdy nez´avisl´e, vyjma krajn´ıho pˇr´ıpadu, kdy nejm´enˇe jeden z nich nast´av´a s nulovou pradˇepodobnost´ı, tedy nikdy. Aˇc je pojem pravdˇepodobnost obsaˇzen ve slovn´ıku laick´e veˇrejnosti, ˇcasto jej uˇz´ıv´ame nespr´avnˇe. Nikoho by nepˇrekvapila napˇr´ıklad vˇeta Jak´a je pravdˇepodobnost, ˇze ve vesm´ıru ” existuje inteligentn´ı mimozemsk´a forma ˇzivota?“. Abychom v tomto pˇr´ıpadˇe mohli uvaˇzovat o pravdˇepodobnosti, muselo by j´ıt o nˇejak´ y n´ahodn´ y pokus nikoli o jedineˇcn´ y jev. Museli bychom uvaˇzovat nˇejakou mnoˇzinu vˇsech vesm´ır˚ u, kter´e ze Zemˇe vypadaj´ı tak, jako ten n´aˇs, a ptali bychom se, jestli kdyˇz jeden z nich stvoˇr´ıme, tak s jakou pravdˇepodobnost´ı bude obsahovat inteligentn´ı mimozemsk´ y ˇzivot. Ten n´aˇs jiˇz ale stvoˇren je a 12
my mu ˇza´dnou pravdˇepodobnost pˇrisuzovat nem˚ uˇzeme. Ta chyba, kter´e se dopouˇst´ıme, je z´amˇena pravdˇepodobnosti za subjektivn´ı m´ıru jistoty. ˇ S popul´arn´ım pojet´ım pravdˇepodobnosti souvis´ı tak´e jej´ı form´aln´ı z´apis. Casto se setk´ame s vyj´adˇren´ım pravdˇepodobnosti v procentech. Na tomto zp˚ usobu nen´ı nic ˇspatn´eho – v nˇekter´ ych pˇr´ıpadech to m˚ uˇze b´ yt n´azornˇejˇs´ı. Znaˇcka % v podstatˇe znamen´a · 0.01“. ” M´ame-li tedy dosadit do nˇejak´eho vzorce pravdˇepodobnost, nebudeme ps´at tˇreba 50“ ” (ve smyslu 50 %“), ale 0.5 (tedy 50 · 0.01). ” 2.2.1
Klasick´ a pravdˇ epodobnost
Pravdˇepodobnost pˇredstavovala v matematice historicky problematickou oblast, kter´a tr´apila ˇradu myslitel˚ u. Modern´ı definice pravdˇepodobnosti a jej´ı vyuˇzit´ı je d´ılem minul´eho stolet´ı. Velmi star´e pojet´ı pravdˇepodobnosti, kter´e m´a dodnes sv´e vyuˇzit´ı, aˇc jen v omezen´em mnoˇzstv´ı pˇr´ıpad˚ u, se naz´ yv´a klasick´a pravdˇepodobnost. Klasickou pravdˇepodobnost m˚ uˇzeme vyuˇz´ıt tam, kde n´ahodn´ y pokus vede ke koneˇcn´emu mnoˇzstv´ı v´ ysledk˚ u, z nichˇz jsou vˇsechny stejnˇe moˇzn´e. Tedy pro n-prvkovou mnoˇzinu Ω by muselo platit: P (ω1 ) = P (ω2 ) = . . . = P (ωn ) =
1 n
Jelikoˇz lze pravdˇepodobnost libovoln´eho jevu A pak vyj´adˇrit jako souˇcet pravdˇepodobnost´ı element´arn´ıch jev˚ u, kter´e obsahuje, m˚ uˇzeme tvrdit, ˇze P (A) =
m , n
kde m znaˇc´ı poˇcet prvk˚ u mnoˇziny A. Uˇcebnicov´ ymi pˇr´ıklady, kde se s klasickou pravdˇepodobnost´ı m˚ uˇzeme setkat, je uˇz zmin ˇovan´a hrac´ı kostka, nebo nejr˚ uznˇejˇs´ı loterie, coˇz vˇsak ve v´ yzkumu ˇcasto neuplatn´ıme. Klasickou pravdˇepodobnost nicm´enˇe pouˇzijeme i v situac´ıch, kde nˇejak´a skupina prvk˚ u m˚ uˇze nab´ yvat r˚ uzn´ ych uspoˇra´d´an´ı s t´ım, ˇze tato uspoˇr´ad´an´ı jsou stejnˇe pravdˇepodobn´a. To je situace, se kterou pracujeme v nejr˚ uznˇejˇs´ıch kombinatorick´ ych u ´loh´ach a kter´e jiˇz maj´ı pˇresah do pro v´ yzkumn´ıka zaj´ımavˇejˇs´ıch oblast´ı. 2.2.2
Geometrick´ a pravdˇ epodobnost
Klasick´a pravdˇepodobnost m´a sv´a omezen´ı. Napˇr´ıklad tehdy, kdyˇz vˇsechny element´arn´ı jevy sice nast´avaj´ı se stejn´ ymi pravdˇepodobnostmi, ale je jich nekoneˇcnˇe mnoho, pak s klasick´ ym pojet´ım pravdˇepodobnosti nepochod´ıme. Zamysleme se tˇreba nad t´ımto probl´emem: Na priv´atˇe ˇzij´ı dva kamar´adi. Oba vst´avaj´ı kaˇzd´e r´ano v libovoln´y ˇcas mezi 7:00 a 8:00 bez nˇejak´eho ˇr´adu, nez´avisle na sobˇe. Hned po probuzen´ı jde kamar´ad do koupelny, kde 13
str´av´ı pˇresnˇe 15 minut. Jak´a je pravdˇepodobnost, ˇze jeden z kamar´ad˚ u najde koupelnu obsazenou? Fanouˇsek klasick´e pravdˇepodobnosti by mohl podotknout, ˇze prvn´ı i druh´ y kamar´ad m´a 60 moˇznost´ı, kdy vst´at (jelikoˇz od 7:00 do 7:59 je 60 minut), a tedy existuje 60 · 60 = 3600 = n stejnˇe pravdˇepodobn´ ych sc´en´aˇr˚ u, jak r´ano probˇehne. Kdyˇz spoˇc´ıt´ame ty, kdy se kamar´adi v koupelnˇe setkaj´ı, a vydˇel´ıme tento poˇcet (m) ˇc´ıslem 3600 (n), dostaneme v´ ysledek. Toto ˇreˇsen´ı je vˇsak jen hrub´ ym pˇribl´ıˇzen´ım ke spr´avn´emu ˇreˇsen´ı. Mezi sedmou a osmou hodinou je nekoneˇcno r˚ uzn´ ych ˇcas˚ u – nikde totiˇz nen´ı ps´ano, ˇze ˇcas probuzen´ı ˇ ısla n i m se rovnaj´ı ∞ a v´ mus´ı b´ yt v cel´ ych minut´ach. C´ yraz ∞ vyˇc´ıslit neum´ıme. ∞
Geometrick´a pravdˇepodobnost pouˇz´ıv´a trik, kdy si obˇe mnoˇziny, jejichˇz poˇcty prvk˚ u srovn´av´ame, pˇredstav´ıme jako geometrick´e u ´tvary. M´ısto poˇct˚ u bod˚ u, kter´e tyto u ´tvary obsahuj´ı, stanovuje jejich m´ıru. M´ırou u ´seˇcky je d´elka, m´ırou obrazce v rovinnˇe je obsah, m´ırou tˇelesa jeho objem. Pravdˇepodobnost jevu A pak stanov´ıme jako pod´ıl mˇer obou mnoˇzin: m´ıra(A) . P (A) = m´ıra(Ω)
mnoˇzin: A = {(x, y) ∈ Ω : (y > x ∩ y <
W
ko
liz
i
A
i liz
de
ko
7:30
ke
ed
oj
ko l
de
iz i
ke
7:45
de
N ed
oj
7:15
ke
D oj
x < y ∩ y–x < 15, pˇredstavuj´ı situace, kdy se prvn´ı kamar´ad probudil dˇr´ıv neˇz druh´ y, avˇsak ne dˇr´ıv neˇz o 15 minut. Naopak body, pro kter´e plat´ı y < x ∩ x–y < 15 znamen´a, ˇze sm˚ ulu mˇel prvn´ı z kamar´ad˚ u. Mnoˇzina A je pak sjednocen´ı obou takto vznikl´ ych
8:00
N
not (x, y) z t´eto mnoˇziny, pro kter´e plat´ı
Obr´azek 1: Grafick´e ˇreˇsen´ı u ´lohy o setk´an´ı Čas probuzení druhého kamaráda
Pˇredstavme si naˇsi u ´lohu jako dvourozmˇern´ y graf, kde na osu x mezi ˇc´ısla 0 a 60 vyn´aˇs´ıme ˇcas probuzen´ı prvn´ıho kamar´ada a na osu y ˇcas probuzen´ı druh´eho. Mnoˇzina Ω tedy m´a tvar ˇctverce a jej´ı m´ıra odpov´ıd´a jeho obsahu. Vˇsechny dvojice hod-
7:00 7:00
7:15
7:30
7:45
8:00
Čas probuzení prvního kamaráda
x + 15) ∪ (y < x ∩ y > x − 15)}. (Pro vˇetˇs´ı pˇrehlednost jsme ve vˇsech d´ılˇc´ıch nerovnostech pˇrevedli y na levou stranu.) Jak zn´azorˇ nuje obr´azek (1), mnoˇzina A tvoˇr´ı jak´ ysi ˇsesti´ uheln´ık uvnitˇr mnoˇziny Ω. Pol´ıˇcka na pozad´ı grafu n´am pom˚ uˇzou zjistit pod´ıl obsah˚ u obou u ´tvar˚ u – vyˇsrafovan´ ych je 7 pol´ıˇcek z 16-ti, tedy P (A) = 7/16 ≈ 44%. Ke kolizi v koupelnˇe dojde v pr˚ umˇeru o nˇeco m´enˇe neˇz kaˇzd´ y druh´ y den. Pomoc´ı geometrick´e pravdˇepodobnosti v tomto kurzu probl´emy ˇreˇsit nebudeme. Poselstv´ı je ale to, ˇze pravdˇepodobnost si m˚ uˇzeme ˇcasto pˇredstavit jako plochu, k ˇcemuˇz se budeme uchylovat ve vˇetˇsinˇe statistick´ ych postup˚ u. 14
2.3
N´ ahodn´ a veliˇ cina
V pˇredchoz´ıch kapitol´ach jsme si pˇripomnˇeli nˇekter´e z´akladn´ı pojmy matematiky a z´ıskali alespoˇ n v obrysech povˇedom´ı o tom, co je to n´ahodn´ y jev a jeho pravdˇepodobnost. Na pˇr´ıkladu klasick´e a geometrick´e pravdˇepodobnosti jsme si uk´azali, jak lze s touto vlastnost´ı n´ahodn´ ych jev˚ u pracovat. Ve skuteˇcnosti to, co jsme se nauˇcili, byl jen u ´vod a velk´e ˇ zjednoduˇsen´ı. Rekli bychom nˇekolik speci´aln´ıch pˇr´ıpad˚ u, kter´e mˇely za u ´kol uv´est ˇcten´aˇre do svˇeta statistiky. Pokud u ´vodn´ı kapitoly sv˚ uj u ´ˇcel splnily, m˚ uˇzeme pˇrej´ıt na dalˇs´ı u ´roveˇ n. Nauˇc´ıme se popisovat realitu pomoc´ı n´ahodn´ ych veliˇcin. N´ahodn´e veliˇciny spolu se sv´ ymi distribuˇcn´ımi funkcemi pˇredstavuj´ı u ´stˇredn´ı bod tohoto kurzu. Pokud jim ˇcten´aˇr porozum´ı, snadno pak nalezne smysl tam, kde obvykle studenti vid´ı jen zmˇet’ nesrozumiteln´ ych vzorc˚ u a pouˇcek. Vrat’me se zpˇet k mnoˇzinˇe vˇsech element´arn´ıch jev˚ u, kter´e m˚ uˇzou nastat pˇri realizaci n´ahodn´eho pokusu (Ω). Co jsou vlastnˇe jednotliv´e prvky t´eto mnoˇziny? Pokud v´as napadlo, ˇze to jsou ˇc´ısla, tak se nenechte zm´ ylit matematick´ ym t´onem tohoto textu. Pokud je naˇs´ım n´ahodn´ ym pokusem tˇreba dopravnˇe-psychologick´e vyˇsetˇren´ı vybodovan´eho ˇridiˇce, kter´emu administrujeme Bourdon˚ uv test pozornosti, tak element´arn´ım jevem m˚ uˇze b´ yt tˇreba Igor Vozaˇc, kter´y m´a opravdu ˇspatn´y den. Potˇrebuje z´ıskat zpˇet sv˚ uj ˇridiˇcsk´y ” pr˚ ukaz, pˇritom r´ano pˇred vyˇsetˇren´ım zaspal a vzal si ve spˇechu kaˇzdou botu jinou. Lev´ a ho tlaˇc´ı. V 9:15 zaˇcal s testov´an´ım, moc mu to s dotekov´ym displayem neˇslo. Ted’ sed´ı rozcuchan´y pˇred ochytan´ym monitorem a okusuje si nehty, a tak d´al. . . “. Zkr´atka kousek pestr´e a tˇeˇzko popsateln´e reality. Z toho plyne mimo jin´e to, ˇze mnoˇzina Ω obsahuje tolik prvk˚ u, kolik sc´en´aˇr˚ u m˚ uˇze pˇri dan´em n´ahodn´em pokusu nastat – tedy nekoneˇcnˇe mnoho. (Ano, v minul´e kapitole jsme se dopustili zjednoduˇsen´ı, kdyˇz jsme tvrdili, ˇze hod kostkou vede jen k ˇsesti moˇzn´ ym v´ ysledk˚ um.) Takhle velkorys´e pojet´ı mnoˇziny element´arn´ıch jev˚ u n´as pˇriv´ad´ı ke dvˇema probl´em˚ um. Prvn´ı je praktick´eho raˇzen´ı: takhle komplexn´ı a kvˇetnat´e prvky mnoˇziny je obt´ıˇzn´e zpracovat, natoˇz je vloˇzit do nˇejak´ ych rovnic. Druh´ y je teoretick´ y, ale o to z´avaˇznˇejˇs´ı. Jak´a je pravdˇepodobnost, ˇze n´ahodn´ y pokus probˇehne pˇresnˇe takto? Jestliˇze existuje nespoˇcet v´ıce m´enˇe stejnˇe pravdˇepodobn´ ych sc´en´aˇr˚ u, dojdeme k tomu, ˇze pravdˇepodobnost libovoln´eho z nich je nekoneˇcnˇe bl´ızko nule. Pˇri ˇreˇsen´ı obou tˇechto probl´em˚ u n´am pom˚ uˇze n´ahodn´a veliˇcina. N´ ahodn´ a veliˇ cina je matematick´a funkce. Vzpomeˇ nme si, ˇze funkce pˇripisuje kaˇzd´emu prvku jedn´e mnoˇziny nˇejak´ y prvek druh´e mnoˇziny. Taky uˇz v´ıme, ˇze tyto mnoˇziny m˚ uˇzou m´ıt nekoneˇcn´e mnoˇzstv´ı prvk˚ u, tak jako naˇse Ω. N´ahodn´a veliˇcina je tedy pr´avˇe t´ımto spojen´ım mezi skuteˇcnost´ı a svˇetem ˇc´ısel. Jej´ı definiˇcn´ı obor je Ω a obor hodnot nˇejak´a podmnoˇzina R. Pˇripisuje tedy kaˇzd´emu mysliteln´emu v´ ysledku n´ahodn´eho pokusu ({ω}) nˇejak´e ˇc´ıslo. V pˇr´ıkladu s Igorem to je tˇreba ˇc´ıslo 16 a n´ahodn´a veliˇcina by se 15
jmenovala tˇreba poˇcet bod˚ u z´ıskan´ych v Bourdonovˇe testu. Pro kaˇzdou mnoˇzinu v´ ysledk˚ u n´ahodn´eho pokusu m˚ uˇzeme definovat libovoln´e mnoˇzstv´ı n´ahodn´ ych veliˇcin. Tˇreba bychom m´ısto n´ahodn´e veliˇciny poˇcet bod˚ u, kter´e mˇela v naˇsem pˇr´ıpadˇe hodnotu 16, by to mohla b´ yt n´ahodn´a veliˇcina byl v´ykon dost dobr´y, aby byl klient shled´an zp˚ usobil´ym?, kter´a m´a obor hodnot jen {0, 1}, reprezentuj´ıc´ı ne“ a ano“. ” ” ˇ C´ısla, kter´a n´ahodn´a veliˇcina pˇripisuje jednotliv´ ym jev˚ um, m˚ uˇzou b´ yt zvolena vcelku libovolnˇe. V nˇekter´ ych pˇr´ıpadech se ˇreˇsen´ı nab´ız´ı samo – tˇreba pro n´ahodnou veliˇcinu, kterou pojmenujeme v´aha, bude nejsp´ıˇs jej´ı funkˇcn´ı hodnota odpov´ıdat hmotnosti jedince v kilogramech (nebo tˇreba v libr´ach, pokud chcete). Spoˇc´ıv´a-li n´aˇs n´ahodn´ y pokus vˇsak v tom, ˇze se budeme kolemjdouc´ıch na n´amˇest´ı pt´at, kterou pˇr´ıchut’ zmrzliny maj´ı nejradˇeji, a jejich odpovˇedi tedy budou kvalitativn´ı, m˚ uˇzeme odpovˇedi jahodov´ a pˇriˇradit tˇreba ˇc´ıslo 1, aˇc tˇeˇzko m˚ uˇzeme tvrdit, ˇze to je opodstatnˇenˇejˇs´ı, neˇz kdybychom j´ı pˇriˇrazovali tˇreba ˇc´ıslo 14. Za zm´ınku stoj´ı jedna zaj´ımav´a vlastnost n´ahodn´ ych veliˇcin, kter´a se ted’ m˚ uˇze zd´at ban´aln´ı, ale ˇcasem se uk´aˇze jako kl´ıˇcov´a. Pokud s n´ ahodnou veliˇ cinou provedeme jakoukoli matematickou operaci, v´ ysledkem je opˇ et n´ ahodn´ a veliˇ cina. Tˇreba kdyˇz vezmeme n´ahodnou veliˇcinu vˇek, kter´a vyjadˇruje st´aˇr´ı pokusn´e osoby v letech, a vyn´asob´ıme ji ˇc´ıslem 12, tak z´ısk´ame opˇet n´ahodnou veliˇcinu. V tomto pˇr´ıpadˇe nav´ıc vcelku smysluplnou – mohli bychom ji pojmenovat vˇek v mˇes´ıc´ıch. Ba co v´ıc, kdyˇz vezmeme v´ıce n´ahodn´ ych veliˇcin definovan´ ych na t´eˇze mnoˇzinˇe a provedeme s nimi nˇejakou matematickou operaci (napˇr. spoˇc´ıt´ame jejich rozd´ıl), tak z´ısk´ame opˇet n´ahodnou veliˇcinu. Tˇreba pro n´ahodn´e veliˇciny v´yˇska (v centimetrech) a v´aha (v kilogramech), m˚ uˇzeme definovat opˇet n´ahodnou veliˇcinu, kter´e budeme ˇr´ıkat BMI, jako (v´aha)/(v´yˇska2 ). V t´eto u ´vaze m˚ uˇzeme jeˇstˇe pokraˇcovat. Zat´ım jsme mluvili o kombinov´an´ı n´ahodn´ ych ´ e stejn´ veliˇcin z´ıskan´ ych pˇri jedin´e realizaci n´ahodn´eho pokusu. Uplnˇ ym zp˚ usobem vˇsak m˚ uˇzeme kombinovat n´ahodn´e veliˇciny, kter´e jsme z´ıskali pˇri opakov´an´ı t´ehoˇz n´ahodn´eho pokusu nˇekolikr´at. Snadno si pˇredstav´ıme n´ahodnou veliˇcinu d´elka psychologick´eho vyˇsetˇren´ı. D´ıky n´ı bychom mohli definovat n´ahodnou veliˇcinu d´elka tˇr´ı psychologick´ych vyˇsetˇren´ı kterou bychom z´ıskali jednoduˇse tak, ˇze n´ahodn´ y pokus nech´ame probˇehnout ˇ aˇr m˚ tˇrikr´at a z´ıskan´e hodnoty seˇcteme. Cten´ uˇze nam´ıtnout, ˇze se pˇrece nejedn´a o tˇri n´ahodn´e veliˇciny, ale tˇri realizace jedn´e n´ahodn´e veliˇciny. To je samozˇrejmˇe dobr´a pozn´amka, nicm´enˇe nikdo n´am nebr´an´ı si nadefinovat tˇri u ´plnˇe stejn´e n´ahodn´e veliˇciny, abychom s nimi mohli takto pracovat. Pokud se ˇcten´aˇri takov´ato manipulace nesnadno pˇredstavuje, m˚ uˇzeme za n´aˇs n´ahodn´ y pokus povaˇzovat hned cel´ y blok tˇr´ı vyˇsetˇren´ı a definujeme na nˇem tˇri n´ahodn´e veliˇciny d´elka prvn´ıho vyˇsetˇren´ı, d´elka druh´eho vyˇsetˇren´ı a d´elka tˇret´ıho vyˇsetˇren´ı. A t´ım se dost´av´ame do stejn´e situace, jako kdyˇz jsme poˇc´ıtali BMI. 16
Pomoc´ı n´ahodn´e veliˇciny se n´am podaˇrilo pˇrekonat jakousi propast mezi ˇc´ısly a realitou. Druh´ y zmiˇ novan´ y probl´em m´a vˇsak ponˇekud tuˇzˇs´ı koˇr´ınek a z˚ ust´av´a vyˇreˇsen jen z poloviny. Mnoˇzina Ω m´a nespoˇcet prvk˚ u a br´an´ı n´am tak v tom, abychom jim pˇripisovali nenulov´e pravdˇepodobnosti. N´ahodn´a veliˇcina m˚ uˇze tento probl´em pˇr´ımoˇcaˇre vyˇreˇsit jen v nˇekter´ ych pˇr´ıpadech. Napˇr´ıklad, kdyˇz se budeme lid´ı dotazovat, jestli by svou barvu oˇc´ı popsali sp´ıˇs jako modrou/svˇetlou nebo hnˇedou/tmavou, tak pˇrestoˇze ˇz´adn´e dvˇe realizace naˇseho pokusu nebudou stejn´e, dobˇre nadefinovan´a n´ahodn´a veliˇcina kaˇzd´emu z nich rozd´a jedno ze dvou ˇc´ısel – tˇreba jedniˇcku za modr´e a dvojku za hnˇed´e oˇci. Kaˇzd´a z variant m´a pak nˇejakou pˇresnˇe danou nenulovou pravdˇepodobnost (aˇc je n´am tˇreba nezn´am´a). Co kdybychom ale tˇreba mˇeˇrili ˇcas jedince potˇrebn´ y ke splnˇen´ı nˇejak´eho u ´kolu? Kolik r˚ uzn´ ych ˇcas˚ u vyj´adˇren´ ych ˇc´ıslem by mˇel obor hodnot dan´e n´ahodn´e veliˇciny obsahovat? Zjevnˇe jich je nekoneˇcno. Ba co v´ıc, mezi kaˇzd´ ymi dvˇema ˇcasy je opˇet nekoneˇcno dalˇs´ıch ˇcas˚ u. Mezi 5 a 6 sekundami, existuje napˇr´ıklad 5.52 a 5.53 sekund. Mezi tˇemito dvˇema ˇc´ısly jich je opˇet nekoneˇcno, tˇreba 5.527 a 5.528. Takhle bychom mohli pokraˇcovat do nekoneˇcna. Pˇrestoˇze jsme pouˇzili n´ahodnou veliˇcinu, tak jsme probl´em s nulov´ ymi pravdˇepodobnostmi nevyˇreˇsili. pravdˇepodobnost toho, ˇze jedinec spln´ı u ´kol pˇresnˇe za 5 vteˇrin (tedy 5.00000000000...) je rovna nule, stejnˇe jako je nulov´a pravdˇepodobnost vˇsech ˇ sen´ım je definov´an´ı rozdˇelen´ı pravdˇepodobnosti a zaveden´ı distribuˇcn´ı ostatn´ıch ˇcas˚ u2 . Reˇ funkce.
2.4
Rozdˇ elen´ı pravdˇ epodobnosti a distribuˇ cn´ı funkce
M´ame-li definovanou n´ahodnou veliˇcinu, pak kaˇzd´ y v´ ysledek n´ahodn´eho pokusu, pro kter´ y jsme ji definovali, m˚ uˇzeme zapsat jako ˇc´ıslo. Podobnˇe jako jsme se ptali, jak´a je pravdˇepodobnost toho, ˇze n´ahodn´ y pokus vy´ ust´ı v urˇcit´ y jev, se m˚ uˇzeme pt´at, jak´a je pravdˇepodobnost toho, ˇze to bude takov´ y jev, jehoˇz ˇc´ıseln´a hodnota spad´a do urˇcit´e mnoˇziny. Tohle je na prvn´ı pohled nepodstatn´ y detail, ale pro pochopen´ı dalˇs´ıho v´ ykladu se mus´ıme nauˇcit ch´apat rozd´ıl mezi z´apisem P ({ , , }) = 0.5 a PX ({1, 2, 3}) = 0.5. Zat´ımco v prvn´ım pˇr´ıpadˇe se bav´ıme o n´am jiˇz zn´am´e funkci s n´azvem pravdˇepodobnost, v druh´em pˇr´ıpadˇe mluv´ıme o takzvan´em rozdˇ elen´ı pravdˇ epodobnosti n´ahodn´e veliˇciny X (kter´a zjevnˇe vyˇc´ısluje poˇcet ok). Argumentem rozdˇelen´ı pravdˇepodobnosti je tedy mnoˇzina ˇc´ısel ˇ jde o rozdˇelen´ı pravdˇepodobnosti, a fukˇcn´ı hodnota patˇr´ı vˇzdy do intervalu [0, 1]. Ze 2 Ve skuteˇcnosti tou vlastnost´ı, kter´ a n´am br´an´ı pˇridˇelovat nenulov´e pravdˇepodobnosti, nen´ı to, ˇze n´ ahodn´ a veliˇcina m´ a nekoneˇcnˇe rozs´ ahl´ y obor hodnot, ale pr´avˇe to, ˇze mezi kaˇzd´ ymi dvˇema hodnotami existuje nekoneˇcno dalˇs´ıch hodnot. Existuj´ı totiˇz i takov´e n´ahodn´e veliˇciny, co nab´ yvaj´ı nekoneˇcna r˚ uzn´ ych hodnot, ale kaˇzdou z nich m˚ uˇzeme pˇresnˇe vyˇc´ıslit. Tˇreba n´ahodn´a veliˇcina, kter´a vyˇc´ısluje, kolikr´at jsme museli hodit minc´ı, neˇz padla panna. V´ ysledkem m˚ uˇze b´ yt libovoln´e kladn´e cel´e ˇc´ıslo (a tˇech je nekoneˇcno), a pˇritom bychom mohli kaˇzd´e hodnotˇe pˇrisoudit nenulovou pravdˇepodobnost P (X = k) = 0.5k – tedy to, ˇze panna padne hned v prvn´ım hodu m´a pravdˇepodobnost 1/2, v druh´em 1/4 atd.
17
pozn´ame pr´avˇe podle n´azvu n´ahodn´e veliˇciny, kter´e je u paty p´ısmene P . Co jsme t´ımto krokem z´ıskali? Pˇredstavte si, ˇze se vˇenujete tˇreba pupilometrii a zkoum´ate, o kolik nanometr˚ u se rozˇs´ıˇr´ı zorniˇcky ˇclovˇeku, kter´emu prom´ıtnete obr´azek atraktivn´ıho jedince opaˇcn´eho pohlav´ı. N´ahodn´a veliˇcina se tedy jmenuje rozˇs´ıˇren´ı zorniˇcek (zase j´ı ale ˇr´ıkejme X). Pokud bychom se t´azali, jak´e je pravdˇepodobnost, ˇze to bude pˇresnˇe 300 nanometr˚ u, tedy PX ({300}), odpovˇed’ bude samozˇrejmˇe 0. (Pokud nev´ıte proˇc, pˇreˇctete si znovu posledn´ı odstavec pˇredchoz´ı kapitoly.) My se nicm´enˇe nemus´ıme uchylovat jen k jednoprvkov´ ym mnoˇzin´am, jako je {300}, ale m˚ uˇzeme se pt´at na mnohem objemnˇejˇs´ı mnoˇziny: na intervaly. Napˇr´ıklad, jak´a je pravdˇepodobnost, ˇze se m´ıra rozˇs´ıˇren´ı zorniˇcek bude nˇekde mezi ˇc´ısly 200 a 300, tedy PX ([200, 300])? Zde se jiˇz v´ ysledek nule rovnat nebude. Toto je kl´ıˇcov´a v´ yhoda rozdˇelen´ı pravdˇepodobnosti – jevy ze skuteˇcn´eho svˇeta do interval˚ u uspoˇra´dat nem˚ uˇzeme, ˇc´ısla vˇsak ano. Nejuˇziteˇcnˇejˇs´ı bude volit takov´e intervaly, kter´e zaˇc´ınaj´ı v m´ınus nekoneˇcnu. Tˇreba PX (−∞, 100] . Tento v´ yraz ˇr´ık´a, jak´a je pravdˇepodobnost, ˇze se zorniˇcka rozˇs´ıˇr´ı o m´enˇe ˇ ıslo 100 je vybran´e nam´atkou, m˚ neˇz 100 nanometr˚ u. C´ uˇzeme je obecnˇe nahradit hodnotou (mal´e) x. Z´ısk´ame tak v´ yraz PX (−∞, x] , do kter´eho m˚ uˇzeme m´ısto x vloˇzit libovoln´e re´aln´e ˇc´ıslo. V´ yraz PX (−∞, x] budeme odted’ zkr´acenˇe zapisovat jako FX (x) a naz´ yvat distribuˇ cn´ı funkce. Jak n´azev napov´ıd´a, jde o funkci. Jej´ım argumentem je libovoln´e re´aln´e ˇc´ıslo x a funkˇcn´ı hodna ˇc´ıslo mezi 0 a 1. Distribuˇ cn´ı funkce FX (x) tedy ˇ r´ık´ a, jak´ a je pravdˇ epodobnost, ˇ ze se n´ ahodn´ a veliˇ cina X bude realizovat s hodnotou menˇ s´ı nebo rovnou libovolnˇ e zvolen´ emu re´ aln´ emu ˇ c´ıslu x. Argument funkce x m˚ uˇze nab´ yvat skuteˇcnˇe libovoln´e hodnoty, aˇc nˇekdy se vznikl´a ot´azka pˇr´ıˇc´ı zdrav´emu rozumu. Napˇr´ıklad Jak´a je pravdˇepodobnost, ˇze se jedinci rozˇs´ıˇr´ı zorniˇcky o m´enˇe neˇz ” 100000 µm (tedy 10 cm)?“ (odpovˇed’ je zjevnˇe 100 % – tedy jistota), nebo Jak´a je ” pravdˇepodobnost, ˇze se zorniˇcky rozˇs´ıˇr´ı o m´enˇe neˇz −10000 µm?“ (odpovˇed’ je 0 %). Kaˇzd´a n´ahodn´a veliˇcina m´a svou distribuˇcn´ı funkci. Jak m˚ uˇze vypadat jej´ı graf, si dok´aˇzeme r´amcovˇe pˇredstavit. Obr´azek (2) zachycuje distribuˇcn´ı funkci n´ahodn´e veliˇciny v´yˇska ˇclovˇeka. Z logiky vˇeci nem˚ uˇze b´ yt distribuˇcn´ı funkce klesaj´ıc´ı – je vˇzdy rostouc´ı, pˇr´ıpadnˇe m˚ uˇze obsahovat intervaly, kde je konstantn´ı. Hodnota distribuˇcn´ı funkce se smˇerem k z´aporn´ ym hodnot´am argumentu pˇribliˇzuje nule. Smˇerem ke kladn´ ym hodnot´am se pˇribliˇzuje (ˇci rovn´a) jedniˇcce. Graf (3) zobrazuje distribuˇcn´ı funkci diskr´etn´ı n´ahodn´e veliˇciny poˇcet sourozenc˚ u. Na prvn´ı pohled je tato distribuˇcn´ı funkce odliˇsn´a. M´ısto hladk´eho kopce je tvoˇrena schodky“. Je to t´ım, ˇze jev, kdy m´a nˇekdo pˇresnˇe jednoho sourozence, m´a nˇejakou nenu” lovou pravdˇepodobnost (na jedniˇcce tedy funkce nar´az o kus poskoˇc´ı), zat´ımco hodnoty,
18
Obr´azek 2: Distribuˇcn´ı funkce spojit´e n´ahodn´e veliˇciny tˇelesn´a v´yˇska
P (tˇ elesn´ a v y´sˇka < x)
1 0.8 0.6 0.4 0.2
140 145 150 155 160 165 170 175 180 185 190 195 200 x
Obr´azek 3: Distribuˇcn´ı funkce diskr´etn´ı n´ahodn´e veliˇciny poˇcet sourozenc˚ u
P (poˇ cet sourozenc˚ u < x)
1 0.8 0.6 0.4 0.2
−0.5 0
0.5
1
1.5
2
2.5
3 x
19
3.5
4
4.5
5
5.5
6
kter´e nelze vyj´adˇrit kladn´ ym cel´ ym ˇc´ıslem, maj´ı pravdˇepodobnost 0 (nikdo nem˚ uˇze m´ıt tˇreba 1.4 nebo −2 sourozence) distribuˇcn´ı funkce tedy v tomto bodˇe neroste a je konstantn´ı. Tyto dva pˇr´ıklady odr´aˇz´ı dva typy distribuˇcn´ıch funkc´ı. Ty, kter´e maj´ı hladk´ y pr˚ ubˇeh bez skok˚ u, se naz´ yvaj´ı spojit´ e. Ty, jejichˇz graf vypad´a jako schodiˇstˇe, naz´ yv´ame diskr´ etn´ı. Kaˇzd´e z tˇechto skupin n´ahodn´ ych veliˇcin vyhrad´ıme zvl´aˇstn´ı kapitolu. Jeˇstˇe pˇred t´ım, se ale sezn´am´ıme se ˇc´ıseln´ ymi charakteristikami n´ahodn´ ych veliˇcin.
2.5
ˇ ıseln´ C´ e charakteristiky n´ ahodn´ ych veliˇ cin
Zn´ame-li distribuˇcn´ı funkci nˇejak´e n´ahodn´e veliˇciny, tak o n´ı m´ame veˇsker´e informace. V nˇekter´ ych pˇr´ıpadech m˚ uˇze b´ yt v´ yhodn´e tuto hojnost informac´ı zredukovat jen na d´ılˇc´ı u ´daj, kter´ y n´am poskytne hrubou pˇredstavu o chov´an´ı n´ahodn´e veliˇciny. Typicky n´as zaj´ımaj´ı dvˇe ˇc´ıseln´e charakteristiky: stˇredn´ı hodnota n´ahodn´e veliˇciny a jej´ı rozptyl. 2.5.1
Stˇ redn´ı hodnota
Stˇredn´ı hodnota ˇr´ık´a, kolem jak´eho ˇc´ısla se n´ahodn´a veliˇcina realizuje. Form´alnˇe budeme stˇredn´ı hodnotu veliˇciny X zapisovat jako E(X). Stˇredn´ı hodnotu si nejl´epe pˇredstav´ıme jako odpovˇed’ na ot´azku jakou hodnotu m´a v pr˚ umˇeru realizace n´ahodn´e veliˇciny X?“. ” V pˇr´ıpadˇe diskr´etn´ıch n´ahodn´ ych veliˇcin bychom dok´azali stˇredn´ı hodnotu pomˇernˇe pˇr´ımoˇcaˇre spoˇc´ıtat – staˇcilo by vˇsechny jej´ı funkˇcn´ı hodnoty vyn´asobit pravdˇepodobnostmi, ˇze nastanou, a z´ıskan´e v´ ysledky posˇc´ıtat. Tˇreba n´ahodn´a veliˇcina pohlav´ı, kter´a pˇridˇeluje muˇz˚ um hodnotu 1 a ˇzen´am 2, a kaˇzd´a z tˇechto alternativ m´a pades´atiprocentn´ı pravdˇepodobnost v´ yskytu, by mˇela stˇredn´ı hodnotu 1.5. U spojit´ ych n´ahodn´ ych veliˇcin bychom pro v´ ypoˇcet stˇredn´ı hodnoty potˇrebovali ovl´adat integr´aln´ı poˇcet, coˇz pˇrekraˇcuje rozsah tohoto kurzu. Na jej´ım v´ yznamu to vˇsak nic nemˇen´ı – napˇr´ıklad stˇredn´ı hodnota veliˇciny tˇelesn´a v´yˇska v centimetrech by mohla b´ yt tˇreba 172, coˇz by opˇet odpov´ıdalo pr˚ umˇern´e v´ yˇsce ˇclovˇeka. Zaj´ımav´e je pro n´as to, co se se stˇredn´ı hodnotou stane, pokud budeme n´ahodnou veliˇcinu nˇejak transformovat. Pamatujme si, ˇze pro libovoln´a re´aln´a ˇc´ısla a, b a n´ahodnou veliˇcinu X plat´ı vztahy E(X + a) = E(X) + a,
E(bX) = b E(X),
E(a + bX) = a + b E(X).
Taky v´ıme, ˇze n´ahodn´e veliˇciny m˚ uˇzeme r˚ uznˇe kombinovat mezi sebou. Pro stˇredn´ı hodnoty n´ahodn´ ych veliˇcin X a Y plat´ı vztah: E(X + Y ) = E(X) + E(Y ) respektive
E(aX + bY ) = a E(X) + b E(Y ).
Stˇredn´ı hodnota m˚ uˇze teoreticky nab´ yvat libovoln´e hodnoty z re´aln´ ych ˇc´ısel. 20
Obr´azek 4: Schematick´e zn´azornˇen´ı vybran´ ych funkc´ı a mnoˇzin elementární jevy (výsledky náhodného pokusu)
jevy
ω2= ω1= ω4= ω3=
ω5= ω6=
„jevové pole“ (množina podmnožin )
{ } { } { } { } { }{ } { }
pravděpodobnost
P
[0,1]
atd.
náhodná veličina
X podmnožina R
1
2
4 3 6
β
(množina podmnožin oboru hodnot náhodné veličiny X)
{1} {1,2}
{3} {2,3,4} {5} {5,6} {1,3,5}
5
rozdělení pravděpodobnosti
PX
[0,1]
atd.
distribuční funkce
R
FX(x)
[0,1]
FX(x) = P(X x) = P({ω ϵ: X(ω) x}) = PX((-,x]) pro diskrétní rozdělení
pravděpodobnostní funkce pX(x)
hustota pravděpodobnosti fX(x)
pro spojitá rozdělení
21
2.5.2
Rozptyl
Kromˇe ot´azky, kolem jak´eho ˇc´ısla se naˇse n´ahodn´a veliˇcina koncentruje, n´as zaj´ım´a, zdali se jej´ı realizace pohybuj´ı tˇesnˇe kolem t´eto hodnoty, nebo jestli jsou zeˇsiroka rozprostˇreny po velk´em u ´seku ˇc´ıseln´e osy. Tuto vlastnost vyjadˇruje rozptyl (t´eˇz variance) n´ahodn´e veliˇciny, kter´ y budeme znaˇcit VAR(X). Vysok´ y rozptyl odr´aˇz´ı velmi rozmanit´e hodnoty n´ahodn´e veliˇciny, n´ızk´ y rozptyl naopak malou rozmanitost. Je tedy zˇrejm´e, ˇze napˇr´ıklad n´ahodn´a veliˇcina v´yˇse platu m´a daleko vyˇsˇs´ı rozptyl neˇz poˇcet dn˚ u dovolen´e roˇcnˇe, jelikoˇz prvn´ı uveden´a sah´a od nuly vysoko nad stovky tis´ıc˚ u, zat´ımco druh´a se bude pohybovat v rozmez´ı nˇekolika des´ıtek. Uˇziteˇcn´e je tak´e zn´at, co se dˇeje s rozptylem n´ahodn´e veliˇciny, kdyˇz ji nˇejak´ ym zp˚ usobem transformujeme. Pro n´ahodnou veliˇcinu X a libovoln´a re´aln´a ˇc´ısla a a b plat´ı: VAR(X + a) = VAR(X),
VAR(bX) = b2 VAR(X),
VAR(a + bX) = b2 VAR(X).
Rozptyl se tedy nijak nemˇen´ı, pokud k n´ahodn´e veliˇcinˇe pˇripoˇcteme nˇejakou konstantu, coˇz vcelku d´av´a smysl – rozmanitost hodnot z˚ ust´av´a stejn´a bez ohledu na to, kam je na ˇc´ıseln´e ose posuneme. Naopak, vyn´asob´ıme-li n´ahodnou veliˇcinu nˇejakou hodnotou, rozptyl se zmˇen´ı drasticky. Tedy, pokud jsme nˇeco mˇeˇrili v metrech a rozhodneme se v´ ysledky pˇrev´est na centimetry (Y = 100X), pak rozptyl stoupne desetitis´ıckr´at (1002 ). Roztyl nem˚ uˇze b´ yt nikdy z´aporn´ y. V ˇradˇe v´ ypoˇct˚ u vystupuje rozptyl pod odmocninou. Abychom si uˇsetˇrili pr´aci, budeme odmocninu z rozptylu oznaˇcovat pojmem smˇ erodatn´ a odchylka. 2.5.3
Kovariance, z´ avislost a nez´ avislost n´ ahodn´ ych veliˇ cin
Kdyˇz jsme hovoˇrili o definov´an´ı n´ahodn´ ych veliˇcin pro nˇejakou mnoˇzinu v´ ysledk˚ u n´ahodn´eho pokusu, zm´ınili jsme, ˇze pro jednu mnoˇzinu Ω m˚ uˇzeme definovat libovoln´e mnoˇzstv´ı n´ahodn´ ych veliˇcin. Mohlo by n´as zaj´ımat, v jak´em vztahu tyto n´ahodn´e veliˇciny v˚ uˇci sobˇe jsou. Toto n´am pom˚ uˇze objasnit kovariance. Roztyl n´ahodn´e veliˇciny vypov´ıdal o tom, jak moc n´ahodn´a veliˇcina kol´ıs´a. Kovariance ud´av´a, kolik rozptylu spolu dvˇe n´ahodn´e veliˇciny sd´ıl´ı nebo (moˇzn´a ponˇekud srozumitelnˇeji) do jak´e m´ıry se kol´ıs´an´ı jedn´e n´ahodn´e veliˇciny odr´aˇz´ı v kol´ıs´an´ı druh´e. Kovarianci n´ahodn´ ych veliˇcin X a Y znaˇc´ıme COV(X, Y ) a plat´ı pro ni tyto vztahy: COV(a + X, b + Y ) = COV(X, Y ),
COV(cX, dY ) = cd COV(X, Y ),
COV(a + cX, b + dY ) = cd COV(X, Y ), COV(X, X) = VAR(X),
COV(a, b) = 0,
22
COV(X, a) = 0.
Pro n´ahodn´e veliˇciny X, Y , U , V a konstanty a, b, c, d d´ale plat´ı COV(aX + bY, cU + dV ) = COV(aX, cU ) + COV(aX, dV ) + COV(bY, cU ) + COV(bY, dV ). Kovariance m˚ uˇze nab´ yvat libovoln´ ych hodnot. Kladn´a hodnota kovariance znaˇc´ı, ˇze vysok´e hodnoty jedn´e n´ahodn´e veliˇciny vedou ke zv´ yˇsen´ı pravdˇepodobnosti, ˇze se i druh´a n´ahodn´a veliˇcina realizuje s vysokou hodnotou. Z´aporn´a kovariance naopak znamen´a, ˇze vysok´e hodnoty jedn´e veliˇciny vedou ke zv´ yˇsen´ı pravdˇepodobnosti n´ızk´ ych hodnot druh´e n´ahodn´e veliˇciny. Tˇreba inteligence a v´yˇse platu kovariuj´ı kladnˇe, zat´ımco inteligence a ˇcas potˇrebn´y k pˇreˇcten´ı t´eto strany zˇrejmˇe z´apornˇe. Kovarianci potˇrebujeme tak´e k pops´an´ı rozptylu n´ahodn´e veliˇciny, kter´a vznikla jako souˇcet jin´ ych n´ahodn´ ych veliˇcin: VAR(X + Y ) = VAR(X) + VAR(Y ) + 2 COV(X, Y ). Pro libovoln´e dvˇe konstanty a a b pak plat´ı VAR(aX + bY ) = a2 VAR(X) + b2 VAR(Y ) + 2ab COV(X, Y ). Ztohoto vztahu m˚ uˇzeme odvodit vzorec pro rozptyl rozd´ılu n´ahodn´ ych veliˇcin. Jde tedy vlastnˇe o situaci, kdy a = 1 a b = −1: VAR(X − Y ) = VAR(X) + VAR(Y ) − 2 COV(X, Y ). Nˇekdy je uˇziteˇcn´e kovarianci standardizovat t´ım, ˇze ji vydˇel´ıme smˇerodatn´ ymi odchylkami obou n´ahodn´ ych veliˇcin. Pak mluv´ıme o korelaˇ cn´ım koeficientu: COR(X, Y ) = p
COV(X, Y ) p . VAR(X) VAR(Y )
Korelaˇcn´ı koeficient nab´ yv´a hodnot od −1 do 1 a jeho v´ yznam probereme podrobnˇe v kapitole (3.7), kde budeme hovoˇrit o jeho v´ ybˇerov´em protˇejˇsku. S pojmem kovariance a korelace souvis´ı jeden d˚ uleˇzit´ y koncept, a t´ım je nez´ avislost n´ ahodn´ ych veliˇ cin. Pokud jsou dvˇe n´ahodn´e veliˇciny nez´avisl´e (tedy v´ ysledek jedn´e nijak nesouvis´ı s v´ ysledkem druh´e), pak je kovariance tˇechto n´ahodn´ ych veliˇcin nulov´a. Bohuˇzel vztah neplat´ı opaˇcn´ ym smˇerem – nulov´a kovariance n´am ned´av´a jistotu nez´avislosti n´ahodn´ ych veliˇcin. U ˇrady rozdˇelen´ı pravdˇepodobnosti (napˇr. norm´aln´ı, alternativn´ı, viz n´asleduj´ıc´ı kapitoly) tomu tak je, u jin´ ych to ale platit nemus´ı. Nez´avislost n´ahodn´ ych veliˇcin je specifick´ ym pˇr´ıpadem nez´avislosti n´ahodn´ ych jev˚ u. Uvedli jsme, ˇze n´ahodn´e jevy 23
Obr´azek 5: Kvantil spojit´e n´ahodn´e veliˇciny
A a B jsou nez´avisl´e, pokud P (A ∩ B) = P (A)P (B). Analogicky jsou n´ahodn´e veliˇciny X a Y nez´avisl´e, pokud pro libovol´e hodnoty x a y plat´ı P (X < x ∩ Y < y) = P (X < x)P (Y < y). Ekvivalentnˇe bychom mohli tot´eˇz napsat pomoc´ı sdruˇzen´e distribuˇcn´ı funkce jako FX,Y (x, y) = FX (x)FY (y). Z v´ yˇse uveden´eho pak zjevnˇe vypl´ yv´a to, ˇze pro dvˇe nez´avisl´e n´ahodn´e veliˇciny plat´ı: VAR(X + Y ) = VAR(X) + VAR(Y ). Pro jejich stˇredn´ı hodnotu pak E(XY ) = E(X) E(Y ). 2.5.4
Kvantily n´ ahodn´ e veliˇ ciny
Distribuˇcn´ı funkce n´am d´av´a odpovˇed’ na ot´azku, jak´a je pravdˇepodobnost, ˇze se pˇr´ısluˇsn´a n´ahodn´a veliˇcina bude realizovat na intervalu (−∞, x]. Co kdyˇz n´as ale zaj´ım´a opaˇcn´a ot´azka: Jakou hodnotu x bychom museli zvolit, aby v n´ı funkˇcn´ı hodnota distribuˇcn´ı funkce ” dosahovala nˇejak´e n´ami stanoven´e pravdˇepodobnosti α?“ Takov´e hodnotˇe, znaˇcme ji tˇreba xα , ˇr´ık´ame kvantil (pˇr´ıpadnˇe α-kvantil). Jak m˚ uˇzeme vidˇet z obr´azku (5), xα je tedy hodnotou, kde distribuˇcn´ı funkce prot´ın´a hladinu α. S touhle definic´ı kvantilu uspˇejeme u spojit´ ych n´ahodn´ ych veliˇcin, jejichˇz distribuˇcn´ı funkce je rostouc´ı a proch´az´ı vˇsemi hladinami od 0 po 1. Probl´em m˚ uˇze nicm´enˇe nastat u distribuˇcn´ı funkce diskr´etn´ı n´ahodn´e veliˇciny. Ta m´a sv˚ uj charakteristick´ y schodovit´ y tvar. Co kdyˇz zvol´ıme takovou hladinu α, kter´a proch´az´ı mezi dvˇema stupni schodiˇstˇe a distribuˇcn´ı funkci tedy neprotne? Pak je hodnotou xα to m´ısto, kde na distribuˇcn´ı funkci 24
Obr´azek 6: Kvantil diskr´etn´ı n´ahodn´e veliˇciny
doch´az´ı k onomu ,,skoku“. A co kdyˇz s hladinou α naopak pˇresnˇe nˇekter´ y schod tref´ıme? Pak pˇr´ısluˇsn´ ym kvantilem nen´ı jedin´e ˇc´ıslo, ale cel´ y interval odpov´ıdaj´ıc´ı vˇsem hodnot´am na iksov´e ose nad nimiˇz se schod“ rozprost´ır´a. Demonstruje to obr´azek (6). ” Pokud se budeme pt´at tˇreba na to, kolik student˚ u dokonˇc´ı studium s prospˇechem 1.5 nebo lepˇs´ım (niˇzˇs´ım), pt´ame se na hodnotu distribuˇcn´ı funkce FX (1.5). Naopak pokud se t´aˇzeme, na jak´ y prospˇech dos´ahne jen 10 % nejlepˇs´ıch student˚ u, hovoˇr´ıme o kvantilu x0.1 .
2.6
Diskr´ etn´ı rozdˇ elen´ı pravdˇ epodobnosti
Typickou diskr´etn´ı n´ahodnou veliˇcinou je poˇcet nˇeˇceho (tˇreba automobil˚ u v rodinˇe). Diskr´etn´ı jsou tak´e vˇsechny kvalitativn´ı charakteristiky, kter´ ym jsme pˇriˇradili nˇejak´a ˇc´ısla (napˇr. obl´ıben´a znaˇcka doutn´ık˚ u). Na rozd´ıl od spojit´ ych n´ahodn´ ych veliˇcin nab´ yvaj´ı diskr´etn´ı n´ahodn´e veliˇciny nˇekter´ ych hodnot s nenulovou pravdˇepodobnost´ı, coˇz je ponˇekud pˇribliˇzuje ch´ap´an´ı bˇeˇzn´eho ˇclovˇeka. Tˇreba se m˚ uˇzeme pt´at, jak´a je pravdˇepodobnost, ˇze byl jedinec pˇresnˇe dvakr´at za sv˚ uj dosavadn´ı ˇzivot hospitalizov´an v psychiatrick´e l´eˇcebnˇe. Funkci, kter´a n´am d´av´a odpovˇed’ na tuto ot´azku, naz´ yv´ame pravdˇ epodobnostn´ı funkce3 a oznaˇcujeme ji pX (x). Obr´azek (7) zn´azorˇ nuje distribuˇcn´ı funkci a pravdˇepodobnostn´ı funkci veliˇciny pohlav´ı u student˚ u psychologie. Jedniˇckou jsme oznaˇcili muˇze, nulou ˇzeny. Pravdˇepodobnostn´ı funkce tedy pˇresnˇe odpov´ıd´a v´ yˇsce jednotliv´ ych schod˚ u distribuˇcn´ı funkce diskr´etn´ı n´a3ˇ Cten´ aˇre se moˇzn´ a v t´eto f´ azi zmocˇ nuj´ı rozpaky nad t´ım, proˇc jsme definovali uˇz tolik rozmanit´ ych funkc´ı, kter´e pracuj´ı s pravdˇepodobnost´ı, a st´ale definujeme nov´e. Nemohli jsme se vyhnout distribuˇcn´ım funkc´ım a rozdˇelen´ı pravdˇepodobnosti? V pˇr´ıpadˇe diskr´etn´ıch veliˇcin k v´ıce m´enˇe dobr´emu pochopen´ı staˇc´ı zn´ at pravdˇepodobnostn´ı funkci. Pˇredchoz´ı teoretick´e u ´vahy najdou sv´e hlavn´ı vyuˇzit´ı aˇz u spojit´ ych n´ ahodn´ ych veliˇcin.
25
1
1
0.8
0.8
0.6
0.6
pX (x)
FX (x)
Obr´azek 7: Distribuˇcn´ı funkce a pravdˇepodobnostn´ı funkce n´ahodn´e veliˇciny pohlav´ı u student˚ u psychologie
0.4
0.4
0.2 −1
0.2 0
1
−1
2
x
0
1
2
x
Obr´azek 8: Podobnost distribuˇcn´ıch funkc´ı u dvou r˚ uzn´ ych n´ahodn´ ych veliˇcin
hodn´e veliˇciny. Pokud budeme m´ıt oˇci otevˇren´e, zjist´ıme, ˇze ˇradu jev˚ u na svˇetˇe m˚ uˇzeme popsat n´ahodn´ ymi veliˇcinami, jejichˇz distribuˇcn´ı funkce si jsou n´apadnˇe podobn´e. Zkusme tˇreba uvaˇzovat dvˇe u ´plnˇe odliˇsn´e n´ahodn´e veliˇciny. Prvn´ı d´a kaˇzd´emu pracovn´ımu dnu nˇejak´e ˇc´ıslo, podle toho, kolik lid´ı se ten den pokusilo dovolat do m´e kancel´aˇre. Vˇetˇsinou nikdo nevol´a, ale jsou dny, kdy se poˇstˇest´ı a najde se hned nˇekolik telefonist˚ u, kteˇr´ı nˇeco chtˇej´ı. Druh´a n´ahodn´a veliˇcina oˇc´ısluje kaˇzd´eho ˇclovˇeka v Olomouci podle toho, kolikr´at se mu za ˇzivot stala nemil´a ud´alost, kdyˇz bˇehem oblevy kr´aˇcel po ulici, a na hlavu se mu zˇr´ıtil sn´ıh a led ze stˇrechy. Vˇetˇsinu lid´ı tahle nepˇr´ıjemnost naˇstˇest´ı nepotkala, ale existuj´ı i takov´ı smolaˇri, kteˇr´ı podobnou ud´alost zaˇzili nˇekolikr´at. Kdyˇz si nakresl´ıme pravdˇepodobnostn´ı funkce obou jev˚ u (viz obr´azek 8), udeˇr´ı n´as do oˇc´ı pˇrekvapiv´a podobnost. Jak je moˇzn´e, ˇze dvˇe n´ahodn´e veliˇciny, kter´e nemaj´ı na prvn´ı pohled nic podobn´eho, maj´ı tak podobnou distribuˇcn´ı funkci (respektive hodnoty pravdˇepodobnostn´ı funkce)? Pokud si v mˇeˇren´ı zd´anlivˇe nesmysln´ ych vˇec´ı a kreslen´ı jejich distribuc´ı najdeme kon´ıˇcek 26
(coˇz pros´ım nedˇelejte, mohlo by se jednat o duˇsevn´ı poruchu), budeme znovu a znovu nar´aˇzet na nˇekolik tvar˚ u, kter´e m´a n´ahoda zˇrejmˇe o nˇeco radˇeji neˇz jin´e. Pˇr´ıˇcinou vˇsak nen´ı ˇza´dn´a tajemn´a s´ıla, kter´a by ovl´adala n´ahodn´e jevy. Vysvˇetlen´ım je to, ˇze kaˇzd´a ud´alost m´a sv´e pˇr´ıˇciny a existuje nˇekolik pomˇernˇe ˇcast´ ych mechanism˚ u, jak´ ymi m˚ uˇzou b´ yt tyhle pˇr´ıˇciny prov´azan´e mezi sebou. Statistici a jejich pˇredch˚ udci si tˇechto ˇcast´ ych rozdˇelen´ı pravdˇepodobnosti vˇsimli jiˇz d´avno a dali jim r˚ uzn´a jm´ena. Vybran´e rodiny rozdˇelen´ı pravdˇepodobnosti diskr´etn´ı n´ahodn´e veliˇciny probereme podrobnˇeji. 2.6.1
Alternativn´ı rozdˇ elen´ı
Alternativn´ı rozdˇelen´ı m´a kaˇzd´a n´ahodn´a veliˇcina, kter´a m˚ uˇze nab´ yvat pouze dvou hodnot, 0 a 1. (Pokud jsme n´ahodnou veliˇcinu, kter´a m´a jen dvˇe moˇzn´e hodnoty, nadefinovali tak, ˇze tyto hodnoty nejsou 0 a 1, ale tˇreba 1 a 2, m˚ uˇzeme ji snadno do nulajedniˇckov´eho form´atu transformovat.) Alternativn´ı rozdˇelen´ı m´a tˇreba n´ahodn´a veliˇcina pohlav´ı probanda, odpovˇedi na vˇsechny ot´azky typu ano-ne nebo pˇr´ıtomnost a nepˇr´ıtomnost urˇcit´e vlastnosti. Pravdˇepodobnostn´ı funkce alternativn´ıho rozdˇelen´ı pravdˇepodobnosti bude tedy vˇzdy vypadat jako dva hroty; jeden um´ıstˇen´ y na nule a druh´ y na jedniˇcce. Velikost tˇechto hrot˚ u m˚ uˇze b´ yt samozˇrejmˇe r˚ uzn´a, podm´ınkou je pochopitelnˇe pouze to, aby souˇcet obou hodnot byl roven jedn´e. To, kter´ y hrot bude jak velk´ y, vyjadˇruje parametr p. Tento parametr m˚ uˇze nab´ yvat jak´ekoli hodnoty mezi nulou a jedniˇckou a odpov´ıd´a pravdˇepodobnosti, ˇze se n´ahodn´a veliˇcina realizuje s hodnotou 1. Pravdˇepodobnost nuly je pochopitelnˇe 1 − p. M´a-li n´ahodn´a veliˇcina X alternativn´ı rozdˇelen´ı s parametrem p, zap´ıˇseme to X ∼ Alt(p). Pokud je tˇreba n´ahodn´ ym pokusem hod minc´ı a veliˇcina X vyjadˇruje, jestli padla panna, napsali bychom X ∼ Alt(0.5). N´ahodn´a veliˇcina s alternativn´ım rozdˇelen´ım m´a stˇredn´ı hodnotu rovnou hodnotˇe parametru p a rozptyl roven hodnotˇe p(1−p). Zmiˇ novan´a n´ahodn´a veliˇcina proto bude m´ıt stˇredn´ı hodnotu E(X) = 0.5 a rozptyl VAR(X) = 0.25. Distribuˇcn´ı funkci a pravdˇepodobnostn´ı funkci n´ahodn´e veliˇciny s rozdˇelen´ım Alt(0.2) zn´azorˇ nuje obr´azek (7). 2.6.2
Binomick´ e rozdˇ elen´ı
Binomick´e rozdˇelen´ı m´a kaˇzd´a n´ahodn´a veliˇcina, kter´a vznikla jakou souˇcet n nez´avisl´ ych n´ahodn´ ych veliˇcin, z nichˇz kaˇzd´a m´a alternativn´ı rozdˇelen´ı s parametrem p. Je tedy patrn´e, ˇze se rozdˇelen´ı pravdˇepodobnosti z rodiny binomick´ ych rozdˇelen´ı m˚ uˇzou od sebe liˇsit jednak poˇctem opakov´an´ı n a taky t´ım, jakou hodnotu parametru p pˇr´ısluˇsn´a alternativn´ı ˇ ısla n a p jsou proto parametry binomick´eho rozdˇelen´ı. M´a-li veliˇcina rozdˇelen´ı mˇela. C´ X binomick´e rozdˇelen´ı, zapisujeme X ∼ Bi(n, p). Zn´ame-li hodnoty obou parametr˚ u, 27
Obr´azek 9: Pravdˇepodobnostn´ı funkce n´ahodn´ ych veliˇcin a rozdˇelen´ımi Bi(6, 0.5) a Bi(5, 0.9) 0.4
0.6
pX (k)
pX (k)
0.3 0.2 0.1 0
2
4
6
0.4 0.2
0
k
2
4
6
k
m˚ uˇzeme snadno z´ıskat hodnotu pravdˇepodobnostn´ı funkce. Slouˇz´ı k tomu n´asleduj´ıc´ı vztah: n k p(k) = p (1 − p)n−k , k pro k = 0, 1, ..., n.4 V pˇr´ıpadˇe jin´ ych hodnot k m´a pravdˇepodobnostn´ı funkce pochopitelnˇe nulovou hodnotu. M´ame-li k dispozici MS Excel, z´ısk´ame stejnou hodnotu pomoc´ı vzorce =BINOM.DIST(k; n; p; 0). Pokud napˇr´ıklad prov´ad´ıme v´ yzkum na dˇetech ve ˇskolce a v´ıme, ˇze v pr˚ umˇeru 70 % rodiˇc˚ u b´ yv´a ochotno d´at souhlas k zaˇrazen´ı jejich d´ıtˇete do v´ yzkumu, tak m˚ uˇzeme ˇr´ıct, ˇze veliˇcina, kter´a vyˇc´ısluje, kolik z deseti osloven´ ych dˇet´ı skuteˇcnˇe do v´ yzkumu zaˇrad´ıme, m´a rozdˇelen´ı Bi(10, 0.7). Snadno pak vyˇc´ısl´ıme pravdˇepodobnost toho, ˇze z´ısk´ame pˇresnˇe 8 dˇet´ı: 10 · 0.78 · (1 − 0.7)10−8 = 23.3 %. Pravdˇepodobnost, ˇze jich z´ısk´ame vˇsech 10, je 8 10 · 0.710 · (1 − 0.7)10−10 = 0.710 = 2.82 % atd. 10 Pro stˇredn´ı hodnotu n´ahodn´e veliˇciny s binomick´ ym rozdˇelen´ım plat´ı E(X) = np a pro rozptyl VAR(X) = np(1 − p). 2.6.3
Poissonovo rozdˇ elen´ı
Poissonovo rozdˇelen´ı se nˇekdy oznaˇcuje jako rozdˇelen´ı vz´acn´ych jev˚ u a m˚ uˇzeme je povaˇzovat za krajn´ı pˇr´ıpad binomick´eho rozdˇelen´ı. Pˇredstavme si, ˇze m´ame veliˇcinu s binomick´ ym rozdˇelen´ım, kter´a se skl´ad´a z velk´eho mnoˇzstv´ı pokus˚ u (n se tedy bl´ıˇz´ı nekoneˇcnu), kter´e maj´ı velmi malou pravdˇepodobnost (p se bl´ıˇz´ı nule). Pˇritom vˇsak plat´ı, ˇze np = λ. Pr´avˇe toto ˇc´ıslo λ (lambda) je jedin´ ym parametrem Poissonova rozdˇelen´ı P o(λ). 4 U ˇrady diskr´etn´ıch rozdˇelen´ı pravdˇepodobnosti nab´ yv´a p(x) nenulov´e hodnoty pouze pro x z mnoˇziny cel´ ych ˇc´ısel. Abychom zd˚ uraznili, ˇze se jedn´a o cel´a ˇc´ısla, pouˇz´ıv´ame zpravidla p´ısmeno k m´ısto x.
28
Obr´azek 10: Pravdˇepodobnostn´ı funkce n´ahodn´e veliˇciny s rozdˇelen´ım Po(1.5) 0.3 pX (k)
0.2 0.1 −1
0
1
2
3
4
5
6
7
8
9
10
k Klasick´ ymi pˇr´ıklady n´ahodn´ ych veliˇcin s t´ımto rozdˇelen´ım je poˇcet z´akazn´ık˚ u v obchodˇe (lid´ı, co by mohli cht´ıt nakoupit, je obrovsk´e mnoˇzstv´ı, ale pravdˇepodobnost toho, ˇze to dan´eho jedince napadne zrovna ted’, se bl´ıˇz´ı nule) nebo poˇcet hvˇezd, kter´e uvid´ıme v hvˇezd´aˇrsk´em dalekohledu, kdyˇz se s n´ım pod´ıv´ame na nebe (viditeln´ ych hvˇezd je nepoˇc´ıtanˇe, ale pravdˇepodobnost pro kaˇzdou z nich, ˇze bude zrovna v tomto u ´seku oblohy, je zanedbateln´a). Pravdˇepodobnost toho, ˇze n´ahodn´a veliˇcina s Poissonov´ ym rozdˇelen´ım nab´ yv´a hodnoty k, je rovna λk −λ p(k) = e , k! pro libovoln´e nez´aporn´e cel´e ˇc´ıslo k. V ostatn´ıch pˇr´ıpadech je p(k) = 0. Stejnou hodnotu obdrˇz´ıme v programu MS Excel pˇri uˇzit´ı pˇr´ıkazu =POISSON.DIST(k; λ; 0). N´ahodn´a veliˇcina s Poissonov´ ym rozdˇelen´ım m´a stˇredn´ı hodnotu i rozptyl roven parametru λ. 2.6.4
Dalˇ s´ı diskr´ etn´ı rozdˇ elen´ı pravdˇ epodobnosti
Tato tˇri uveden´a rozdˇelen´ı pravdˇepodobnosti nejsou samozˇrejmˇe jedin´a, na kter´a m˚ uˇzeme narazit. Byla vybr´ana, protoˇze se s nimi budeme setk´avat v tomto kurzu a navazuj´ıc´ıch kurzech ˇcastˇeji neˇz s jin´ ymi. Z´ajemc˚ um nicm´enˇe m˚ uˇzeme doporuˇcit prozkoum´an´ı napˇr´ıklad hypergeometrick´ eho a geometrick´ eho rozdˇelen´ı.
29
2.7
Spojit´ a rozdˇ elen´ı pravdˇ epodobnosti
Pro spojit´a rozdˇelen´ı pravdˇepodobnosti plat´ı vˇetˇsina toho, o ˇcem jsme hovoˇrili u diskr´etn´ıch rozdˇelen´ı. Opˇet se budeme bavit o r˚ uznˇe pojmenovan´ ych rodin´ach rozdˇelen´ı pravdˇepodobnosti, kter´a maj´ı sv´a jm´ena a sv´e parametry. Jedn´ım velk´ ym rozd´ılem je fakt, ˇze pro spojit´a rozdˇelen´ı pravdˇepodobnosti nem´a smysl definovat pravdˇepodobnostn´ı funkci. Narazili bychom na jiˇz zm´ınˇen´ y probl´em: Jak´a je pravdˇepodobnost, ˇze n´ahodnˇe vybran´y ” jedinec je vysok´y pˇresnˇe 178.000000 . . . cm? Nulov´a!“ M´ısto toho zde definujeme takzvanou hustotou pravdˇ epodobnosti. Budeme ji znaˇcit mal´ ym p´ısmenem, abychom ji odliˇsili od distribuˇcn´ı funkce, tedy napˇr. fX (x). Hustota pravdˇepodobnosti obvykle nevstupuje do naˇsich v´ ypoˇct˚ u (zde si budeme muset vystaˇcit s distribuˇcn´ı funkc´ı), je vˇsak nesm´ırnˇe uˇziteˇcn´a, kdyˇz si ˇreˇsen´ y probl´em budeme cht´ıt pˇredstavit nebo naˇcrtnout. Hustota pravdˇepodobnosti totiˇz vyuˇz´ıv´a princip, o kter´em jsme hovoˇrili v kapitole o geometrick´e pravdˇepodobnosti: pravdˇepodobnost si m˚ uˇzeme pˇredstavit jako plochu. Jak hustota pravdˇepodobnosti vypad´a? S trochou fantazie m˚ uˇzeme ˇr´ıct, ˇze jej´ı graf vˇzdy vypad´a jako jak´ ysi kopec, kter´ y se rozprost´ır´a nad iksovou osou. Smˇerem k m´ınus i plus nekoneˇcnu
Obr´azek 11: Vztah distribuˇcn´ı funkce a hustoty pravdˇepodobnosti
se rovn´a (nebo bl´ıˇz´ı) nulov´e hodnotˇe a plocha tohoto kopce je vˇzdy rovna jedniˇcce (tedy 100 %). Posledn´ı vlastnost se nejh˚ uˇr pˇredstavuje, ale je pro n´as nejd˚ uleˇzitˇejˇs´ı: pokud si vybereme libovoln´e m´ısto na ose x a onen kopec v nˇem rozdˇel´ıme na dva d´ıly, tak plocha toho d´ılu, co leˇz´ı smˇerem vlevo od x je rovna FX (x). N´azornˇe to ilustruje obr´azek (11). Abychom uspokojili i n´aroˇcnˇejˇs´ı ˇcten´aˇre, jeˇstˇe zmiˇ nme, ˇze hodnota hustoty pravdˇepodobnosti v bodˇe x vlastnˇe ˇr´ık´a, jak moc je distribuˇcn´ı funkce v tomto bodˇe strm´a.
30
Obr´azek 12: Ilustraˇcn´ı obr´azek k hustotˇe n´ahodn´e veliˇciny
Na rozd´ıl od distribuˇcn´ı funkce je koncept hustoty pravdˇepodobnosti pomˇernˇe intuitivn´ı i bez hlubˇs´ıho vzdˇel´an´ı ve statistice. M˚ uˇzeme si pˇredstavovat, ˇze kopec hustoty je tvoˇren vˇsemi moˇzn´ ymi realizacemi n´ahodn´e veliˇciny, kter´e nˇekdo naskl´adal na hromadu tak, aby na jedn´e stranˇe t´e hromady byly realizace s nejmenˇs´ımi hodnotami z druh´e s nejvyˇsˇs´ımi. Na pˇr´ıkladu BMI (body mass index ) u ˇskol´ak˚ u to ilustruje obr´azek (12). Kdyˇz se n´as nˇekdo zept´a, jak´a je pravdˇepodobnost toho, ˇze d´ıtˇe m´a BMI menˇs´ı neˇz tˇreba 22, tedy ˇze se n´ahodn´a veliˇcina X realizuje s hodnotou menˇs´ı neˇz 22, pt´a se vlastnˇe na to, kolik procent ze vˇsech noˇzn´ ych dˇet´ı na obr´azku (12) leˇz´ı smˇerem doleva od tohoto ˇc´ısla. Jin´ ymi slovy, pt´ame se na to, jak´a je plocha tohoto u ´tvaru:
22
Pˇresnou hodnotu z´ısk´ame po dosazen´ı do distribuˇcn´ı funkce FX (22). Grafick´a pˇredstava hustoty pravdˇepodobnosti n´am pom˚ uˇze naj´ıt odpovˇed’ i na sloˇzitˇejˇs´ı ot´azky. Pokud bychom se tˇreba t´azali, s jakou pravdˇepodobnost´ı se X realizuje mezi ˇc´ısly 18 a 22, asi by n´as na prvn´ı pohled nenapadlo, ˇze to je FX (22) − FX (18). Kdyˇz si probl´em pˇrestav´ıme jako hustotu, stane se toto ˇreˇsen´ı zˇrejm´ ym:
31
= 18
−
22
22
18
Podobnˇe jako v pˇr´ıpadˇe, kdyˇz se pt´ame, s jakou pravdˇepodobnost´ı se veliˇcina X realizuje mimo interval (18, 22):
= 18
−
−
22
22
18
Vyj´adˇreno pomoc´ı distribuˇcn´ı funkce: P X ≤ 18 ∪ X ≥ 22 = 1 − FX (22) − FX (18) . Spojit´ ych rozdˇelen´ı, kter´a maj´ı sv´e jm´eno, existuj´ı des´ıtky. Pˇri statistick´ ych v´ ypoˇctech na nˇe budeme nar´aˇzet mnohem ˇcastˇeji neˇz na ta diskr´etn´ı. V tomto textu se bl´ıˇze sezn´am´ıme se dvˇema, kter´a se vyskytuj´ı v pˇr´ırodˇe pomˇernˇe ˇcasto a s dalˇs´ımi ˇctyˇrmi, kter´a maj´ı speci´aln´ı vyuˇzit´ı pˇri testov´an´ı statistick´ ych hypot´ez a konstrukci konfidenˇcn´ıch interval˚ u. 2.7.1
Rovnomˇ ern´ e rozdˇ elen´ı
N´ahodn´a veliˇcina s rovnomˇern´ ym (uniformn´ım) rozdˇelen´ım pravdˇepodobnosti se realizuje na intervalu [a, b], kde p´ısmena a a b odpov´ıdaj´ı jeho parametr˚ um a m˚ uˇzou nab´ yvat hodnoty libovoln´ ych re´aln´ ych ˇc´ısel (a je menˇs´ı neˇz b). Rovnomˇern´e rozdˇelen´ı znaˇc´ıme Ro(a, b) nebo U (a, b). Hustota rovnomˇern´eho rozdˇelen´ı se v r´amci intervalu [a, b] rovn´a 1 , b−a
jinde je nulov´a. Plocha pod kˇrivkou tedy tvoˇr´ı obd´eln´ık, proto se toto rozdˇelen´ı
naz´ yv´a t´eˇz rektangul´arn´ı5 . Rovnomˇern´e rozdˇelen´ı m´a napˇr´ıklad rozd´ıl mezi skuteˇcn´ ym ˇcasem a ˇcasem, kter´ y ukazuj´ı digit´aln´ı hodiny, nebo d´elka ˇcek´an´ı na tramvaj, kdyˇz v n´ahodn´ y ˇcas pˇrijdete na zast´avku, ke kter´e v pravideln´ ych intervalech pˇrij´ıˇzd´ı tramvaje. Nech´ame-li poˇc´ıtaˇc generovat n´ahodn´a ˇc´ısla, tak ty maj´ı zpravidla rozdˇelen´ı Ro(0, 1) (v MS Excel pˇr´ıkaz ´ C ˇ ´ISLO()). N´ahodn´a veliˇcina s rovnomˇern´ =NAH ym rozdˇelen´ım m´a stˇredn´ı hodnou E(X) = a+b 2
a rozptyl VAR(X) =
(b−a)2 . 12
5
Pro u ´plnost uved’me, ˇze pojmem rovnomˇern´e rozdˇelen´ı se nˇekdy oznaˇcuje i diskr´etn´ı rozdˇelen´ı pravdˇepodobnosti, kdy se n´ ahodn´ a veliˇcina m˚ uˇze realizovat koneˇcn´ ym poˇctem hodnot, pˇriˇcemˇz vˇsechny nast´ avaj´ı se stejnou pravdˇepodobnost´ı.
32
Obr´azek 13: Hustoty pravdˇepodobnosti n´ahodn´ ych veliˇcin s rozdˇelen´ımi Ro(1, 6) a Ro(2, 4) 1
fX (x)
0.8 0.6 0.4 0.2
0
1
2
3
4
5
6
7
x 2.7.2
Norm´ aln´ı rozdˇ elen´ı
Mezi vˇsemi rozdˇelen´ımi, o kter´ ych jsme doposud mluvili a o kter´ ych budeme mluvit na dalˇs´ıch str´ank´ach, m´a zcela v´ yjimeˇcnou pozici norm´aln´ı (Gaussovo) rozdˇelen´ı. Za zm´ınku stoj´ı, ˇze jeho n´azev nen´ı zvolen zrovna ˇst’astnˇe – neexistuje ˇza´dn´e nenorm´aln´ı rozdˇelen´ı, aˇc se toto slovn´ı spojen´ı vyskytuje v diplomov´ ych prac´ıch k nelibosti oponent˚ u pomˇernˇe ˇ ım je toto rozdˇelen´ı tak v´ ˇcasto. C´ yjimeˇcn´e? Pˇredevˇs´ım t´ım, ˇze je v pˇr´ırodˇe i spoleˇcnosti neuvˇeˇritelnˇe ˇcast´e. S trochou nads´azky m˚ uˇzeme ˇr´ıct, ˇze vˇsechno smˇeˇruje k norm´aln´ımu rozdˇelen´ı. Norm´aln´ı rozdˇelen´ı vznik´a tehdy, kdyˇz sledovan´a n´ahodn´a veliˇcina pˇredstavuje souˇcet velk´eho mnoˇzstv´ı n´ahodn´ ych veliˇcin s podobnˇe velk´ ymi rozptyly. V pˇr´ırodˇe to je tˇreba vˇetˇsina vlastnost´ı ˇziv´ ych organism˚ u. At’ uˇz inteligence nebo tˇreba tˇelesn´a v´ yˇska jsou produktem nespoˇctu nepatrn´ ych vliv˚ u (jednotliv´e geny, podnˇety z prostˇred´ı bˇehem v´ yvoje, v´ yˇziva. . . ) a ˇr´ıd´ı se proto norm´aln´ım rozdˇelen´ım. Norm´aln´ı rozdˇelen´ı m´a dva parametry µ a σ 2 (,,m´ı” a ,,sigma na druhou”). Prvn´ı z nich odpov´ıd´a jeho stˇredn´ı hodnotˇe a druh´ y jeho rozptylu. Hustota norm´aln´ıho rozdˇelen´ı m´a charakteristick´ y zvonovit´ y tvar. Jej´ı pr˚ ubˇeh popisuje pˇredpis (x−µ)2 1 fX (x) = √ e− 2σ2 . σ 2π
K t´emuˇz v´ ysledku vede v programu MS Excel funkce =NORM.DIST(x; µ; σ; 0). V´ıce uˇzitku n´am nicm´enˇe m˚ uˇzou pˇrin´est hodnoty distribuˇcn´ı funkce norm´aln´ıho rozdˇelen´ı, kter´e z´ısk´ame pomoc´ı pˇr´ıkazu =NORM.DIST(x; µ; σ; 1), pˇr´ıpadnˇe kvantil norm´aln´ıho rozdˇelen´ı =NORM.INV(α; µ; σ). To, ˇze m´a n´ahodn´a veliˇcina X norm´aln´ı rozdˇelen´ı za33
Obr´azek 14: Hustoty pravdˇepodobnosti n´ahodn´ ych veliˇcin s rozdˇelen´ımi N (0, 0.52 ) a 2 N (1, 1 ) 1 0.8
fX (x)
0.6 0.4 0.2
−2
−1
0
1 x
2
3
4
pisujeme X ∼ N (µ, σ 2 ). Tˇreba IQ m´a rozdˇelen´ı N (100, 152 ). Pozoruhodnou vlastnost´ı norm´aln´ıho rozdˇelen´ı je to, ˇze pokud seˇcteme v´ıce n´ahodn´ ych veliˇcin s t´ımto rozdˇelen´ım, tak v´ ysledn´a n´ahodn´a veliˇcina m´a opˇet norm´aln´ı rozdˇelen´ı. Norm´aln´ı rozdˇelen´ı je zachov´ano i v pˇr´ıpadˇe, ˇze n´ahodnou veliˇcinu s norm´aln´ım rozdˇelen´ım jakkoli line´arnˇe transformujeme (tzn. pˇriˇcteme k n´ı konstatnu nebo ji konstantou vyn´asob´ıme). 2.7.3
Normovan´ e norm´ aln´ı rozdˇ elen´ı
Normovan´e norm´aln´ı rozdˇelen´ı je speci´aln´ım pˇr´ıpadem norm´aln´ıho rozdˇelen´ı, kdy µ = 0 a σ 2 = 1. Oznaˇcujeme jej proto N (0, 1). Jedn´a se zˇrejmˇe o nejd˚ uleˇzitˇejˇs´ı rozdˇelen´ı pravdˇepodobnosti, se kter´ ym se v tomto kurzu setk´av´ame. Paradoxnˇe na nˇej zˇrejmˇe nikdy v pˇr´ırodˇe nenaraz´ıme. Jeho v´ yhodou je to, ˇze jakoukoli veliˇcinu, kter´a m´a obecnˇe norm´aln´ı rozdˇelen´ı, m˚ uˇzeme transformovat na veliˇcinu, kter´a m´a normovan´e norm´aln´ı rozdˇelen´ı. Z pˇredeˇsl´ ych kapitol jiˇz m´ame dostatek znalost´ı, abychom tuto transformaci sami odvodili. M´ame-li veliˇcinu X ∼ N (µ, σ 2 ), pak u n´ı potˇrebujeme prov´est dvˇe zmˇeny. Jednak ji posunout tak, aby jej´ı stˇredn´ı hodnota byla rovna nule. To udˇel´ame jednoduˇse odeˇcten´ım konstanty µ. Pak potˇrebujeme upravit rozptyl t´eto n´ahodn´e veliˇciny. Toho dos´ahneme tak, ˇze n´ahodnou veliˇcinu podˇel´ıme odmocninou jej´ıho rozptylu, tedy hodnotou σ (pˇripomeˇ nme, ˇze onu odmocninu z rozptylu oznaˇcujeme pojmem smˇerodatn´a odchylka). M˚ uˇzeme proto zapsat Z=
X −µ , σ
kde X ∼ N (µ, σ 2 ) a Z ∼ N (0, 1). 34
Obr´azek 15: Hustota pravdˇepodobnosti n´ahodn´e veliˇciny s normovan´ ym norm´aln´ım rozdˇelen´ım 0.5 0.4
fX (x)
0.3 0.2 0.1
−3
−2
−1
0 x
1
2
3
Vztah, kter´ ym je urˇcena hustota pravdˇepodobnosti, lze odvodit z hustoty obecn´eho norm´aln´ıho rozdˇelen´ı: x2 1 fZ (x) = √ e− 2 . 2π V programu MS Excel m˚ uˇzeme pouˇz´ıt stejn´e funkce, jako pro norm´aln´ı rozdˇelen´ı, za stˇredn´ı hodnotu dosad´ıme 0 a za rozptyl 1. Nebo m˚ uˇzeme vyuˇz´ıt funkci =NORM.S.DIST (x; 0) pro hustotu, =NORM.S.DIST(x; 1) pro distribuˇcn´ı funkci a =NORM.S.INV(α) pro kvantil. Normovan´e norm´aln´ı rozdˇelen´ı nem´a ˇz´adn´e parametry, nejedn´a se tedy o rodinu rozdˇelen´ı, ale existuje jedin´e sv´eho druhu. To n´am umoˇzn ˇuje hodnoty jeho distribuˇcn´ı funkce a kvantilu sepsat do tabulky, coˇz je nesm´ırnˇe uˇziteˇcn´e, pokud nem´ame k dispozici poˇc´ıtaˇc. (Situace nem´ıt u sebe poˇc´ıtaˇc je dnes sp´ıˇse u ´smˇevn´a, nicm´enˇe jeˇstˇe pˇred 30ti lety, to byla samozˇrejmost.) Hustota pravdˇepodobnosti normovan´eho norm´aln´ıho rozdˇelen´ı je symetrick´a kolem nuly. Toto m´a pro n´as jeden pˇr´ıjemn´ y d˚ usledek. Pravdˇepodobnost, ˇze se n´ahodn´a veliˇcina, kter´a m´a toto rozdˇelen´ı, bude realizovat s hodnotou menˇs´ı neˇz nˇejak´a z´aporn´a hodnota −x, je pˇresnˇe stejn´a jako pravdˇepodobnost, ˇze se tato n´ahodn´a veliˇcina bude realizovat s hodnotou vˇetˇs´ı neˇz kladn´a hodnota x. Takˇze napˇr´ıklad FZ (−1) = 16% a tedy FZ (1) = 84%, a podobnˇe pro kvantil (budeme jej znaˇcit Φα ) plat´ı, ˇze napˇr´ıklad Φ0.05 = −1.64 a Φ0.95 = 1.64. Obecnˇe tedy FZ (−x) = 1 − FZ (x), −Φα = Φ1−α . Tato vlastnost n´am znatelnˇe usnadn´ı poˇcty s t´ımto rozdˇelen´ım pravdˇepodobnosti. 35
Vrat’me se zpˇet k u ´vaze nad t´ım, jak norm´aln´ı rozdˇelen´ı vznik´a. Uvedli jsme, ˇze to je souˇcet velk´eho mnoˇzstv´ı nez´avisl´ ych n´ahodn´ ych veliˇcin s podobn´ ymi rozptyly. Tento princip lze matematicky popsat pomoc´ı takzvan´ ych centr´ aln´ıch limitn´ıch vˇ et (nˇekdy se t´eˇz hovoˇr´ı o centr´ aln´ım limitn´ım teor´ emu). Demonstrujme jej na pˇr´ıkladu. Pˇredstavte si, ˇze kaˇzd´e r´ano jezd´ıte do pr´ace tramvaj´ı. Ta stav´ı kaˇzd´e 4 minuty na zast´avce hned pˇred dveˇrmi vaˇseho domu. Vy jste si ale nikdy nedali tu pr´aci nauˇcit se j´ızdn´ı ˇra´d, takˇze vyr´aˇz´ıte z domu ve zcela nahodil´ y ˇcas. Nˇekdy se tedy stane, ˇze v´am tramvaj ujede pˇred nosem a vy mus´ıte ˇcekat 4 minuty na dalˇs´ı, jindy tramvaj chytnete ihned a d´elka vaˇseho ˇcek´an´ı je t´emˇeˇr 0 a v ostatn´ıch pˇr´ıpadech to je nˇeco mezi tˇemito dvˇema ˇc´ısly. N´ahodn´a veliˇcina d´elka ˇcek´an´ı (oznaˇcme ji X1 ) m´a rovnomˇern´e rozdˇelen´ı Ro(0, 4) a graf jej´ı hustoty pravdˇepodobnosti vypad´a jako obd´eln´ık rozkl´adaj´ıc´ı se mezi nulou a ˇctyˇrkou (viz prvn´ı graf na obr´azku 16). Jak je vidˇet, pravdˇepodobnost, ˇze budete ˇcekat m´enˇe neˇz jednu minutu, je stejn´a, jak ˇze budete ˇcekat d´ele neˇz 3 minuty, nebo tˇreba libovoln´ y ˇcas mezi 1.5 a 2.5 minuty. Taky v´ıme to, ˇze stˇredn´ı doba ˇcek´an´ı E(X) jsou 2 minuty. Stejn´ ym zp˚ usobem jezd´ıte i z pr´ace dom˚ u. D´elku druh´eho ˇcek´an´ı popiˇsme veliˇcinou X2 . Obˇe veliˇciny maj´ı stejn´a rozdˇelen´ı Ro(0, 4) a jsou na sobˇe nez´avisl´e – to, jak dlouho budeme ˇcekat r´ano, nijak neovlivn´ı, jak dlouho budeme ˇcekat odpoledne. Jak´e rozdˇelen´ı m´a pak n´ahodn´a veliˇcina, kter´a popisuje, kolik ˇcasu jsme urˇcit´ y den str´avili na zast´avce, tedy X1 + X2 ? I bez hlubˇs´ıch znalost´ı vid´ıme, ˇze souˇcet X1 + X2 nebude nikdy vyˇsˇs´ı neˇz 8 (tzn. za dan´ ych podm´ınek se nic horˇs´ıho, neˇz se n´am tramvaj ujede r´ano i odpoledne, nestane) a nikdy niˇzˇs´ı neˇz 0 (dvakr´at budeme m´ıt ˇstˇest´ı a nastoup´ıme hned pot´e, co vykroˇc´ıme ze dveˇr´ı). Taky m˚ uˇzeme ˇr´ıct, ˇze stˇredn´ı hodnota E(X1 + X2 ) je rovna 4, coˇz jednak d´av´a smysl, jelikoˇz r´ano i odpoledne v pr˚ umˇeru ˇcek´ame po dvou minut´ach a taky v´ıme ˇze E(X1 + X2 ) = E(X1 ) + E(X2 ). Pˇrekvapiv´e vˇsak m˚ uˇze b´ yt to, ˇze n´ahodn´a veliˇcina X1 + X2 nebude m´ıt rovnomˇern´e rozdˇelen´ı. Graf hustoty pravdˇepodobnosti se zmˇen´ı do podoby troj´ uheln´ıku (viz obr´azek 16). Tedy pravdˇepodobnost toho, ˇze celkov´a doba ˇcek´an´ı bude nˇekde mezi 4 a 5 minutami je daleko vyˇsˇs´ı, neˇz ˇze to bude ˇc´ıslo z intervalu [7, 8] nebo tˇreba [0, 1]. S nejvyˇsˇs´ı pravdˇepodobnost´ı se doba ˇcek´an´ı bude pohybovat nˇekde kolem 4 minut. Je tomu tak proto, ˇze pouze pro ˇctyˇrku plat´ı, ˇze bez ohledu na to, jak dlouho ˇcek´ate r´ano, vˇzdycky m˚ uˇze b´ yt vaˇse celkov´a doba ˇcek´an´ı rovna 4 minut´am. Kdyˇz si ale vybereme jin´e ˇc´ıslo, tak ˇc´ım bude leˇzet d´al od ˇctyˇrky, t´ım je vˇetˇs´ı ˇsance, ˇze uˇz po n´astupu do rann´ı tramvaje budete vˇedˇet, ˇze mu dneˇsn´ı celkov´a doba ˇcek´an´ı nebude odpov´ıdat. Tˇreba pokud jste r´ano ˇcekali pˇresnˇe 3 minuty, tak s jistotou v´ıte, ˇze celkov´a doba ˇcek´an´ı nebude menˇs´ı neˇz 3 a ani nebude vˇetˇs´ı neˇz 7 minut. 36
0
2
4
6
8
0
n = 10
0
5
10
15
20
2
4
6
8 10
0
n = 20
0.02 0.00
0.00
0.00
0.04
0.03
n=5
0.00 0.04 0.08 0.12
0.12 0.00
5
0.030
4
0
10
20
30
40
n=4
5
10
15
n = 50
0.015
3
0
20
40
60
80
0.000
2
0.04
1
n=3
0.06
0.20 0.10 0
0.06
-1 0.08
n=2
0.00
0.00
0.10
0.20
Obr´azek 16: Pˇr´ıklad p˚ usoben´ı centr´aln´ı limitn´ı vˇety u n´ahodn´e veliˇciny s Ro(0,4)
0
50
100
150
200
Pˇriˇcteme k naˇsim dvˇema ˇcek´an´ım jeˇstˇe jedno ˇcek´an´ı z r´ana dalˇs´ıho dne, X3 . Opˇet jde o nez´avislou n´ahodnou veliˇcinu s rozdˇelen´ım Ro(0, 4). Celkov´a doba ˇcek´an´ı (zapiˇsme Pn ji u ´spornˇe jako cuje poˇcet sˇc´ıtan´ ych veliˇcin, tedy 3) i ted’ zmˇen´ı i=1 Xi , kde n oznaˇ tvar sv´e hustoty. Ilustruje jej tˇret´ı graf na obr´azku (16). A d´al se bude mˇenit s poˇctem n´ahodn´ ych veliˇcin, kter´e seˇcteme. Grafy hustoty celkov´eho ˇcek´an´ı za t´ yden (n = 10) a dva t´ ydny (n = 20) jiˇz budou mnohem v´ıce pˇripom´ınat kopec neˇz obd´eln´ık. A celkov´a doba, co str´av´ıme na zast´avce za mˇes´ıc (n = 50), m´a rozdˇelen´ı t´emˇeˇr nerozeznateln´e od norm´aln´ıho rozdˇelen´ı. Vid´ıme napˇr´ıklad, ˇze s pravdˇepodobnost´ı hraniˇc´ıc´ı s jistotou celkov´a doba ˇcek´an´ı za mˇes´ıc nebude delˇs´ı neˇz 150 minut ani kratˇs´ı neˇz 50 minut, aˇc teoreticky m˚ uˇze vyj´ıt libovoln´e ˇc´ıslo mezi nulou a 200. V uveden´em pˇr´ıkladu maj´ı n´ahodn´e veliˇciny X rovnomˇern´e rozdˇelen´ı. Ve skuteˇcnosti by vˇsak mohlo j´ıt o bezm´ala jak´ekoli rozdˇelen´ı pravdˇepodobnosti vˇcetnˇe diskr´etn´ıch.6 P Pro dostateˇcnˇe vysok´a n se bude rozdˇelen´ı pravdˇepodobnosti n´ahodn´e veliˇciny ni=1 Xi podobat norm´aln´ımu rozdˇelen´ı bez ohledu na p˚ uvodn´ı tvar. Toto norm´aln´ı rozdˇelen´ı bude m´ıt stˇredn´ı hodnotu n · E(X) a rozptyl n · VAR(X) (vzpomeˇ nme si, ˇze pro nez´avisl´e n´ahodn´e veliˇciny plat´ı VAR(X1 + X2 ) = VAR(X1 ) + VAR(X2 )). Matematicky pˇresn´e norm´aln´ı rozdˇelen´ı bychom z´ıskali tehdy, pokud bychom seˇcetli nekoneˇcno sˇc´ıtanc˚ u (n = ∞). Tady vˇsak nar´aˇz´ıme na menˇs´ı z´adrhel: pokud n´ahodn´e veliˇciny X maj´ı jinou stˇredn´ı hodnotu a rozptyl neˇz 0, pak hodnoty obou parametr˚ u souˇctu nekoneˇcn´e posloupnosti n´ahodn´ ych veliˇcin budou nekoneˇcnˇe velk´e. S t´ımto probl´emem se snadno vyrovn´ame, jelikoˇz z libovoln´eho norm´aln´ıho rozdˇelen´ı um´ıme udˇelat normovan´e norm´aln´ı rozdˇelen´ı odeˇcten´ım stˇredn´ı hodnoty a vydˇelen´ım odmocninou z rozptylu. 6
S v´ yjimkou nˇekolika matematiky speci´alnˇe vyˇslechtˇen´ ych rozdˇelen´ı, kter´a maj´ı nekoneˇcn´ y rozptyl, a tento postup u nich nefunguje. Viz napˇr´ıklad Cauchyova distribuce.
37
Oznaˇc´ıme-li E(X) = µ a VAR(X) = σ 2 , pak n X − nµ 1 X Xi − µ i i=1 √ . =√ σ n i=1 nσ 2
Pn Z=
Centr´aln´ı limitn´ı vˇetu m˚ uˇzeme shrnout do tˇechto slov: m´ame-li nez´avisl´e n´ahodn´e veliˇciny Xi , kde i = 1, 2, ..., n, se stˇredn´ı hodnotou µ a koneˇcn´ ym rozptylem σ 2 , pak pro n jdouc´ı k nekoneˇcnu plat´ı n 1 X Xi − µ ∼ N (0, 1). Z=√ σ n i=1 Centr´aln´ı limitn´ı teor´em je d˚ uvodem, proˇc jsme v kapitole (2.7.2) tvrdili, ˇze s trochou nads´azky vˇse smˇeˇruje k norm´aln´ımu rozdˇelen´ı. Mnoho kvantitativn´ıch charakteristik je souˇctem velk´eho mnoˇzstv´ı mal´ ych vliv˚ u. Pokud ty maj´ı podobnˇe velk´e rozptyly a jsou v´ıce m´enˇe nez´avisl´e, pak m˚ uˇzeme ˇcekat, ˇze se v´ yˇse popsan´ y mechanismus projev´ı a vtiskne sledovan´e veliˇcinˇe podobu bl´ızkou norm´aln´ımu rozdˇelen´ı. 2.7.4
Rozdˇ elen´ı χ2
ˇ Reknˇ eme, ˇze jsme pouˇzili znalosti z pˇredeˇsl´ ych odstavc˚ u a vytvoˇrili n´ahodnou veliˇcinu X, kter´a m´a normovan´e norm´aln´ı rozdˇelen´ı. Pokud tuto n´ahodnou veliˇcinu umocn´ıme na druhou, z´ısk´ame n´ahodnou veliˇcinu X 2 , kter´a m´a rozdˇelen´ı χ2(1) (ˇcti ch´ı kvadr´at“). Jedniˇcka ” v z´avorce oznaˇcuje poˇcet stupˇ n˚ u volnosti, coˇz je jedin´ y parametr tohoto rozdˇelen´ı. Rozdˇelen´ı χ2 je takzvanˇe aditivn´ı. Znamen´a to, ˇze pokud seˇcteme v´ıce nez´avisl´ ych n´ahodn´ ych veliˇcin, kter´e maj´ı toto rozdˇelen´ı, tak vznikl´a n´ahodn´a veliˇcina bude m´ıt tak´e rozdˇelen´ı χ2 s poˇctem stupˇ n˚ u volnosti rovn´ ym souˇctu stupˇ n˚ u volnosti sˇc´ıtan´ ych rozdˇelen´ı: χ2(n) + χ2(m) = χ2(n+m) . M´ame-li tedy k dispozici 4 nez´avisl´e n´ahodn´e veliˇciny, pro kaˇzdou z nichˇz plat´ı, ˇze m´a rozdˇelen´ı N (0, 1), pak m´a souˇcet jejich druh´ ych mocnin rozdˇelen´ı χ2(4) . Obecnˇe bychom tedy ˇrekli, ˇze pro n nez´avisl´ ych n´ahodn´ ych veliˇcin Xi ∼ N (0, 1) plat´ı vztah n X
Xi2 ∼ χ2(n) .
i=1
Rozdˇelen´ım χ2 obvykle nepopisujeme ˇza´dn´ y pˇr´ımo pozorovateln´ y jev, ale uˇz´ıv´ame jej pˇri testov´an´ı statistick´ ych hypot´ez a pˇri konstrukci konfidenˇcn´ıch interval˚ u. Hodnoty hustoty rozdˇelen´ı χ2 m˚ uˇzeme nal´ezt napˇr´ıklad pomoc´ı MS Excel uˇzit´ım funkce 38
Obr´azek 17: Hustota pravdˇepodobnosti rozdˇelen´ı χ2 0.5
fX (x)
0.4 0.3 0.2 0.1 0
1
2
3
4 x
5
6
7
8
Jednotliv´e grafy hustot se liˇs´ı stupni volnosti, od nejtmavˇs´ı po nejsvˇetlejˇs´ı 1, 2, 3, 4, 6, 9 stupˇ n˚ u volnosti.
=CHISQ.DIST(x; n; 0), distribuˇcn´ı funkce =CHISQ.DIST(x; n; 1) a kvantilu =CHISQ. INV(α; n). Grafy hustoty pravdˇepodobnosti n´ahodn´ ych veliˇcin s rozdˇelen´ım χ2 zn´azorˇ nuje obr´azek (17). 2.7.5
Studentovo t-rozdˇ elen´ı
Studentovo rozdˇelen´ı je opˇet pˇr´ıkladem rozdˇelen´ı, se kter´ ym se v pˇr´ırodˇe nesetk´ame, pro nejr˚ uznˇejˇs´ı statistick´e v´ ypoˇcty je vˇsak mimoˇra´dnˇe d˚ uleˇzit´e. K pˇr´ıpravˇe n´ahodn´e veliˇciny se Studentov´ ym rozdˇelen´ım potˇrebujeme dvˇe ingredience: n´ahodnou veliˇcinu X0 s normoP van´ ym norm´aln´ım rozdˇelen´ım a na n´ı nez´avislou n´ahodnou veliˇcinu ni=1 Xi2 z pˇredeˇsl´e podkapitoly, o kter´e v´ıme, ˇze m´a rozdˇelen´ı χ2(n) . Z tˇechto dvou n´ahodn´ ych veliˇcin vytvoˇr´ıme veliˇcinu X0 T = q Pn
i=1
Xi2
,
n
kter´a m´a Studentovo rozdˇelen´ı s n stupni volnosti, kter´e odpov´ıdaj´ı stupˇ n˚ um volnosti pouˇzit´e n´ahodn´e veliˇciny s rozdˇeln´ım χ2 . Zapisujeme T ∼ t(n) . Hodnoty hustoty, distribuˇcn´ı funkce a kvantilu Studentova rozdˇelen´ı opˇet m˚ uˇzeme z´ıskat prostˇrednictv´ım aplikace MS Excel pomoc´ı funkc´ı =T.DIST(x; n; 0), =T.DIST(x; n; 1) a =T.INV(α; n). Graf hustoty pravdˇepodobnosti Studentova t-rozdˇelen´ı pˇripom´ın´a normovan´e norm´aln´ı rozdˇelen´ı s tˇeˇzˇs´ımi chvosty. M˚ uˇzeme proto vyuˇz´ıt stejn´ ych vlastnost´ı jako u normovan´eho norm´aln´ıho rozdˇelen´ı plynouc´ı z jeho symetrie kolem nuly. S rostouc´ım poˇctem stupˇ n˚ u
39
Obr´azek 18: Hustota pravdˇepodobnosti Studentova t-rozdˇelen´ı 0.4
fX (x)
0.3 0.2 0.1 −3
−2
−1
0 x
1
2
3
Jednotliv´e grafy hustot se liˇs´ı stupni volnosti, od nejtmavˇs´ı po nejsvˇetlejˇs´ı 1, 2, 5, 30, 100 stupˇ n˚ u volnosti.
volnosti si jsou obˇe rozdˇelen´ı podobnˇejˇs´ı. Pˇri n jdouc´ım k nekoneˇcnu se st´avaj´ı identick´ ymi. 2.7.6
Fisherovo F rozdˇ elen´ı
Posledn´ım sloˇzen´ ym rozdˇelen´ım, kter´e budeme vyuˇz´ıvat pˇri statistick´ ych v´ ypoˇctech, je Fisherovo rozdˇelen´ı (t´eˇz Fisherovo-Snedecorovo, nebo jen F rozdˇelen´ı). Toto rozdˇelen´ı m˚ uˇzeme z´ıskat pomoc´ı dvou nez´avisl´ ych n´ahodn´ ych veliˇcin (budeme je znaˇcit X1 a X2 ), kter´e maj´ı rozdˇelen´ı χ2 s n1 a n2 stupni volnosti. N´ahodn´a veliˇcina F =
X1 n1 X2 n2
m´a Fisherovo rozdˇelen´ı s n1 a n2 stupni volnosti (zapisujeme F ∼ F(n1 ,n2 ) ). Jak je patrn´e, toto rozdˇelen´ı m´a dva parametry a jsou jimi stupnˇe volnosti ˇcitatele a stupnˇe volnosti jmenovatele. Hodnoty nelze sv´evolnˇe vymˇenit. Pozorn´ y ˇcten´aˇr si m˚ uˇze vˇsimnout toho, ˇze pokud umocn´ıme na druhou n´ahodnou veliˇcinu s rozdˇelen´ım t(n) , z´ısk´ame n´ahodnou veliˇcinu s rozdˇelen´ım F(1,n) . V programu MS Excel lze z´ıskat hodnoty hustoty pravdˇepodobnosti, distribuˇcn´ı funkce i kvantilu pˇr´ıkazy =F.DIST(x; n1 ; n2 ; 0), =F.DIST(x; n1 ; n2 , 1) a =F.INV(α; n1 ; n2 ).
40
Obr´azek 19: Hustota pravdˇepodobnosti Fisherova rozdˇelen´ı 0.8
fX (x)
0.6 0.4 0.2
0
0.5
1
1.5
2 x
2.5
3
3.5
4
Jednotliv´e grafy hustot se liˇs´ı stupni volnosti, kter´ ych je n1 a n2 . U oranˇzov´ ych graf˚ u m´a n1 hodnotu 1 a u modr´ ych 10. Parametr n2 nab´ yv´a hodnot 1, 3, 12 od nejtmavˇs´ı po nejsvˇetlejˇs´ı barvy.
41
3
Popisn´ a statistika
Pˇri studiu pˇredchoz´ıch kapitol ˇcten´aˇre moˇzn´a pˇrepadla vt´ırav´a myˇslenka, ˇze psycholog, a to i ten, co pracuje ve v´ yzkumu, ˇreˇs´ı ponˇekud jin´ y druh probl´em˚ u neˇz v´ ypoˇcty kovarianc´ı, kreslen´ı graf˚ u hustot pravdˇepodobnosti nebo dosazov´an´ı do vzorc˚ u pravdˇepodobnostn´ı funkce. V praxi n´as obvykle potk´av´a opaˇcn´a situace – pozorujeme skuteˇcnost a n´ahodn´e veliˇciny nevid´ıme prostˇrednictv´ım jejich distribuˇcn´ıch funkc´ı, ale jen jako koneˇcn´ y poˇcet jejich realizac´ı, tedy nˇekolik stˇr´ıpk˚ u zkuˇsenosti, kter´ ym jsme pˇridˇelili ˇc´ısla na z´akladˇe nˇejak´ ych pravidel (napˇr. poˇcty bod˚ u, kter´e lid´e z´ıskali v psychodiagnostick´em testu). V t´eto kapitole proto odboˇc´ıme od naˇseho dosavadn´ıho v´ ykladu a nauˇc´ıme se tˇr´ıdit, popisovat a zobrazovat pozorov´an´ı svˇeta kolem n´as. Popisn´a statistika je pro mnoho lid´ı jedinou oblast´ı statistiky, o kter´e kdy slyˇseli. Pojmy jako pr˚ umˇer nebo medi´an zn´a zˇrejmˇe kaˇzd´ y a nejr˚ uznˇejˇs´ı grafy jsou bˇeˇznou souˇca´st´ı televizn´ıho zpravodajstv´ı. Tuto znalost rozvineme a sezn´am´ıme se s celou ˇradou ukazatel˚ u, kter´e n´am pom˚ uˇzou popsat naˇse pozorov´an´ı. Popisn´a statistika m´a ve skuteˇcnosti hned dvoj´ı vyuˇzit´ı. Zjist´ıme, ˇze ˇrada pojm˚ u, se kter´ ymi jsme se setkali v pˇredchoz´ıch kapitol´ach, se bude opakovat. Znovu napˇr´ıklad naraz´ıme na kvantily, rozptyl nebo korelaˇcn´ı koeficient. Jak´ y je vztah mezi tˇemito teoretick´ ymi parametry a jejich empirick´ ymi protˇejˇsky, zat´ım ˇcten´aˇri z˚ ustane utajeno. Ne ovˇsem na dlouho – tomuto t´ematu zasvˇet´ıme celou kapitolu o statistick´ ych odhadech, kter´a bude uzav´ırat prvn´ı semestr statistiky. Vrat’me se ale k naˇsemu p˚ uvodn´ımu u ´ˇcelu popisn´e statistiky. O statistice se ˇr´ık´a, ˇze to je vˇeda o tom, jak pˇrehlednˇe vyj´adˇrit nepˇrehledn´e vˇeci. To je sice ponˇekud u ´zk´a definice, ale pomˇernˇe pˇresnˇe vystihuje podstatu popisn´e statistiky. Kouknˇeme se tˇreba na vˇetu: Petr vˇcera veˇcer vypil ˇctyˇri piva, Tom´aˇs dvˇe, Radek a Luk´aˇs kaˇzd´y ˇsest, Karel ˇctyˇri, ” Michal pˇet a Jirka jedno.“ Jedn´a se o u ´plnou v´ ypovˇed’ o veliˇcinˇe poˇcet vypit´ych piv u skupiny pˇr´atel, kteˇr´ı zˇrejmˇe cosi oslavovali. Aˇc je tento soubor pomˇernˇe mal´ y, tak uˇz i toto sdˇelen´ı je vcelku nepˇrehledn´e. O nˇeco pˇrehlednˇejˇs´ı je moˇzn´a tvrzen´ı: Sedm pˇr´atel ” vˇcera vypilo 28 piv.“ Nebo dokonce: Kaˇzd´y z pˇr´atel vypil v pr˚ umˇeru ˇctyˇri piva.“ U ” velk´eho poˇctu pozorov´an´ı je toto v podstatˇe jedin´ y zp˚ usob, jak o nich vypov´ıdat, jelikoˇz vyjmenovat vˇsechny hodnoty by nepˇrineslo ˇz´adn´ y uˇzitek. Moˇzn´a nam´ıt´ate, ˇze z vˇety Sedm pˇr´atel vˇcera vypilo 28 piv,“ nem˚ uˇzeme vyˇc´ıst ” napˇr´ıklad, kdo se bude r´ano pot´ ykat s pˇr´ıˇsernou kocovinou a komu se tato starost vyhne. Je patrn´e, ˇze t´ım, kdyˇz u ´daje o souboru zestruˇcn´ıme do nˇekolika popisn´ ych charakteristik, velkou ˇc´ast informac´ı ztr´ac´ıme. Je jen na naˇs´ı obratnosti a znalosti popisn´e statistiky, abychom rozhodli, kter´ yu ´daj je d˚ uleˇzit´ y a kter´ y si m˚ uˇzeme dovolit opomenout.
42
3.1
Statistick´ y soubor a statistick´ y znak
Kdyˇz se budeme bavit o nˇejak´e mnoˇzinˇe pozorov´an´ı, tedy tˇreba o naˇs´ı skupinˇe sedmi pˇr´atel z v´ yˇse uveden´eho pˇr´ıkladu, budeme pouˇz´ıvat oznaˇcen´ı statistick´ y soubor. Jednotliv´e pˇr´atele bychom oznaˇcovali za prvky (pˇr´ıpadnˇe jednotky) tohoto souboru. V psychologii jsou tˇemito prvky nejˇcastˇeji lid´e, nic n´am ale nebr´an´ı do pozice prvk˚ u pasovat tˇreba ˇskoln´ı tˇr´ıdy, nebo freudovsk´e gauˇce. U kaˇzd´eho prvku pak sledujeme nˇejak´e statistick´ e znaky – ve v´ yˇse uveden´em pˇr´ıkladu to byl poˇcet vypit´ ych piv, je to ale tˇreba tak´e pohlav´ı, vˇek, ˇci jak´akoli jin´a charakteristika, kterou jsme pˇred t´ım popisovali pomoc´ı n´ahodn´e veliˇciny. Zejm´ena tehdy, kdyˇz statistick´ y znak nab´ yv´a jen omezen´eho mnoˇzstv´ı r˚ uzn´ ych hodnot, naz´ yv´ame tyto jednotliv´e hodnoty u ´ rovnˇ emi statistick´ eho znaku. Takˇze tˇreba znak pohlav´ı by mohl m´ıt u ´rovnˇe 0 a 1, reprezentuj´ıc´ı ˇzena“ a muˇz“. ” ”
3.2
ˇ Cetnosti
Chceme-li popisovat statistick´ y soubor, prvn´ı ot´azka, kter´a n´as zˇrejmˇe bude zaj´ımat, je, kolik pozorov´an´ı jsme uˇcinili (tedy napˇr´ıklad u kolika klient˚ u jsme administrovali nˇejak´ y test a ted’ m´ame jejich v´ ysledky k dispozici). Tento ukazatel budeme jednoduˇse naz´ yvat rozsah souboru a znaˇcit p´ısmenem n (v nˇekter´ ych textech t´eˇz N ). Pokud statistick´ y soubor rozdˇel´ıme na v´ıce podsoubor˚ u, tˇreba na podsoubor muˇz˚ u a ˇzen, nebo pokud jednoduˇse pracujeme s v´ıce soubory, u kaˇzd´eho z nich opˇet m˚ uˇzeme hovoˇrit o jeho rozsahu a znaˇcit p´ısmenem n s nˇejak´ ym indexem (napˇr. n1 , n2 ). Na tent´ yˇz u ´kol bychom se mohli pod´ıvat i z druh´e strany a pt´at se, s jakou ˇcetnost´ı urˇcit´ y statistick´ y znak (zde tˇreba pohlav´ı) v souboru nab´ yv´a urˇcit´e u ´rovnˇe (zde tˇreba muˇz). Hovoˇrili bychom pak o absolutn´ı ˇ cetnosti, kterou m˚ uˇzeme znaˇcit p´ısmenem fj jako frekvence (p´ısmeno j, je oznaˇcen´ı dan´e kategorie, respektive podsouboru). Stejnˇe jako rozsah souboru je tedy absolutn´ı ˇcetnost nˇejak´e nez´aporn´e cel´e ˇc´ıslo. Za nˇekter´ ych okolnost´ı by mohlo b´ yt tak´e uˇziteˇcn´e vyj´adˇrit jedn´ım ˇc´ıslem, u jak velk´e pomˇern´e ˇca´sti souboru m´a statistick´ y znak tuto konkr´etn´ı u ´roveˇ n. Pak bychom hovoˇrili o relativn´ı ˇ cetnosti, kterou m˚ uˇzeme znaˇcit pj . M´ame-li tedy tˇreba soubor o deseti lidech (n = 10) a pt´ame se, kolik z nich m´a modr´e oˇci, pak je-li f1 je rovno ˇc´ıslu 3, tak p1 = 0.3 (respektive 30 %). Zjevnˇe tedy plat´ı vztah: pj =
fj . n
Vz´acnˇe potˇrebujeme vyj´adˇrit, kolik pozorov´an´ı m´a hodnotu statistick´eho znaku rovnou nebo menˇs´ı, neˇz je hodnota dan´e u ´rovnˇe. Hovoˇrili bychom pak o absolutn´ıch nebo
43
Tabulka 1: Tabulka ˇcetnost´ı – poˇcet zoubk˚ u u dˇet´ı absolutn´ı relativn´ı poˇcet absolutn´ı relativn´ı kumulativn´ı kumulativn´ı zoubk˚ u ˇcetnost ˇcetnost ˇcetnost ˇcetnost 14 2 0.031 64 1.000 13 1 0.016 62 0.969 12 5 0.078 61 0.953 11 2 0.031 56 0.875 11 0.172 54 0.844 10 3 0.047 43 0.672 9 8 10 0.156 40 0.625 6 0.094 30 0.469 7 6 3 0.047 24 0.375 6 0.094 21 0.328 5 4 9 0.141 15 0.234 4 0.063 6 0.094 3 2 1 0.016 2 0.031 1 0 0.000 1 0.016 1 0.016 1 0.016 0 relativn´ıch kumulativn´ıch ˇ cetnostech. Tabulka (1) shrnuje ˇcetnosti jednotliv´ ych u ´rovn´ı znaku poˇcet proˇrezan´ych zub˚ u u souboru 64 dˇet´ı ve vˇeku 12-16 mˇes´ıc˚ u. 3.2.1
Histogram
Pro grafick´e zn´azornˇen´ı ˇcetnost´ı jednotliv´ ych u ´rovn´ı sledovan´eho znaku m´ame ˇradu n´astroj˚ u. V pˇr´ıpadˇe kvalitativn´ıch znak˚ u, jako je tˇreba preferovan´y filmov´y ˇz´anr, bychom mohli s´ahnout napˇr´ıklad po kol´aˇcov´em grafu. Za nˇekter´ ych okolnost´ı bychom mohli ˇcetnosti zobrazit pomoc´ı sloupcov´eho grafu (tˇreba tehdy, kdyˇz jednotliv´e u ´rovnˇe maj´ı pevnˇe dan´e poˇrad´ı, kter´e by v kol´aˇcov´em grafu nebylo patrn´e). Tyto n´astroje podrobnˇeji rozeb´ırat nebudeme, jelikoˇz jejich znalost patˇr´ı k vˇseobecn´emu vzdˇel´an´ı. Zastav´ıme se nad speci´aln´ım pˇr´ıpadem sloupcov´eho grafu, a t´ım je histogram. Pomoc´ı histogramu m´ame moˇznost pozorovat pˇribliˇzn´ y tvar grafu hustoty pravdˇepodobnosti n´ahodn´e veliˇciny, kter´a se ve statistick´em souboru manifestuje jako kvantitativn´ı znak. Abychom vytvoˇrili histogram, mus´ıme rozdˇelit statistick´ y soubor do kategori´ı. Pˇredstavme si, ˇze mˇeˇr´ıme tˇreba srdeˇcn´ı frekvenci pokusn´ ych osob a zaj´ım´a n´as, jak´e rozdˇelen´ı pˇribliˇznˇe m´a tato n´ahodn´a veliˇcina. Kategorie bychom mohli stanovit napˇr´ıklad takto: [65, 70), [70, 75), [75, 80), . . . , [155, 160), [160, 165). Pro kaˇzdou kategorii bychom pak mohli spoˇc´ıtat absolutn´ı (pˇr´ıpadnˇe relativn´ı) ˇcetnost a nalezen´e hodnoty zobrazit formou sloupcov´eho grafu. Hranice kategori´ı by bylo moˇzn´e stanovit o nˇeco rozumnˇeji. Mohlo by b´ yt uˇziteˇcn´e 44
navrhnout kategorie tak, aby jejich stˇredy byla cel´a (nebo nˇejak kulat´a) ˇc´ısla. Napˇr´ıklad tedy [62.5, 67.5), [67.5, 72.5), . . . , [152.5, 157.5), [157.5, 162.5). Sloupeˇcky histogramu pak budou vycentrov´any nad ˇc´ısly 65, 70, . . . , 155, 1607 . Obvykle vol´ıme vˇsechny kategorie stejnˇe ˇsirok´e, v nˇekter´ ych pˇr´ıpadech vˇsak nech´ame krajn´ı kategorie otevˇren´e (tedy napˇr. [−∞, 67.5)). Kategorie na sebe mus´ı samozˇrejmˇe tˇesnˇe pˇril´ehat a mus´ı pokr´ yvat vˇsechny pozorovan´e hodnoty. Pˇri kreslen´ı grafu nenech´av´ame mezi sloupci mezery, jeden tedy pˇril´eh´a tˇesnˇe na druh´ y. Posledn´ı a d˚ uleˇzitou ot´azkou je, jak ˇsirok´e kategorie stanovit, respektive jak´ y poˇcet kategori´ı zvolit. Aˇc se zd´a, ˇze tato ot´azka je zcela ban´aln´ı, jedn´a se o pomˇernˇe d˚ uleˇzit´e rozhodnut´ı, kter´e m˚ uˇze v´est ke zcela odliˇsn´emu pochopen´ı dat. Vezmˇeme si histogramy na obr´azku (20), kter´e zobrazuj´ı tat´aˇz data, rozdˇelena do r˚ uznˇe ˇsirok´ ych kategori´ı. K usnadnˇen´ı volby poˇctu kategori´ı byla stanovena ˇrada pravidel. Nejzn´amˇejˇs´ı je zˇrejmˇe Sturgesovo pravidlo8 , kter´e pro n pozorov´an´ı stanovuje k kategori´ı jako k = 1 + log10 (n) · 3.322. Aˇc je toto pravidlo stanoveno na z´akladˇe sofistikovan´e u ´vahy (vych´az´ı z vlastnost´ı binomick´eho rozdˇelen´ı), nevede vˇzdy k uˇziteˇcn´ ym v´ ysledk˚ um. V pˇr´ıpadˇe na obr´azku (20) by byl v´ ysledek pˇribliˇznˇe 6.6, tedy 7 kategori´ı. Jak se zd´a, je toto ˇc´ıslo pomˇernˇe mal´e. Veˇsker´a pravidla proto berme pouze jako pomocn´ y n´astroj a pˇri volbˇe vhodn´eho poˇctu kategori´ı a jejich mez´ı se ˇrid’me sp´ıˇse citem a u ´ˇcelem naˇseho sdˇelen´ı.
3.3
Extr´ emy, variaˇ cn´ı rozpˇ et´ı a odlehl´ a pozorov´ an´ı
Dalˇs´ı zaj´ımavou informaci, kter´a zpˇresn´ı naˇsi znalost statistick´eho souboru, je nejvyˇsˇs´ı a nejniˇzˇs´ı pozorovan´a hodnota sledovan´eho znaku. Zavedeme proto maximum a minimum, kter´a budeme znaˇcit xmin a xmax . Tyto ukazatele pochopitelnˇe lze stanovit pouze tehdy, kdyˇz m˚ uˇzeme u ´rovnˇe sledovan´eho znaku srovn´avat, nenajdeme je tedy u kvalitativn´ıch znak˚ u. V literatuˇre se tak´e hovoˇr´ı o variaˇ cn´ım rozpˇ et´ı R, kter´e je definov´ano jako rozd´ıl tˇechto extr´emn´ıch hodnot. Tedy R = xmax − xmin . V odborn´ ych textech se vˇsak s variaˇcn´ım rozpˇet´ım setk´ame pomˇernˇe zˇr´ıdka a maximum i minimum tak´e uv´ad´ıme pouze v pomˇernˇe specifick´ ych pˇr´ıpadech. Typicky se s n´ım setk´ame pˇri popisu zkouman´eho souboru z hlediska vˇeku (,,Vˇek respondent˚ u se pohyboval mezi hodnotami 18 a 25 let”). 7
Dodejme vˇsak, ˇze to, kter´e ˇreˇsen´ı je hezˇc´ı a kter´e m´enˇe hezk´e, je vˇec n´azoru. Nˇekdy popisujeme stˇredy sloupeˇck˚ u a podle toho je um´ıst’ujeme, jindy popisujeme okraje kategori´ı. Rozhodovac´ım krit´erie je jen estetick´e c´ıtˇen´ı autora dan´eho grafu. 8 Nˇekdy tot´eˇz pravidlo zapisujeme jako k = 1 + log2 (n). Hodnotu zaokrouhlujeme nahoru. Oba vzorce vedou ke stejn´emu v´ ysledku.
45
Obr´azek 20: Uk´azky dobr´e a ˇspatn´e volby poˇctu kategori´ı histogramu 15
10
Poˇcet pozorov´an´ı
Poˇcet pozorov´an´ı
12
8 6 4 2
5
80 100 120 140 160 Srdeˇcn´ı frekvence
25
50
20
40
Poˇcet pozorov´an´ı
Poˇcet pozorov´an´ı
60
10
15 10 5
60
80 100 120 140 160 Srdeˇcn´ı frekvence
60
80 100 120 140 160 Srdeˇcn´ı frekvence
60
80 100 120 140 160 Srdeˇcn´ı frekvence
30 20 10
Vˇsechny ˇctyˇri histogramy vych´ az´ı ze stejn´ ych hodnot srdeˇcn´ı frekvence na skupinˇe 96 proband˚ u. Je patrn´e, ˇze prvn´ı histogram m´ a kategorie pˇr´ıliˇs jemn´e a v grafu jsou trhliny. Posledn´ı histogram je naopak sloˇzen z pˇr´ıliˇs ˇsirok´ ych kategori´ı, a nen´ı tak v˚ ubec patrn´e to, ˇze graf hustoty sledovan´e veliˇciny m´ a dva vrcholy. Nejvhodnˇejˇs´ı je zˇrejmˇe kategorizace pouˇzit´a ve tˇret´ım grafu.
46
3.3.1
Odlehl´ a pozorov´ an´ı
Mal´e vyuˇzit´ı v´ yˇse uveden´ ych charakteristik souvis´ı zˇrejmˇe s jednou jejich nepˇr´ıjemnou vlastnost´ı: staˇc´ı, aby se v souboru vyskytl jedin´ y prvek, kter´ y m´a hodnotu statistick´eho znaku o mnoho vyˇsˇs´ı nebo naopak o mnoho niˇzˇs´ı neˇz ostatn´ı prvky, a nalezen´a charakteristika se radik´alnˇe zmˇen´ı. Touto u ´vahou se dost´av´ame k zaj´ımav´emu probl´emu. Obecnˇe m˚ uˇzeme ˇr´ıct, ˇze nˇekter´e charakteristiky statistick´eho souboru jsou pomˇernˇe st´al´e a po zaˇrazen´ı nˇekolika hodnot, kter´e svou velikost´ı vyboˇcuj´ı, se zmˇen´ı jen m´alo. Jin´e, jako napˇr´ıklad variaˇcn´ı rozpˇet´ı, na pˇr´ıtomnost takov´ ych hodnot reaguje drastickou zmˇenou. Vlastnost, o kter´e hovoˇr´ıme, oznaˇcujeme jako robustnost. Robustn´ı ukazatele tedy pˇrikl´adaj´ı menˇs´ı v´ahu extr´emn´ım pozorov´an´ım a jsou jimi jen m´alo ovlivnˇeny. Prvky statistick´eho souboru, kter´e v urˇcit´em znaku n´apadnˇe vyboˇcuj´ı, oznaˇcujeme pojmem odlehl´ a pozorov´ an´ı (bˇeˇznˇe se vˇsak setk´ame i s anglick´ ym v´ yrazem outlier). Je-li prvek statistick´eho souboru v nˇekter´em znaku outlier, nemus´ı to znamenat, ˇze je outlierem i v jin´ ych znac´ıch. Pokud zjist´ıme pˇr´ıtomnost outlier˚ u ve statistick´em souboru, ˇ mˇeli bychom jim vˇenovat zvl´aˇstn´ı pozornost. Casto n´as napadne, ˇze bychom tato odlehl´a pozorov´an´ı mˇeli ze souboru vylouˇcit. Tento krok je nicm´enˇe krajn´ım ˇreˇsen´ım, ke kter´emu bychom se nemˇeli odhodlat, pokud jej nedok´aˇzeme ospravedlnit. V rozhodnut´ı n´am pom˚ uˇze zejm´ena to, kdyˇz zjist´ıme p˚ uvod odlehl´eho pozorov´an´ı. Pokud jde o chybu (napˇr´ıklad vzniklou pˇri pˇrepisov´an´ı pap´ırov´ ych dotazn´ık˚ u do poˇc´ıtaˇce nebo selh´an´ım pˇri mˇeˇren´ı), m˚ uˇzeme hodnotu opravit, respektive odstranit. Pokud se vˇsak jedn´a o pravdivou hodnotu, mˇeli bychom se sp´ıˇse pˇrizp˚ usobit my a pˇri vyhodnocen´ı se spol´ehat pouze na robustn´ı ukazatele a postupy.
3.4
M´ıry polohy
Pˇri popisu sledovan´eho znaku ˇcasto hled´ame jedinou hodnotu, kter´a by co nejpˇresnˇeji reprezentovala cel´ y statistick´ y soubor. Pˇrestoˇze to je t´emˇeˇr nesplniteln´ yu ´kol pro jedin´e ˇc´ıslo, existuje cel´a ˇrada ukazatel˚ u, kter´e tuto u ´lohu nˇejak zastat dok´aˇzou. Kaˇzd´ y z nich m´a sv´e v´ yhody i nev´ yhody. 3.4.1
Aritmetick´ y pr˚ umˇ er
Notoricky zn´amou a nejˇcastˇeji uˇz´ıvanou m´ırou polohy je aritmetick´ y pr˚ umˇer (anglicky mean). Vypoˇc´ıt´a se jako souˇcet vˇsech hodnot vydˇelen´ y jejich poˇctem. Pro statistick´ y znak x jej budeme znaˇcit x¯ a vypoˇc´ıt´ame jako n
x¯ =
1X xi . n i=1 47
Pr˚ umˇer lze smysluplnˇe pouˇz´ıt jen u kvantitativn´ıch statistick´ ych znak˚ u. Nikdo n´am samozˇrejmˇe nebr´an´ı ve v´ ypoˇctu tˇreba pr˚ umˇern´eho poˇrad´ı, pˇri takov´em kroku si vˇsak mus´ıme uvˇedomit, ˇze se jiˇz nevyjadˇrujeme k p˚ uvodn´ı veliˇcinˇe, ale skuteˇcnˇe jen k samotn´emu poˇrad´ı. Pro ˇcten´aˇre, kteˇr´ı chtˇej´ı do statistiky proniknout hloubˇeji, m˚ uˇzeme zm´ınit jeˇstˇe dvˇe zaj´ımav´e vlastnosti pr˚ umˇeru. Prvn´ı je vcelku zˇrejm´a – souˇcet rozd´ıl˚ u vˇsech namˇeˇren´ ych hodnot od pr˚ umˇeru je vˇzdy roven nule. Jin´ ymi slovy, souˇcet vd´alenost´ı vˇsech hodnot pod pr˚ umˇerem je roven souˇctu vˇsech vzd´alenost´ı hodnot nad pr˚ umˇerem. Druh´a je jiˇz o nˇeco m´enˇe patrn´a – souˇcet druh´ ych mocnin rozd´ıl˚ u vˇsech namˇeˇren´ ych hodnot od pr˚ umˇeru je nejmenˇs´ı moˇzn´ y. Jin´ ymi slovy, pokud bychom pr˚ umˇer nahradili jakoukoli jinou hodnotou, tak tento souˇcet ˇctverc˚ u najdeme vˇzdy vyˇsˇs´ı. Pˇri v´ ypoˇctu aritmetick´eho pr˚ umˇeru pˇredpokl´ad´ame, ˇze kaˇzd´ y prvek, kter´ y zahrneme do v´ ypoˇctu, m´a stejnou v´ahu. V nˇekter´ ych situac´ıch se vˇsak vyplat´ı nˇekter´e prvky povaˇzovat za d˚ uleˇzitˇejˇs´ı a jin´e za m´enˇe d˚ uleˇzit´e. Tehdy vyuˇz´ıv´ame v´ aˇ zen´ y pr˚ umˇ er. Narazit na nˇej m˚ uˇzeme napˇr´ıklad ve ˇskol´ach, kde, kdyˇz uˇcitel´e vypoˇc´ıt´avaj´ı pr˚ umˇernou zn´amku, kaˇzd´emu zkouˇsen´ı pˇridˇel´ı urˇcitou v´ahu podle toho, ˇci ˇslo tˇreba o d˚ uleˇzitou ˇctvrtletn´ı pr´aci nebo jen kr´atk´e pr˚ ubˇeˇzn´e zkouˇsen´ı. Pˇri v´ ypoˇctu v´aˇzen´eho pr˚ umˇeru tedy nepracujeme jen s hodnotami x1 , x2 , ..., xn , ale tak´e s jejich v´ahami w1 , w2 , ..., wn . V´aˇzen´ y pr˚ umˇer z´ısk´ame jako Pn w j xi . x¯ = Pi=1 n i=1 wj Nˇekdy jsou v´ahy z´amˇernˇe vyb´ır´any tak, ˇze se jejich souˇcet rovn´a jedn´e. Pokud tomu tak P je, m˚ uˇzeme z pˇredeˇsl´eho vzorce ponechat jen v´ yraz z ˇcitatele x¯ = ni=1 wj xi . Klasick´ ym vyuˇzit´ım v´aˇzen´eho pr˚ umˇeru je tak´e situace, kdy zn´ame pr˚ umˇery a rozsahy nˇekolika (k) d´ılˇc´ıch r˚ uznˇe rozs´ahl´ ych skupin a potˇrebujeme zjistit pr˚ umˇer celkov´ y. Na m´ısto jednotliv´ ych hodnot bychom pak um´ıstili jednotliv´e pr˚ umˇery x¯j a jako v´ahy by n´am poslouˇzily rozsahy jednotliv´ ych soubor˚ u nj . Pouˇzili bychom tedy vzorec ve tvaru Pk
j=1
x¯ = Pk
nj x¯j
j=1 nj
.
Vezmˇeme si napˇr´ıklad situaci, kdy chceme spoˇc´ıtat pr˚ umˇernou d´elku hospitalizace v urˇcit´e psychiatrick´e l´eˇcebnˇe. M´ame k dispozici pr˚ umˇernou d´elku hospitalizace na ˇzensk´em oddˇelen´ı (17.5 dne) a muˇzsk´em oddˇelen´ı (14.5 dne). D´ale v´ıme, ˇze ˇzen bylo ve sledovan´em obdob´ı hospitalizov´ano 36, zat´ımco muˇz˚ u 24. Vypoˇc´ıt´ame hodnotu v´ yrazu x¯ = 36·17.5+24·14.5 36+24
= 16.3. V´ ysledek tedy ˇr´ık´a, ˇze pr˚ umˇern´a doba hospitalizace bez ohledu na po-
hlav´ı byla 16.3 dn˚ u. Kdybychom nezohlednili velikost skupin, tak dostaneme (nespr´avn´ y) v´ ysledek 16.0 dn˚ u. 48
3.4.2
Robustn´ı modifikace aritmetick´ eho pr˚ umˇ eru
Silnou str´ankou aritmetick´eho pr˚ umˇeru a z´aroveˇ n jeho slabinou je to, ˇze jeho v´ yˇse je ovlivnˇena kaˇzdou hodnotou v souboru. V´ yhoda je to proto, ˇze pr˚ umˇer tak pˇredstavuje nesm´ırnˇe pˇresn´ y a citliv´ y ukazatel. Nev´ yhoda, ˇze staˇc´ı do souboru zaˇradit jedinou hodnotu, kter´a je v´ yraznˇe vyˇsˇs´ı ˇci niˇzˇs´ı neˇz ostatn´ı hodnoty, aby byl pr˚ umˇer vych´ ylen, nejedn´a se tedy o pˇr´ıliˇs robustn´ı ukazatel. Pˇredstavme si tˇreba, ˇze prov´ad´ıme sexuologick´ y v´ yzkum mezi vysokoˇskolsk´ ymi studenty a jeden ze znak˚ u, kter´e sledujeme, je poˇcet jejich dosavadn´ıch sexu´aln´ıch partner˚ u. Pro jednoduchost se spokoj´ıme se vzorkem dvaceti lid´ı, u kter´ ych zjist´ıme tyto hodnoty: 0
0
1
1
1
1
2
2
2
3
3
4
5
8
8
9
13
18
29 300.
Jedn´a se o kvantitativn´ı znak, takˇze n´am nic nebr´an´ı vyuˇz´ıt aritmetick´ y pr˚ umˇer. Po dosazen´ı ˇc´ısel do vzorce m˚ uˇzeme konstatovat, ˇze pr˚ umˇern´ y student mˇel dvacet a p˚ ul sexu´aln´ıch partner˚ u. Aˇc jsme pouˇzili spr´avn´ y vzorec, tak z´ıskan´a hodnota nevypov´ıd´a t´emˇeˇr o niˇcem. Hod´ı se, pokud chceme ˇsokovat nebo u nˇekoho vzbudit pocit m´enˇecennosti. Podle naˇseho vzorku dobr´ ych 90 % respondent˚ u na toto ˇc´ıslo v˚ ubec nedos´ahne. Druh´ y nedostatek pr˚ umˇeru je tak´e zjevn´ y – nikdo ve skuteˇcnosti (doufejme) nemˇel pˇresnˇe dvacet a p˚ ul partnera. Pr˚ umˇern´a hodnota nemus´ı odpov´ıdat hodnotˇe znaku u ˇza´dn´eho z prvk˚ u naˇseho vzorku (coˇz je nicm´enˇe vlastnost, kterou maj´ı t´emˇeˇr vˇsechny ukazatele m´ıry polohy). V pˇr´ıpadˇe, ˇze sledovan´a veliˇcina m´a znaˇcnˇe nesymetrick´e rozdˇelen´ı s odlehl´ ymi hodnotami, neb´ yv´a pr˚ umˇer zdaleka nejlepˇs´ım ukazatelem. N´ızk´a robustnost aritmetick´eho pr˚ umˇeru vedla statistiky k vytvoˇren´ı ukazatel˚ u, kter´e si zachov´avaj´ı vysokou pˇresnost a citlivost, ale z´aroveˇ n jsou odoln´e na zkreslen´ı v d˚ usledku odlehl´ ych hodnot. Jsou jimi useknut´ y pr˚ umˇer (trimmed mean, truncated mean) a winsorizovan´ y pr˚ umˇer (winsorized mean). Useknut´ y pr˚ umˇ er vypoˇc´ıt´ame stejnˇe jako obyˇcejn´ y aritmetick´ y pr˚ umˇer, jen s t´ım rozd´ılem, ˇze jeˇstˇe pˇred v´ ypoˇctem vyˇrad´ıme urˇcit´e procento nejvyˇsˇs´ıch a nejniˇzˇs´ıch hodnot. Pˇri v´ ypoˇctu dvacetiprocentn´ıho useknut´eho pr˚ umˇeru vyˇrad´ıme 20 % nejvyˇsˇs´ıch a 20 % nejniˇzˇs´ıch hodnot, a ze zb´ yvaj´ıc´ıch hodnot vypoˇc´ıt´ame aritmetick´ y pr˚ umˇer. V pˇr´ıpadˇe, ˇze poˇcet hodnot, kter´e bychom mˇeli z v´ ypoˇctu z kaˇzd´e strany odstranit, nen´ı cel´e ˇc´ıslo, tak nalezen´ y poˇcet vyˇrazen´ ych prvk˚ u zaokrouhlujeme dol˚ u. Tedy pro n = 10 bude 25% useknut´ y pr˚ umˇer pracovat s ˇsesti prostˇredn´ımi hodnotami9 . Na podobn´em principu funguje winsorizovan´ y pr˚ umˇ er. Tentokr´at vˇsak m´ısto toho, 9
Ve skuteˇcnosti bychom mohli pouˇz´ıt pˇresnˇejˇs´ı metodu neˇz zaokrouhlen´ı. Pokud bychom mˇeli 10 pozorov´ an´ı a poˇc´ıtali 25% useknut´ y pr˚ umˇer, tak v´ıme, ˇze prvn´ı a druh´e (taky dev´at´e a des´at´e) mˇeˇren´ı do v´ ypoˇctu nezahrneme, ale tˇret´ı (a osm´e) mˇeˇren´ı by mˇelo b´ yt zahrnuto z jedn´e poloviny. Mohli bychom jim proto d´ at poloviˇcn´ı v´ ahu neˇz ˇsesti prostˇredn´ım ˇclen˚ um a pouˇz´ıt vzorec pro v´ ypoˇcet v´aˇzen´eho pr˚ umˇeru.
49
abychom okrajov´e hodnoty z v´ ypoˇctu vyˇradili, nahrad´ıme urˇcit´e procento nejvyˇsˇs´ıch a nejniˇzˇs´ıch hodnot posledn´ı hodnotou, kter´e tento limit nepˇrekraˇcuje. Tedy soubor 1, 2, 3, 4, 10 by mohl b´ yt winsorizov´an na 2, 2, 3, 4, 4 a hodnota pr˚ umˇeru by se zmˇenila z 5 na 3. Oba zmiˇ novan´e robustn´ı postupy maj´ı sv´a omezen´ı a pouˇz´ıv´ame je jen v nˇekter´ ych situac´ıch. V praxi se s nimi setk´ame tˇreba tehdy, kdyˇz zkoum´ame, kolik ˇcasu zabere ˇclovˇeku odpovˇedˇet na jednotliv´e poloˇzky dotazn´ıku. Tu a tam se stane, ˇze nˇekter´a pokusn´a osoba na chv´ıli pr´aci pˇreruˇs´ı a t´ım vytvoˇr´ı odlehlou hodnotu, kter´e se tˇreba pomoc´ı winsorizace zbav´ıme. Useknut´ y pr˚ umˇer znaj´ı fandov´e krasobruslen´ı – jednotliv´ı posuzovatel´e boduj´ı soutˇeˇz´ıc´ıho, nejpˇr´ısnˇejˇs´ı a nejm´ırnˇejˇs´ı hodnocen´ı se ale ˇskrt´a. 3.4.3
Medi´ an a v´ ybˇ erov´ y kvantil
Nejˇcastˇeji pouˇz´ıvanou robustn´ı m´ırou polohy je medi´an. Znaˇc´ıme jej p´ısmenem x˜ (pˇr´ıpadnˇe Mdn(x)). Medi´an pˇredstavuje prostˇredn´ı hodnotu ze souboru vˇsech hodnot. Pokud bychom tedy chtˇeli zjistit napˇr´ıklad medi´an v´ yˇsky studenta psychologie, nechali bychom vˇsechny studenty nastoupit do ˇrady od nejmenˇs´ıho po nejvyˇsˇs´ıho, a pak bychom vybrali toho studenta, co stoj´ı pˇresnˇe v polovinˇe ˇrady. Jeho v´ yˇska by pˇredstavovala pr´avˇe medi´an. Pokud je prvk˚ u sud´ y poˇcet a nejde tedy rozhodnout, kter´ y je pˇresnˇe uprostˇred, vezmeme dvˇe prostˇredn´ı hodnoty a spoˇc´ıt´ame jejich pr˚ umˇer. Vyj´adˇreno vzorcem tedy pro x1 < x2 < ... < xn plat´ı x n+1 pro lich´e n x˜ = x n 2+x n 2 2 +1 pro sud´e n. 2 Medi´an si m˚ uˇzeme taky pˇredstavit jako krajn´ı pˇr´ıpad useknut´eho pr˚ umˇeru, kdy v souboru ponech´ame jen jeden nebo dva prostˇredn´ı prvky. Medi´an m´a tu vlastnost, ˇze dˇel´ı soubor na dvˇe stejnˇe velk´e poloviny – pod i nad n´ım tedy leˇz´ı stejn´ y poˇcet prvk˚ u. Nez´aleˇz´ı na tom, o jak´e hodnoty se jedn´a, jde jen o jejich poˇrad´ı. O medi´anu tedy m˚ uˇzeme ˇr´ıct, ˇze je vysoce robustn´ı. Vrat’me se k pˇredeˇsl´emu pˇr´ıkladu o v´ yzkumu sexu´aln´ıho chov´an´ı. Spoˇc´ıt´ame-li medi´an jako souˇcet jeden´act´eho a des´at´eho prvku vzorku lomeno dvˇema z´ısk´ame v´ ysledek 3 sexu´aln´ı partneˇri. Coˇz je ˇc´ıslo, kter´e podle z´ıskan´ ych dat vystihuje skuteˇcnost daleko l´epe. Po medi´anu jednoznaˇcnˇe s´ahneme, kdyˇz pracujeme s poˇrad´ım, nikoli s pˇresn´ ymi hodnotami, a nem˚ uˇzeme tedy pouˇz´ıt pr˚ umˇer. Uˇziteˇcn´ y m˚ uˇze b´ yt i tehdy, kdyˇz m´a zkouman´a veliˇcina vyloˇzenˇe asymetrick´e rozdˇelen´ı, nebo kdyˇz se potˇrebujeme vyrovnat s odlehl´ ymi hodnotami, jak jsme vidˇeli na pˇr´ıkladu. Naˇsi u ´vahu m˚ uˇzeme d´ale zobecnit. Co kdybychom nechtˇeli soubor rozp˚ ulit v pomˇeru 50 : 50, ale tˇreba 30 : 70 nebo 10 : 90? K tomuto u ´ˇcelu zav´ad´ıme v´ ybˇ erov´ y kvantil. Pro libovolnou hodnotu α ∈ [0, 1] se kvantilem rozum´ı takov´e ˇc´ıslo xα , kter´e rozdˇeluje 50
uspoˇra´dan´ y soubor na doln´ı u ´sek obsahuj´ıc´ı pod´ıl nejm´enˇe α pozorov´an´ı a horn´ı u ´sek obsahuj´ıc´ı pod´ıl nejm´enˇe 1−α pozorov´an´ı. Je zde zjevn´a analogie s teoretick´ ym kvantilem z kapitoly (2.5.4). Pˇri bliˇzˇs´ı u ´vaze zjist´ıme, ˇze z t´eto definice nelze vyvodit pˇresn´a hodnota nˇekter´ ych kvantil˚ u. Pro pˇresn´e vyˇc´ıslen´ı hodnoty xα existuje hned nˇekolik definic. My se m˚ uˇzeme spokojit s t´ımto jednoduch´ ym postupem: Vypoˇc´ıt´ame hodnotu n · α. Pokud z´ısk´ame cel´e ˇc´ıslo, pak xα =
xnα +xnα+1 , 2
v opaˇcn´em
pˇr´ıpadˇe zaokrouhl´ıme hodnotu nα nahoru (znaˇcme dnαe) a kvantil stanov´ıme jako xα = ( xdnαe . Tedy xnα +xnα+1 pro nα ∈ Z 2 xα = xdnαe pro nα ∈ / Z. Pomˇernˇe ˇcasto si tak´e pokl´ad´ame ot´azku, jak´ ym kvantil˚ um odpov´ıdaj´ı jednotliv´e namˇeˇren´e hodnoty (napˇr´ıklad pˇri pˇrevodu v´ ysledk˚ u pˇrij´ımac´ıch zkouˇsek na percentil). I zde nach´az´ıme nˇekolik definic vedouc´ıch k r˚ uzn´ ym v´ ysledk˚ um. Mohli bychom odpov´ıdaj´ıc´ı kvantily stanovit tˇreba jako pod´ıl pozorov´an´ı, kter´a maj´ı menˇs´ı hodnotu, neˇz je hodnota dan´eho pozorov´an´ı. Nebo jako pod´ıl pozorov´an´ı, kter´a maj´ı menˇs´ı nebo rovnou hodnotu, neˇz m´a konkr´etn´ı pozorov´an´ı, k nˇemuˇz hled´ame odpov´ıdaj´ıc´ı kvantil. Ani jeden z tˇechto zp˚ usob˚ u vˇsak nen´ı moc elegantn´ı – prvn´ı jmenovan´ y vede k tomu, ˇze ˇza´dn´e pozorov´an´ı nebude odpov´ıdat kvantilu x1.00 , druh´ y naopak k tomu, ˇze ˇz´adn´e pozorov´an´ı nebude odpov´ıdat kvantilu x0.00 . Pomˇernˇe elegantn´ım ˇreˇsen´ım, kter´eho se budeme nad´ale drˇzet, je pro vybranou hodnotu xj spoˇc´ıtat poˇcet pozorov´an´ı, kter´a maj´ı menˇs´ı hodnotu neˇz xj , k tomuto ˇc´ıslu pˇriˇc´ıst polovinu pozorov´an´ı, kter´a maj´ı stejnou hodnotu jako xj (samotn´e xj vˇsak do tohoto poˇctu nezahrneme) a v´ ysledek vydˇelit poˇctem vˇsech pozorov´an´ı sn´ıˇzen´ ym o jedniˇcku. Tedy
αj =
poˇcet(xi < xj ) +
1 2
poˇcet(xi = xj ) − 1 n−1
pro i = 1, 2, ..., n.
Napˇr´ıklad pro soubor pozorov´an´ı s hodnotami 2, 4, 6, 6, 10 by hodnotˇe 2 odpov´ıdal kvantil x0.00 , hodnotˇe 4 kvantil x0.25 , hodnotˇe 6 kvantil x0.625 a hodnotˇe 10 ve shodˇe s intuic´ı kvantil x1.00 . Naopak, kdybychom se t´azali na hodnotu kvantilu x0.2 , odpovˇed´ı by bylo ˇc´ıslo 3 a pro kvantil x0.25 ˇc´ıslo 4. Kvantily x0.5 , x0.6 i x0.7 by byly rovny hodnotˇe 6. Nˇekter´e kvantily pouˇz´ıv´ame ˇcastˇeji neˇz jin´e, proto pro nˇe vol´ıme speci´aln´ı oznaˇcen´ı: x0.25 – doln´ı kvartil (t´eˇz Q1 ), x0.5 – medi´ an, x0.75 – horn´ı kvartil (t´eˇz Q3 ), x0.1 , x0.2 , ..., x0.9 – decily, x0.01 , x0.02 , ..., x0.99 – percentily. 51
3.4.4
V´ ybˇ erov´ y modus
Modus je jedinou m´ırou polohy, kterou lze uplatnit na libovoln´a data vˇcetnˇe kvalitativn´ıch. Mus´ıme proto podotknout, ˇze oznaˇcen´ı m´ıra polohy je zde troˇsku zav´adˇej´ıc´ı. Modus (budeme jej znaˇcit xˆ nebo M od(x)) je jednoduˇse ta hodnota, kter´a se v souboru vyskytuje nejˇcastˇeji. M˚ uˇzeme napˇr´ıklad zjistit, jak´a je v souboru pozorov´an´ı mod´aln´ı velikost obuvi. Tedy jakou velikost bot m´a nejv´ıc lid´ı. Pomoc´ı modu pop´ıˇseme tˇreba i to, kter´a pˇr´ıchut’ zmrzliny se prod´av´a nejˇcastˇeji, jak´a je nejˇcastˇejˇs´ı barva oˇc´ı, ˇci zn´amka z matematiky. Je zjevn´e, ˇze pokud poˇc´ıt´ame modus pro kvantitativn´ı znak, mus´ıme jej pˇredt´ım rozdˇelit do urˇcit´ ych kategori´ı (respektive hodnoty nˇejak zaokrouhlit), abychom dos´ahli nˇejak´ ych ˇcetnost´ı a nevyˇsla n´am pro kaˇzdou hodnotu ˇcetnost rovn´a jedniˇcce. Nˇekdy se st´av´a, ˇze se v naˇsem souboru vyskytne v´ıce hodnot, kter´e maj´ı nejvyˇsˇs´ı ˇcetnost, a kaˇzd´a z nich tedy pˇredstavuje modus. Mluv´ıme pak o multimod´ aln´ım rozdˇ elen´ı. Jsou-li mody dva, pak konkr´etnˇe o bimod´ aln´ım. V praxi hodnotu modu sledovan´eho znaku uv´ad´ıme jen zˇr´ıdka kdy. T´ımto jsme nevyˇcerpali vˇsechny existuj´ıc´ı m´ıry polohy. Zv´ıdav´emu ˇcten´aˇri m˚ uˇzeme doporuˇcit prozkoumat charakteristiky jako je napˇr´ıklad harmonick´ y nebo geometrick´ y pr˚ umˇ er. V textech z obasti psychologick´eho v´ yzkumu na nˇe vˇsak t´emeˇr nenaraz´ıme. 3.4.5
Krabicov´ y graf
V mnoha pˇr´ıpadech nejl´epe porozum´ıme dat˚ um aˇz tehdy, kdyˇz dostaneme moˇznost je nˇejak´ ym zp˚ usobem vizualizovat. Obl´ıbenou metodou vizualizace charakteristik m´ıry polohy je krabicov´ y graf (t´eˇz vousat´a krabiˇcka, anglicky boxplot nebo box-and-whiskers plot). Krabicov´ y graf se skl´ad´a z nˇekolika ˇc´ast´ı. Jednak je to obd´eln´ık (,,krabiˇcka”) s horn´ı hranou um´ıstˇenou v kvartilu Q3 a spodn´ı hranou v kvartilu Q1 (viz kapitola 3.4.3). Druh´ y rozmˇer krabiˇcky nen´ı podstatn´ y, s´am ˇz´adnou informaci nepˇrin´aˇs´ı. Do krabiˇcky taky obvykle zakresl´ıme medi´an (tradiˇcnˇe jako plnou ˇc´aru, aˇc jednotliv´e programy vol´ı r˚ uzn´a znaˇcen´ı). Nˇekdy, aˇc ne vˇzdy, do grafu zakresl´ıme i aritmetick´ y pr˚ umˇer, tˇreba jako mal´ y ˇctvereˇcek. Dalˇs´ım prvkem jsou ,,vousy”. Jeden vyr˚ ust´a z horn´ı a jeden ze spodn´ı strany krabiˇcky (pˇr´ıpadnˇe z lev´e a prav´e strany, pokud graf malujeme naleˇzato). Vous sah´a k nejvyˇsˇs´ı, respektive nejniˇzˇs´ı namˇeˇren´e hodnotˇe, ovˇsem pouze z hodnot, kter´e nepovaˇzujeme za odlehl´a pozorov´an´ı. Pˇri tvorbˇe krabicov´eho grafu povaˇzujeme za odlehl´a pozorov´an´ı takov´e hodnoty, kter´e jsou od krabiˇcky vzd´aleny v´ıc neˇz 1.5 · (Q3 − Q1 ). Je tedy zjevn´e, ˇze horn´ı vous nedos´ahne nikdy d´al neˇz na hodnotu Q3 + 1.5 · (Q3 − Q1 ) a doln´ı d´al neˇz na hodnotu Q1 − 1.5 · (Q3 − Q1 ). Odlehl´a pozorov´an´ı (tedy hodnoty mimo tento interval) 52
Obr´azek 21: Konstrukce krabicov´eho grafu
● ●
4
6
8
10
12
ˇ v pr˚ Obr´azek 22: D´elka sp´anku 20 studnet˚ u VS ubˇehu t´ ydne
2
●
●
0
●
na pondělí
na úterý
na středu
na čtvrtek
na pátek
na sobotu
na neděli
vykresl´ıme do grafu jako mal´a koleˇcka. V nˇekter´ ych pˇr´ıpadech jeˇstˇe odlehlejˇs´ı hodnoty (nˇekdy oznaˇcujeme jako extr´emn´ı hodnoty), kter´e jsou od krabiˇcky d´ale neˇz 3 · (Q3 − Q1 ), znaˇc´ıme hvˇezdiˇckami m´ısto koleˇcek. Krabicov´ y graf hodnot 0, 1, 1, 2, 2, 3, 3, 4, 8, 10 zn´azorˇ nuje graf (21). Uˇziteˇcnou vlastnost´ı krabicov´eho grafu je to, ˇze se op´ır´a o robustn´ı ukazatele polohy a z´aroveˇ n zachycuje i odlehl´a pozorov´an´ı. Na prvn´ı pohled tedy zjist´ıme, v jak´em intervalu leˇz´ı 50 % pozorov´an´ı (uvnitˇr krabiˇcky), jak´e m´a pozorovan´ y znak minimum a maximum, a kter´e hodnoty se n´apadˇe liˇs´ı od ostatn´ıch meˇren´ı. Krabicov´ ych graf˚ u tak´e m˚ uˇzeme zobrazit vedle sebe vˇetˇs´ı mnoˇzstv´ı, a porovn´anat tak rozdˇelen´ı sledovan´eho znaku u v´ıce podsoubor˚ u (viz obr´azek 22).
53
3.5
M´ıry variability
M´ıry polohy n´am sice poskytuj´ı cennou avˇsak ponˇekud omezenou informaci. Pˇredstavme si, ˇze tˇreba srovn´av´ame dva soubory hodnot: 49, 49, 50, 51, 51 a 5, 25, 50, 75, 95. At’ uˇz budeme poˇc´ıtat pr˚ umˇer, medi´an nebo jejich jakoukoli obdobu, z´ısk´ame stejn´ y v´ ysledek 50. Na prvn´ı pohled se ale oba soubory liˇs´ı – jeden obsahuje hodnoty, kter´e si jsou podobn´e, zat´ımco druh´ y je velmi rozmanit´ y. Tuto kvalitu vyjadˇruj´ı m´ıry variability (disperze). Dva jednoduch´e ukazatele variability jsme jiˇz dˇr´ıve zm´ınili. Rozmanitost dat odr´aˇz´ı variaˇ cn´ı rozpˇ et´ı (xmax − xmin ) i hodnota Q3 − Q1 , kterou naz´ yv´ame mezikvartilov´ e rozpˇ et´ı. 3.5.1
Pr˚ umˇ ern´ a absolutn´ı a medi´ anov´ a absolutn´ı odchylka
Intuitivnˇe bychom zˇrejmˇe dok´azali vytvoˇrit sv˚ uj vlastn´ı ukazatel variability. Variabilitu si m˚ uˇzeme pˇredstavit, jako vzd´alenost jednotliv´ ych hodnot od nˇejak´eho pomysln´eho stˇredu, napˇr´ıklad pr˚ umˇeru. Mohli bychom se tedy tˇreba t´azat, o kolik se jednotliv´a mˇeˇren´ı v pr˚ umˇeru liˇs´ı od pr˚ umˇern´e hodnoty. Je zˇrejm´e, ˇze pokud bychom seˇcetli vˇsechny rozd´ıly jednotliv´ ych mˇeˇren´ı a pr˚ umˇeru, tak bychom doˇsli k nulov´emu v´ ysledku, jelikoˇz z´aporn´e a kladn´e hodnoty by se sobˇe aˇz na znam´enko rovnaly. To m˚ uˇzeme vyˇreˇsit tak, ˇze budeme sˇc´ıtat absolutn´ı hodnoty tˇechto rozd´ıl˚ u. Takov´ yto ukazatel existuje a naz´ yv´ame jej pr˚ umˇ ern´ a absolutn´ı odchylka. Vzorcem bychom ji vyj´adˇrili n´asledovnˇe: n
1X d¯ = |xi − x¯|. n i=1 Fantazii se nicm´enˇe meze nekladou, nemuseli bychom proto poˇc´ıtat pr˚ umˇer tˇechto absolutn´ıch odchylek, ale tˇreba i jejich medi´an. Potom bychom nalezen´ y ukazatel naz´ yvali medi´ anov´ a absolutn´ı odchylka (nar´aˇz´ıme na ni pod zkratkou MAD). Oproti pr˚ umˇern´e odchylce bychom z´ıskali o nˇeco robustnˇejˇs´ı ukazatel. Taky bychom mohli uvaˇzovat nad t´ım, jestli za onen pomysln´ y stˇred povaˇzovat pr˚ umˇer a ne tˇreba medi´an, nebo i modus. Mohli bychom pak poˇc´ıtat tˇreba medi´an odchylek jednotliv´ ych mˇeˇren´ı od medi´anu tˇechto mˇeˇren´ı. Zˇrejmˇe ve snaze udˇelat pro studenty i laickou veˇrejnost statistiku co nejm´enˇe srozumitelnou se i tyto dalˇs´ı varianty naz´ yvaj´ı medi´anov´a absolutn´ı odchylka a ukr´ yvaj´ı pod v´ ymluvnou zkratkou MAD. Aˇc se n´am absolutn´ı odchylky m˚ uˇzou zd´at elegantn´ı a velmi pˇresn´e, tak se s nimi v praxi t´emˇeˇr nesetk´ame. Jejich slabinou je ona absolutn´ı hodnota ve vzorci pro jejich v´ ypoˇcet. Kv˚ uli t´eto drobnosti nelze absolutn´ı odchylku podrobit nˇekter´ ym matematick´ ym postup˚ um (poˇc´ıtat jejich derivaci), ˇc´ımˇz se tento ukazatel dost´av´a mimo hru.
54
3.5.2
Souˇ cet ˇ ctverc˚ u, v´ ybˇ erov´ y rozptyl a smˇ erodatn´ a odchylka
Jeˇstˇe jednou se vrat’me k naˇs´ı u ´vaze z pˇredeˇsl´e podkapitoly. Rozmanitost namˇeˇren´ ych hodnot m˚ uˇzeme zjistit tak, ˇze seˇcteme jejich rozd´ıly od pr˚ umˇeru. Aby n´am ale nevyˇsel nulov´ y souˇcet, mus´ıme tˇemto rozd´ıl˚ um od pr˚ umˇeru odstranit z´aporn´a znam´enka. Uk´azalo se, ˇze n´aˇs p˚ uvodn´ı n´apad pouˇz´ıt absolutn´ı hodnotu, m´a urˇcit´a omezen´ı. Mus´ıme proto p´atrat po jin´em postupu, jak ze z´aporn´ ych ˇc´ısel udˇelat kladn´a. Jako nejvhodnˇejˇs´ı ˇreˇsen´ı se zd´a b´ yt druh´a mocnina – tak´e spolehlivˇe odstran´ı z´aporn´a znam´enka a matematik z˚ ustane spokojen´ y, jelikoˇz mocnina na rozd´ıl od absolutn´ı hodnoty pˇri nejr˚ uznˇejˇs´ıch v´ ypoˇctech nepˇrek´aˇz´ı. Spoˇc´ıt´ame-li rozd´ıly jednotliv´ ych namˇeˇren´ ych hodnot od jejich pr˚ umˇeru, kaˇzd´ y z tˇechto rozd´ıl˚ u umocn´ıme na druhou a vˇsechny takto z´ıskan´e v´ ysledky seˇcteme, z´ısk´ame takzvan´ y souˇ cet ˇ ctverc˚ u. Pro namˇeˇren´e hodnoty x1 , x2 , . . . , xn a jejich aritmetick´ y pr˚ umˇer x¯ by tedy platilo n X ˇ= (xi − x¯)2 . SC i=1
Oznaˇcen´ı souˇcet ˇctverc˚ u vystihuje postup v´ ypoˇctu – sˇc´ıt´ame druh´e mocniny, tedy ˇctverce vzd´alenost´ı od pr˚ umˇeru. Souˇcet ˇctverc˚ u vystupuje v ˇradˇe statistick´ ych vzorc˚ u, pokud bychom vˇsak chtˇeli prezentovat rozmanitost naˇseho souboru, tak po nˇem pravdˇepodobnˇe nes´ahneme. Uˇz proto, ˇze souˇcet ˇctverc˚ u z´avis´ı na velikosti souboru – kdyˇz budeme m´ıt velk´e mnoˇzstv´ı mˇeˇren´ı, bude souˇcet ˇctverc˚ u pravdˇepodobnˇe vyˇsˇs´ı, neˇz kdyˇz budeme prov´adˇet mˇeˇren´ı jen nˇekolik. ˇ sen´ı je zjevn´e. M´ısto souˇctu vˇsech ˇctverc˚ Reˇ u odchylek od pr˚ umˇeru m˚ uˇzeme vypoˇc´ıtat jejich pr˚ umˇer. Ukazatel, kter´ y bychom tak dostali, oznaˇcujeme jako v´ ybˇ erov´ y rozptyl (t´eˇz variance ˇci stˇredn´ı ˇctverec). Z urˇcit´ ych d˚ uvod˚ u, kter´e ˇcten´aˇri objasn´ıme aˇz v kapitole (4), pˇri tomto pr˚ umˇerov´an´ı nebudeme souˇcet ˇctverc˚ u dˇelit poˇctem pozorov´an´ı (n), ale poˇctem pozorov´an´ı sn´ıˇzen´ ym o jedniˇcku (n − 1). V´ ybˇerov´ y rozptyl (znaˇcme jej s2 ) tedy spoˇc´ıt´ame podle vzorce n
s2 =
ˇ SC 1 X = (xi − x¯)2 . n−1 n − 1 i=1
V´ ypoˇcet m˚ uˇze nˇekdy usnadnit pˇreveden´ı tohoto vzorce do tvaru s2 =
Pn
x2i −n¯ x2 . n−1
i=1
Pˇrestoˇze je v´ ybˇerov´ y rozptyl hojnˇe uˇz´ıvan´ ym ukazatelem rozmanitosti, ani on se nehod´ı pro vˇsechny u ´ˇcely. Zejm´ena tehdy, kdyˇz chceme naˇse v´ ysledky prezentovat lidsk´emu publiku, zjist´ıme, ˇze rozptyl nen´ı pˇr´ıliˇs intuitivn´ı pro pochopen´ı. Rozptyl je ukazatelem ze svˇeta ˇctverc˚ u a s´am z˚ ust´av´a v druh´e mocninˇe. Kdyˇz napˇr´ıklad budeme mluvit o inteligenci, m˚ uˇzeme prohl´asit, ˇze jej´ı pr˚ umˇern´a v´ yˇse je 100 bod˚ u IQ a jej´ı rozptyl 255 bod˚ u IQ 55
na druhou. Tˇeˇzko si uˇz vˇsak pˇredstav´ıme, co jsou body IQ na druhou. Zav´ad´ıme proto dalˇs´ı ukazatel, kter´ y z´ısk´ame jednoduˇse odmocnˇen´ım v´ ybˇerov´eho rozptylu, a t´ım je v´ ybˇ erov´ a smˇ erodatn´ a odchylka (znaˇcme s, anglicky standard deviation, SD). Plat´ı tedy √ s=
s s2 =
v u n ˇ u 1 X SC t = (xi − x¯)2 . n−1 n − 1 i=1
Rozptyl a smˇerodatn´a odchylka budou pˇri popisu dat vedle aritmetick´eho pr˚ umˇeru naˇsi nejvˇernˇejˇs´ı spoleˇcn´ıci. Je proto uˇziteˇcn´e zn´at jejich vlastnosti. • Rozptyl i smˇerodatnou odchylku lze poˇc´ıtat jen na kvantitativn´ıch znac´ıch. Pokud sledovan´ y znak oznaˇcuje poˇrad´ı, tak podobnˇe jako v pˇr´ıpadˇe pr˚ umˇeru, rozptyl lze spoˇc´ıtat, z´ıskan´ y u ´daj se ale bude zase vztahovat pouze k poˇrad´ı a ne k p˚ uvodn´ı veliˇcinˇe, podle kter´e byla mˇeˇren´ı seˇrazena. • Rozptyl nikdy nem˚ uˇze b´ yt z´aporn´ y. • Pokud je rozptyl roven nule, znamen´a to, ˇze vˇsechny namˇeˇren´e hodnoty jsou pˇresnˇe stejn´e (tedy rovn´e pr˚ umˇeru). • Rozptyl sice m˚ uˇzeme poˇc´ıtat na libovoln´ ych kvantitativn´ıch znac´ıch, nicm´enˇe, aby jej bylo moˇzn´e interpretovat, bylo by ˇza´douc´ı, aby histogram namˇeˇren´ ych hodnot tvoˇril soumˇern´ y kopec s jedin´ ym vrcholem (ide´alnˇe bl´ızk´ y norm´aln´ımu rozdˇelen´ı). Pokud toto nen´ı splnˇeno, nen´ı rozptyl pˇr´ıliˇs vhodn´ ym n´astrojem ke komunikaci vlastnost´ı naˇsich dat. • Rozptyl (a tedy i smˇerodatn´a odchylka) je velmi citliv´ y na odlehl´a pozorov´an´ı. Daleko citlivˇejˇs´ı neˇz aritmetick´ y pr˚ umˇer. • Podobnˇe jako jsme definovali useknut´ y a winsorizovan´ y pr˚ umˇer, m˚ uˇzeme definovat useknut´ y a winsorizovan´ y rozptyl, respektive smˇerodatnou odchylku. Z´ısk´ame tak vyˇsˇs´ı robustnost. Pokud bychom chtˇeli srovnat relativn´ı velikost variability u dvou r˚ uzn´ ych znak˚ u, pˇr´ıpadnˇe ve dvou souborech, pouˇz´ıv´ame nˇekdy ukazatel, kter´ y se oznaˇcuje jako variaˇ cn´ı koeficient. Mohli bychom se tˇreba pt´at, jestli je tˇelesn´a v´ yˇska variabilnˇejˇs´ı v souboru ˇ muˇz˚ u nebo ˇzen. Reknˇ eme, ˇze nalezneme smˇerodatnou odchylku u muˇz˚ u rovnou hodnotˇe 5.8 cm a u ˇzen 5.1 cm. V´ıme ale tak´e, ˇze muˇzi jsou v pr˚ umˇeru vyˇsˇs´ı neˇz ˇzeny. Rozd´ıl ve smˇerodatn´e odchylce m˚ uˇze b´ yt proto proporcion´aln´ı rozd´ılu v pr˚ umˇern´e v´ yˇsce. Vypoˇc´ıt´ame proto pr˚ umˇernou v´ yˇsku v souboru muˇz˚ u (ˇreknˇeme 174 cm) a ˇzen (168 cm). Variaˇcn´ı koeficient bychom pak stanovili jako pod´ıl smˇerodatn´e odchylky a pr˚ umˇern´e ysledek tedy bude pˇribliˇznˇe 3.33 % pro muˇze a 3.04 % pro ˇzeny. Relativn´ı hodnoty: xs¯ . V´ variabilita je tedy v naˇsem souboru skuteˇcnˇe vyˇsˇs´ı u muˇz˚ u neˇz u ˇzen. 56
Vˇsimnˇeme si, ˇze variaˇcn´ı koeficient je bezrozmˇernou jednotkou a lze struˇcnˇe vyj´adˇrit v procentech. Dodejme vˇsak, ˇze variaˇcn´ı koeficient nelze poˇc´ıtat vˇzdy. Aby nalezen´a hodnota mˇela smysl, mus´ı sledovan´ y statistick´ y znak odpov´ıdat mnoˇzstv´ı nˇeˇceho – tedy hodnota 0 mus´ı znamenat nulov´e mnoˇzstv´ı a hodnota 1 mus´ı b´ yt skuteˇcnˇe polovina z hodnoty 2. Napˇr´ıklad u zmiˇ novan´e inteligence nebo stupˇ n˚ u Celsia by variaˇcn´ı koeficient nemˇel ˇza´dn´ y smysl. 3.5.3
Variabilita kvalitativn´ıho znaku
Pokud pracujeme s kvalitativn´ımi znaky, jako je tˇreba barva oˇc´ı nebo obl´ıben´a hudebn´ı skupina, je zjevn´e, ˇze ˇz´adn´ y z v´ yˇse uveden´ ych ukazatel˚ u nem´a smysl poˇc´ıtat a interpretovat. Pˇresto bychom mohli cht´ıt kvantifikovat m´ıru rozmanitosti. Mohli bychom se tˇreba t´azat, jestli v rozs´ahl´em v´ yzkumn´em souboru panuje vˇetˇs´ı rozmanitost mezi muˇzsk´ ymi jm´eny nebo ˇzensk´ ymi. Ukazatel, kter´ y hled´ame, by zˇrejmˇe mˇel nejniˇzˇs´ı hodnoty nab´ yvat, pokud by se vˇsichni muˇzi, respektive ˇzeny, jmenovali stejnˇe a maxim´aln´ı hodnoty, kdyby ˇza´dn´ı dva lid´e nemˇeli stejn´e jm´eno. Tyto vlastnosti m´a takzvan´a mutabilita. Mutabilita nab´ yv´a hodnoty od 0 do 1 a vyjadˇruje pravdˇepodobnost, ˇze pokud z naˇseho souboru n´ahodnˇe vybereme dva prvky, tak ˇze budou m´ıt rozd´ılnou hodnotu sledovan´eho znaku. Pomoc´ı kombinatorick´ ych pravidel m˚ uˇzeme snadno odvodit vzorec pro v´ ypoˇcet mutability jako poˇcet vˇsech dvojic, kde maj´ı prvky rozd´ıln´e u ´rovnˇe znaku, dˇeleno poˇctem vˇsech moˇzn´ ych dvojic. M´a-li sledovan´ y znak k u ´rovn´ı s absolutn´ımi ˇcetnostmi f1 , f2 , . . . fk , pak mutabilita M bude rovna Pk M=
P n2 − kj=1 fj2 fj (n − fj ) = . n(n − 1) n(n − 1)
j=1
ˇ eho statistick´eho u St´ahneme-li si data ze str´anek Cesk´ ´ˇradu, zjist´ıme, ˇze mutabilita muˇzsk´ ych jmen je pˇribliˇznˇe 0.973, zat´ımco ˇzensk´ ych 0.983. V obou pˇr´ıpadech jsou tedy jm´ena vysoce variabiln´ı, u ˇzen o nˇeco v´ıce neˇz u muˇz˚ u. Je zjevn´e, ˇze pokud m´a sledovan´ y znak jen omezen´e mnoˇzstv´ı u ´rovn´ı (k < n) nem˚ uˇze nikdy mutabilita dos´ahnout hodnoty 1. Maxim´aln´ı hodnota je pak rovna v´ yrazu
3.6
n(k−1) . k(n−1)
V´ ybˇ erov´ aˇ sikmost a ˇ spiˇ catost
Zn´ame-li hodnoty mˇer polohy i variability statistick´eho znaku, m´ame jiˇz jakousi pˇredstavu o tom, jak jsou pozorovan´e hodnoty uspoˇr´ad´any. Naˇse znalost je vˇsak ponˇekud mlhav´a – pokud bychom si tˇreba chtˇeli pˇredstavit, jak by asi vypadal histogram vytvoˇren´ y z naˇsich mˇeˇren´ı, zjist´ıme, ˇze tyto dva u ´daje n´am zdaleka nestaˇc´ı. Naˇsi znalost m˚ uˇzeme v´ yraznˇe zpˇresnit pomoc´ı dalˇs´ıch dvou charakteristik – v´ ybˇerov´e ˇsikmosti a v´ ybˇerov´e ˇspiˇcatosti. 57
Obr´azek 23: Histogramy demonstruj´ıc´ı v´ ybˇerovou ˇsikmost b = 3.5
b=0
b = -1.3
Slovnˇe bychom oznaˇcili ˇcerven´ y znak za kladnˇe zeˇsikmen´ y a modr´ y za z´apornˇe zeˇsikmen´ y.
V´ ybˇ erov´ aˇ sikmost (anglicky skewness) je ukazatelem toho, do jak´e m´ıry je uspoˇr´ad´an´ı nalezen´ ych hodnot symetrick´e kolem jejich aritmetick´eho pr˚ umˇeru. Budeme ji znaˇcit p´ısmenem b a vypoˇc´ıt´ame ji podle vzorce10 1 n
b=
Pn
i=1 (xi s3
− x¯)3
,
kde x¯ je aritmetick´ y pr˚ umˇer a s v´ ybˇerov´a smˇerodatn´a odchylka znaku. Jsou-li podpr˚ umˇern´e hodnoty v´ıce nahuˇstˇeny k pr˚ umˇeru, pak hovoˇr´ıme o ˇsikmosti v kladn´em smˇeru (b > 0). Jsou-li naopak hodnoty v´ıce nahuˇstˇen´e nad pr˚ umˇerem, pak je zeˇsikmen´ı z´aporn´e (b < 0). Jsou-li hodnoty uspoˇra´dan´e symetricky kolem pr˚ umˇeru, ˇ ˇsikmost je vˇzdy rovna nule. Sikmost tedy m˚ uˇzeme ch´apat jako m´ıru asymetrie. Obr´azek (23) zn´azorˇ nuje histogramy znak˚ u s kladnou a z´apornou v´ ybˇerovou ˇsikmost´ı. Aˇc jsme o ˇsikmosti nehovoˇrili v kapitole o ˇc´ıseln´ ych charakteristik´ach n´ahodn´e veliˇciny, tak dodejme, ˇze v´ ybˇerov´a ˇsikmost je protˇejˇskem teoretick´e ˇsikmosti, kterou popisujeme rozdˇelen´ı n´ahodn´e veliˇciny. Opˇet by platilo, ˇze symetrick´a rozdˇelen´ı (napˇr´ıklad norm´aln´ı, ˇci Studentovo) maj´ı nulovou ˇsikmost. Druhou m´ırou, se kterou se jiˇz setk´ame o pozn´an´ı m´enˇe, je v´ ybˇ erov´ a ˇ spiˇ catost ˇ catost kvantifikuje to, do jak´e (nˇekdy t´eˇz naz´ yvan´a exces, anglicky excess kurtosis). Spiˇ m´ıry jsou hodnoty koncentrovan´e kolem aritmetick´eho pr˚ umˇeru. Pro oznaˇcen´ı zvol´ıme p´ısmeno g, a hodnotu vypoˇc´ıt´ame dle vzorce g=
1 n
Pn i
(xi − x¯)4 − 3. s4
10
Oznaˇcen´ı ˇsikmosti i ˇspiˇcatosti se napˇr´ıˇc literaturou r˚ uzn´ı. Bˇeˇznˇe se setk´av´ame napˇr. s oznaˇcen´ım α a β. V tomto textu vˇsak ˇreck´ a p´ısmena pouˇz´ıv´ame k jin´emu u ´ˇcelu a v´ ybˇerov´ ym m´ır´am rezervujeme (pokud moˇzno mal´ a) p´ısmena z latinky.
58
Obr´azek 24: Histogramy demonstruj´ıc´ı v´ ybˇerovou ˇspiˇcatost g=2 g = -1.7
g = -1
Slovnˇe bychom oznaˇcili ˇcerven´ y znak za leptokurticky rozdˇelen´ y, zelen´ y a modr´ y za platykurticky rozdˇelen´ y.
ˇ ıslo 3 odeˇc´ıt´ame z toho d˚ C´ uvodu, aby hodnot´am, kter´e poch´az´ı z norm´aln´ıho rozdˇelen´ı, n´aleˇzela v pr˚ umˇeru v´ ybˇerov´a ˇspiˇcatost 0 (norm´aln´ı rozdˇelen´ı by jinak mˇelo ˇspiˇcatost 3; po t´eto korekci pak vlastnˇe ˇspiˇcatost znaˇc´ı, o kolik je tvar ˇspiˇcatˇejˇs´ı neˇz norm´aln´ı rozdˇelen´ı).11 ˇ aˇri se m˚ Cten´ uˇze zd´at obt´ıˇzn´e si kvalitu, kterou ˇspiˇcatost popisuje, pˇredstavit. Zejm´ena pak odliˇsit koncetraci hodnot kolem pr˚ umˇeru od rozptylu. Snazˇs´ı m˚ uˇze b´ yt pˇredstava toho, kolik mˇeˇren´ı se hromad´ı u krajn´ıch hodnot (tedy pobl´ıˇz maxima a minima), coˇz je v podstatˇe opak ˇspiˇcatosti. Je-li u kraj˚ u velk´e mnoˇzstv´ı hodnot (nˇekdy t´eˇz ˇr´ık´ame, ˇze jde o rozdˇelen´ı s tˇeˇzk´ ymi chvosty, heavy-tailed), m´a z´apornou ˇspiˇcatost a oznaˇcujeme je jako platykurtick´ e. Rozdˇelen´ı s lehk´ ymi chvosty (g > 0) oznaˇcujeme jako leptokurtick´ e. Oba pˇr´ıpady ilusturuje obr´azek (24). V´ ybˇerov´a ˇspiˇcatost je opˇet v´ ybˇerov´ ym protˇejˇskem teoretick´e ˇspiˇcatosti, kter´a analogick´ ym zp˚ usobem popisuje tvar grafu hustoty pravdˇepodobnosti n´ahodn´e veliˇciny.
3.7
M´ıry z´ avislosti statistick´ ych znak˚ u
Doposud jsme mluvili o vlastnostech jedin´eho statistick´eho znaku. V praxi se vˇsak obvykle setk´av´ame se situac´ı, kdy na kaˇzd´em prvku statistick´eho souboru pozorujeme hned nˇekolik znak˚ u. Zaj´ım´a n´as pak, jak spolu tyto znaky souvis´ı – jestli na z´akladˇe hodnoty jednoho znaku m˚ uˇzeme nˇeco pˇredpokl´adat o hodnotˇe jin´eho znaku. Ke kvantifikaci tˇesnosti vztahu dvou statistick´ ych znak˚ u pouˇz´ıv´ame ˇra´du ukazatel˚ u. 11
Dodejme, ˇze nˇekter´e programy, napˇr´ıklad STATISTICA, pouˇz´ıvaj´ı alternativn´ı definici ˇsikmosti a P n n x)3 i (xi −¯ (n−1)(n−2)s3
n(n+1)
Pn i
Pn (xi −¯ x)4 −3(n−1) x)2 i (xi −¯ (n−1)(n−2)(n−3)s4
2
ˇspiˇcatosti. Jde o pomˇernˇe krkolomn´e vztahy b = ag= . Nalezen´e hodnoty pˇribliˇznˇe odpov´ıdaj´ı naˇsim takzvan´ ym momentov´ ym definic´ım. V pˇr´ıpadˇe ˇspiˇcatosti se tak´e m˚ uˇzeme setkat s definic´ı, kdy se ve v´ ypoˇctu neodeˇc´ıt´a trojka. V anglicky psan´e literatuˇre se proto rozliˇsuje excess kurtosis (s m´ınus trojkou) a kurtosis (bez n´ı).
59
3.7.1
V´ ybˇ erov´ a kovariance
S pojmem kovariance jsme se setkali jiˇz v kapitole o n´ahodn´ ych veliˇcin´ach. Jednalo se o urˇcitou hodnotu, kter´a vyjadˇruje mnoˇzstv´ı rozptylu, kter´ y spolu dvˇe n´ahodn´e veliˇciny sd´ıl´ı. V´ ybˇerov´a kovariance je empirick´ ym protˇejˇskem t´eto teoretick´e kovariance n´ahodn´ ych veliˇcin a jej´ı intepretace je analogick´a. U kvantitativn´ıho statistick´eho znaku dok´aˇzeme stanovit v´ ybˇerov´ y rozptyl. V´ ybˇerov´a kovariance pak ˇr´ık´a, kolik tohoto rozptylu dva statistick´e znaky spolu sd´ıl´ı. Pro porozumˇen´ı v´ ypoˇctu kovariance n´am pom˚ uˇze znalost v´ ypoˇctu v´ ybˇerov´eho rozP n 1 ybˇerovou ptylu. Pˇripomeˇ nme, ˇze ten m˚ uˇzeme z´ıskat ze vztahu s2x = n−1 i=1 (xi − x¯)2 . V´ kovarianci sxy na skupinˇe n dvojic hodnot (x, y), pak vypoˇc´ıt´ame jako n
sxy =
1 X (xi − x¯) · (yi − y¯). n − 1 i=1
Z v´ yˇse uveden´eho je patrn´e, ˇze kovariance sxx je tot´eˇz, co v´ ybˇerov´ y rozptyl hodnot znaku x. Taky m˚ uˇzeme vidˇet, ˇze kovariance nab´ yv´a libovoln´ ych hodnot, kladn´ ych i z´aporn´ ych, p 2 2 nicm´enˇe nikdy nepˇrekroˇc´ı hodnotu sx · sy . Kladn´a kovariance znaˇc´ı to, ˇze vysok´e hodnoty znaku x souvis´ı s vysok´ ymi hodnotami znaku y a naopak. Z´aporn´a kovariance by znaˇcila to, ˇze se vysok´e hodnoty znaku x poj´ı sp´ıˇse s n´ızk´ ymi hodnotami y. Nulov´a kovariance by odpov´ıdala situaci, kdy na z´akladˇe znalosti velikost znaku x nem˚ uˇzeme rozhodnout, jestli znak y bude nab´ yvat sp´ıˇse vyˇsˇs´ı nebo sp´ıˇse niˇzˇs´ı hodnoty. Pokud by znak x nebo y mˇel nulov´ y rozptyl (vˇsechny hodnoty by tedy byly stejn´e), v´ ybˇerov´a kovariance bude tak´e nulov´a. V´ yˇse uveden´ y vzorec lze pˇrepsat do tvaru, kter´ y m˚ uˇze b´ yt v nˇekter´ ych pˇr´ıpadech v´ ypoˇcetnˇe jednoduˇsˇs´ı: sxy =
Pn
i=1
xi yi −n¯ xy¯ . n−1
V´ ybˇerovou kovarianci obvykle pro popis tˇesnosti vztahu nepouˇz´ıv´ame – svou roli hraje sp´ıˇs jako d´ılˇc´ı krok pˇri ˇradˇe dalˇs´ıch v´ ypoˇct˚ u. Pro prezentaci nen´ı vhodn´a jednak proto, ˇze n´am jej´ı v´ yˇse sama o sobˇe na prvn´ı pohled moc informac´ı neposkytne a taky proto, ˇze pokud bychom chtˇeli zjistit, co je jednotkou kovariance, naˇsli bychom opravdu podivn´e veliˇciny. Napˇr´ıklad pˇri zkoum´an´ı souvislosti tˇelesn´e v´ yˇsky a inteligence by jednotka byla ,,body IQ kr´at centimetry“. 3.7.2
Pearson˚ uv korelaˇ cn´ı koeficient
Pearson˚ uv korelaˇcn´ı koeficient je bezpochyby nejobl´ıbenˇejˇs´ım ukazatelem z´avislosti dvou kvantitativn´ıch statistick´ ych znak˚ u. Jeho obliba plyne mimo jin´e z toho, ˇze tento koeficient se nepot´ yk´a s neduhy, kter´ ymi byla zat´ıˇzena kovariance. Pearsonovo r, jak tento koeficient znaˇc´ıme, nem´a ˇza´dnou jednotku, jeho hodnota je jen ˇc´ıseln´a. A pˇredevˇs´ım: m´a 60
pevnˇe dan´e hranice, ve kter´ ych se m˚ uˇze pohybovat. Hodnota Pearsonova korelaˇ cn´ıho koeficientu vˇ zdy leˇ z´ı v intervalu [−1, 1]. Tyto vlastnosti n´am d´avaj´ı moˇznost hodnoty r srovn´avat mezi sebou, bez ohledu na to, o kter´e znaky jde, a stejnˇe tak m˚ uˇzeme pˇri jedin´em pohledu na toto ˇc´ıslo prohl´asit, jestli je jeho hodnota vysok´a nebo n´ızk´a. Ve spoleˇcensk´ ych vˇed´ach m˚ uˇzeme interpretovat velikost korelaˇcn´ıho koeficientu napˇr´ıklad takto: |r| < 0.1
zanedbateln´ y vztah
|r| < 0.3
slab´ y vztah
|r| < 0.5
stˇrednˇe siln´ y vztah
|r| ≥ 0.5
siln´ y vztah
Toto slovn´ı vyj´adˇren´ı nepˇredstavuje ˇza´dn´ y z´avazn´ y pˇredpis. V nˇekter´e situaci se n´am m˚ uˇze zd´at korelaˇcn´ı koeficient rovn´ y hodnotˇe 0.7 jako relativnˇe m´alo a jindy je uˇz 0.3 pozoruhodnˇe mnoho. Obecnˇe ale m˚ uˇzeme ˇr´ıct, ˇze pˇredevˇs´ım v psychologii, kde vˇzdy do hry vstupuje nespoˇcet ruˇsiv´ ych vliv˚ u, takˇze vysok´ ych hodnot se doˇck´ame jen zˇr´ıdka, pˇredstavuje koeficient korelace nad 0.5 pozoruhodnˇe vysokou hodnotu. Korelaˇcn´ı koeficient roven hodnotˇe 1.0 znamen´a, ˇze mezi obˇema znaky existuje pˇr´ım´a u ´mˇera. Tedy ˇze jeden znak m˚ uˇzeme bezchybnˇe spoˇc´ıtat pomoc´ı druh´eho a naopak. Kdyby napˇr´ıklad hmotnost a v´ yˇska ˇclovˇeka byly korelovan´e s hodnotou r = 1, tak by kaˇzd´ y ˇclovˇek, co mˇeˇr´ı 170 cm, v´aˇzil (ˇreknˇeme) 58 Kg, kaˇzd´ y, kdo mˇeˇr´ı 180 cm, by v´aˇzil tˇreba 70 Kg a ˇ adn´e dalˇs´ı faktory by zde svou roli nehr´aly kaˇzd´ y, kdo mˇeˇr´ı 190 cm by v´aˇzil tˇreba 82 Kg. Z´ – oba znaky by byly dokonal´e sv´azan´e (a ˇclovˇek by nemohl pˇribrat, pokud by se nezmˇenila jeho tˇelesn´a v´ yˇska). Je zjevn´e, ˇze pomˇernˇe siln´ y vztah mezi v´ yˇskou a hmotnost´ı ˇclovˇeka existuje, ale bohuˇzel to zcela jistˇe nen´ı 1.0. Korelace rovn´a m´ınus jedn´e by hovoˇrila o opaku. Mezi hodnotami znak˚ u by leˇzela nepˇr´ım´a u ´mˇera. Pearson˚ uv korelaˇcn´ı koeficient nen´ı nic jin´eho neˇz kovariance, kterou urˇcit´ ym zp˚ usobem standardizujeme. Tuto standardizaci prov´ad´ıme vydˇelen´ım kovariance smˇerodatn´ ymi odchylkami prvn´ıho i druh´eho statistick´eho znaku. Pro znaky x a y tedy rxy =
sxy , sx · sy
kde sxy znaˇc´ı v´ ybˇerovou kovarianci mezi dvojicemi hodnot (x, y), s2x je v´ ybˇerov´ y rozptyl znaku x a s2y je v´ ybˇerov´ y rozptyl znaku y. Dosad´ıme-li za kovarianci vzorec pro jej´ı v´ ypoˇcet, dostaneme pˇri rozsahu souboru n
61
tento tvar: Pn rxy =
n
− x¯) · (yi − y¯) 1 X xi − x¯ yi − y¯ = . (n − 1) · sx · sy n − 1 i=1 sx sy
i=1 (xi
Do rovnice m˚ uˇzeme dosadit i vzorce pro v´ ypoˇcet v´ ybˇerov´eho rozptylu a z´ıskat tak tvar, kdy korelaˇcn´ı koeficient vypoˇc´ıt´av´ame pˇr´ımo z namˇeˇren´ ych dat bez meziv´ ypoˇctu. Ten vypad´a napˇr´ıklad takto: P P P n ni=1 xi yi − ni=1 xi · ni=1 yi rxy = r . 2 Pn 2 2 Pn 2 Pn Pn n i=1 xi − · n i=1 yi − i=1 xi i=1 yi Nebo pˇri znalosti aritmetick´ ych pr˚ umˇer˚ u x¯ a y¯ i smˇerodan´ ych odchylek sx a sy takto: Pn xi yi − n¯ xy¯ . rxy = i=1 (n − 1) · sx · sy Je samozˇrejm´e, ˇze n´as vˇsechny v´ yˇse uveden´e vzorce dovedou k pˇresnˇe stejn´emu v´ ysledku. Je uˇziteˇcn´e zn´at nˇekolik vlastnost´ı Pearsonova korelaˇcn´ıho koeficientu: • Pearson˚ uv korelaˇcn´ı koeficient je symetrick´ y – poˇrad´ı sledovan´ ych znak˚ u nehraje roli. Tedy rxy = ryx . • Pearson˚ uv korelaˇcn´ı koeficient se nemˇen´ı, pokud hodnoty x nebo y transformujeme pomoc´ı libovoln´e line´arn´ı transformace. Line´arn´ı transformac´ı se rozum´ı to, ˇze ke vˇsem hodnot´am pˇriˇcteme nˇejakou konstantu nebo je nˇejakou konstantou ˇ ısla a vyn´asob´ıme. Tedy pro libovoln´a ˇc´ısla a, b, c a d plat´ı rx,y = ra·x+b, c·y+d . C´ a c vˇsak mus´ı m´ıt stejn´e znam´enko. Kdyby jedno bylo z´aporn´e a druh´e kladn´e, znam´enko korelaˇcn´ıho koeficientu by se obr´atilo. • Pokud je Pearson˚ uv korelaˇcn´ı koeficient roven nule, neznamen´a to, ˇze mezi pozorovan´ ymi znaky neexistuje ˇz´adn´ y vztah. Jedn´a se o m´ıru line´arn´ıch vztah˚ u (tedy u ´mˇery). Pokud bychom napˇr´ıklad sledovali na skupinˇe uˇcitel˚ u vztah mezi rychlost´ı jejich ˇreˇci pˇri v´ ykladu a schopnost´ı student˚ um pˇredat prob´ıranou l´atku, mohli bychom doj´ıt k nulov´e hodnotˇe korelaˇcn´ıho koeficientu. Pˇritom by mohlo b´ yt na prvn´ı pohled patrn´e, ˇze nejlepˇs´ı v´ ysledky maj´ı uˇcitel´e, kteˇr´ı mluv´ı stˇredn´ı rychlost´ı, zat´ımco pˇr´ıliˇs pomal´e a pˇr´ıliˇs rychl´e uˇcitele je pro studenty obt´ıˇzn´e pˇri v´ ykladu sledovat. • Pearson˚ uv korelaˇcn´ı koeficient ˇr´ık´a pouze to, ˇze vysok´e hodnoty znaku x jsou doprov´azeny sp´ıˇse vysok´ ymi (nebo n´ızk´ ymi) hodnotami znaku y. Nic uˇz vˇsak neˇr´ık´a ˇ ıseln´a hodnota n´am sama o sobˇe nepˇrin´aˇs´ı ˇz´adnou ino p˚ uvodu t´eto z´avislosti. C´ formaci o smˇeru kauzality mezi obˇema znaky, dokonce ani o tom, jestli zde nˇejak´a kauzalita v˚ ubec existuje. 62
• Pokud Pearson˚ uv korelaˇcn´ı koeficient nen´ı roven 1 nebo −1 nem˚ uˇzeme se 100% jistotou rozhodnout o hodnotˇe jednoho znaku na z´akladˇe znalosti hodnoty druh´eho znaku u jednotliv´eho prvku statistick´eho souboru. Pokud tedy tˇreba v´ıme, ˇze mezi inteligenc´ı a v´ yˇs´ı mˇes´ıˇcn´ıho pˇrijmu existuje kladn´a korelace, tak nem˚ uˇzeme s jistotou prohl´asit, ˇze v souboru nen´ı ani jeden chud´ y g´enius. • Pearson˚ uv korelaˇcn´ı koeficient je velmi citliv´ y na pˇr´ıtomnost odlehl´ ych pozorov´an´ı. • Pearson˚ uv korelaˇcn´ı koeficient tradiˇcnˇe poˇc´ıt´ame jen na kvantitativn´ıch statistick´ ych znac´ıch (aˇc d´ale zjist´ıme, ˇze tento ukazatel m´a nˇekolik variant, kter´e rozˇsiˇruj´ı jeho vyuˇzit´ı). 3.7.3
Dalˇ s´ı varianty Pearsonova korelaˇ cn´ıho koeficientu
Pearson˚ uv korelaˇcn´ı koeficient je suver´ennˇe nejˇcastˇeji pouˇz´ıvan´a m´ıra z´avislosti. Nˇekdy se sice setk´av´ame i s jin´ ymi ukazateli z´avislosti, vˇetˇsina z nich jsou vˇsak pouze speci´aln´ı pˇr´ıpady Pearsonova korelaˇcn´ıho koeficientu nebo jsou z nˇej nˇejak odvozen´e. Zmiˇ novali jsme to, ˇze Pearson˚ uv korelaˇcn´ı koeficient je uˇziteˇcn´ y pouze pokud srovn´av´ame hodnoty dvou kvantitativn´ıch znak˚ u. To vˇsak nen´ı zcela pravda. Pokud by jeden ze sledovan´ ych znak˚ u nab´ yval pouze dvou hodnot (ˇreknˇeme 1 a 0), mohli bychom beze zmˇeny pouˇz´ıt vzorce z pˇredeˇsl´e podkapitoly a Pearson˚ uv korelaˇcn´ı koeficient vypoˇc´ıtat. V tomto pˇr´ıpadˇe hovoˇr´ıme o bodovˇ e-biseri´ aln´ım korelaˇ cn´ım koeficientu a znaˇc´ıme jej rpb (z anglick´eho point-biserial ). P˚ uvodn´ı vzorec m˚ uˇzeme v´ yraznˇe zjednoduˇsit. Soubor rozdˇel´ıme na dvˇe skupiny – v jedn´e m´a nula-jedniˇckov´ y znak hodnotu 0 a v druh´e 1. D´ale spoˇc´ıt´ame pr˚ umˇery kvantitativn´ı promˇenn´e v tˇechto skupin´ach a oznaˇc´ıme je x¯1 a x¯0 . Rozsahy skupin (tzn. poˇcet jedniˇcek a poˇcet nul) oznaˇcme n1 a n0 . Nakonec spoˇc´ıt´ame smˇerodatnou odchylku kvantitativn´ıho znaku v cel´em souboru n pozorov´an´ı bez ohledu na skupinu (znaˇcme sx ). Bodovˇe biseri´aln´ı korelaˇcn´ı koeficient si pak m˚ uˇzeme pˇredstavit jako rozd´ıl mezi pr˚ umˇery tˇechto skupin, kter´ y jsme nˇejak´ ym zp˚ usobem nanormovali pomoc´ı smˇerodatn´e odchylky a rozsah˚ u skupin: r x¯1 − x¯0 n1 n0 rpb = . sx n(n − 1) V naˇsich u ´vah´ach m˚ uˇzeme j´ıt jeˇstˇe d´al a pˇredstavit si situaci, kdy oba sledovan´e znaky nab´ yvaj´ı jen dvou hodnot (opˇet ˇreknˇeme 1 nebo 0). Opˇet bychom mohli na tomto souboru spoˇc´ıtat Pearson˚ uv korelaˇcn´ı koeficient. Ted’ jej vˇsak budeme naz´ yvat koeficient φ (,,f´ı”, znaˇcme rφ ). Vzorec pro jeho v´ ypoˇcet i v tomto pˇr´ıpadˇe m˚ uˇzeme zjednoduˇsit. Uvˇedomme si, ˇze kaˇzd´a statistick´a jednotka m˚ uˇze patˇrit do jedn´e ze ˇctyˇr kategori´ı: 1-1, 1-0, 0-1 a 0-0. 63
ˇ rpoln´ı tabulka pro v´ Tabulka 2: Ctyˇ ypoˇcet koeficientu rφ y=1 y=0
celkem
x=1 x=0
n11 n01
n10 n00
n1• n0•
celkem
n•1
n•0
n
ˇ Cetnost tˇechto kategori´ı pak zap´ıˇseme do takzvan´e ˇctyˇrpoln´ı tabulky (viz tabulka 2) a koeficient rφ snadno z´ısk´ame ze vzorce n11 n00 − n10 n01 . rφ = √ n1• n0• n•0 n•1 Koeficient rφ m´a vˇetˇsinu vlastnost´ı shodnou s Pearsonov´ ym korelaˇcn´ım koeficientem, z nˇejˇz je odvozen. Jedin´ ym rozd´ılem, kter´ y b´ yv´a ˇcasto uv´adˇen jako nedostatek koeficientu rφ , je to, ˇze se jeho hodnota ne vˇzdy pohybuje v cel´em intervalu [−1, 1]. Cel´ y interval vyuˇz´ıv´a pouze tehdy, kdyˇz je poˇcet jedniˇcek v jedn´e skupinˇe stejn´ y jako poˇcet jedniˇcek anebo nul v druh´e skupinˇe. Tedy napˇr´ıklad, kdybychom mˇeli soubor 50 muˇz˚ u a 50 ˇzen a 5 jedinc˚ u z tohoto poˇctu byli lev´aci, a shodou okolnost´ı vˇsech 5 lev´ak˚ u by byli muˇzi, koeficient rφ pro pohlav´ı a lateralitu nebude m´ıt hodnotu 1, ale jen 0.23, pˇrestoˇze tˇesnˇejˇs´ı z´avislost pro dan´e poˇcty lev´ak˚ u a muˇz˚ u jiˇz vzniknout nem˚ uˇze. Rozhodnut´ı, jestli je dan´ y vztah siln´ y nebo slab´ y, se pak stane ponˇekud nejist´e.12 3.7.4
Spearman˚ uv korelaˇ cn´ı koeficient
Zm´ınili jsme, ˇze Pearson˚ uv korelaˇcn´ı koeficient je velmi citliv´ y na odlehl´a pozorov´an´ı. Pokud jsou v souboru pˇr´ıtomna, pak ˇcasto d´av´ame pˇrednost robustnˇejˇs´ım m´ır´am z´avislosti. Takov´ ymto robustn´ım ukazatelem je Spearman˚ uv korelaˇcn´ı koeficient rs . Opˇet se jedn´a o m´ıru z´avislosti odvozenou z Pearsonova korelaˇcn´ıho koeficientu, nicm´enˇe tentokr´at data pˇred v´ ypoˇctem pˇrevedeme na poˇrad´ı. Pˇredstavme si situaci, kdy sledujeme dva kvantitativn´ı znaky a chceme stanovit m´ıru jejich z´avislosti. Pˇri v´ ypoˇctu Spearmanova korelaˇcn´ıho koeficientu bychom v prvn´ım kroku pˇridˇelili kaˇzd´emu prvku jeho poˇrad´ı dle znaku x a jeho poˇrad´ı dle znaku y. Tedy prvek, co m´a nejmenˇs´ı hodnotu znaku x a tˇret´ı nejmenˇs´ı hodnotu znaku y by mˇel poˇradov´e hodnoty 1 a 3. Na takto z´ıskan´ ych poˇradov´ ych hodnot´ach bychom spoˇc´ıtali Pearson˚ uv korelaˇcn´ı koeficient tak, jak jsme zvykl´ı. 12
Nˇekteˇr´ı statistici proto navrhuj´ı dˇelit z´ıskanou hodnotu koeficientu rφ maxim´aq ln´ı hodnotou, q kter´e n•1 n0• n1• n•0 a n1• n•0 n•1 n0• .
m˚ uˇze pˇri dan´ ych ˇcetnostech n1• , n0• , n•1 , n•0 dos´ahnout. Ta je rovna menˇs´ı z hodnot
64
Vzorec se d´a opˇet zjednoduˇsit. Uvˇedomme si, ˇze rozptyl i pr˚ umˇer poˇradov´ ych hodnot je z´avisl´ y pouze na poˇctu pozorov´an´ı. Mohli bychom jej proto upravit do tvaru P 6 ni=1 d2i , rs = 1 − n(n2 − 1) kde di je rozd´ıl mezi poˇrad´ım v hodnotˇe znaku x a y u i-t´eho prvku. V praxi se m˚ uˇzeme ˇcasto setkat s komplikac´ı – nˇekter´a mˇeˇren´ı m˚ uˇzou pˇrin´est stejn´e hodnoty, a my pak nem˚ uˇzeme jednoznaˇcnˇe rozhodnout o jejich poˇrad´ı. Tehdy stanovujeme takzvan´a pr˚ umˇern´a poˇrad´ı (anglicky midranks). Ty z´ısk´ame tak, ˇze zpr˚ umˇerujeme vˇsechna poˇrad´ı, kter´a by mˇela shodn´a mˇeˇren´ı dostat a z´ıskanou hodnotu jim pˇrisoud´ıme. Tedy, pokud tˇri mˇeˇren´ı maj´ı tut´eˇz hodnotu, a jedn´a se o nejmenˇs´ı hodnotu z cel´eho souboru, pak vˇsem tˇrem pˇrisoud´ıme poˇrad´ı 2 (jelikoˇz
1+2+3 3
= 2). Pokud pouˇzijeme pr˚ umˇern´a poˇrad´ı,
pak v´ yˇse uveden´ y vzorec nevede ke spr´avn´emu v´ ysledku a my mus´ıme s´ahnout po p˚ uvodn´ı formuli pro v´ ypoˇcet Pearsonova korelaˇcn´ıho koeficientu. Pro Spearman˚ uv korelaˇcn´ı koeficient plat´ı ˇrada poznatk˚ u, kter´e jsme jiˇz uv´adˇeli v podkapitole o Pearsonovˇe koeficientu. Zmiˇ nme, v ˇcem se oba koeficienty liˇs´ı: • Spearman˚ uv korelaˇcn´ı koeficient m˚ uˇzeme poˇc´ıtat i tehdy, kdyˇz nem´ame k dispozici p˚ uvodn´ı hodnoty, ale zn´ame jejich poˇrad´ı u obou znak˚ u. • Spearman˚ uv korelaˇcn´ı koeficient je vysoce robustn´ı. • Spearman˚ uv korelaˇcn´ı koeficient kvantifikuje jakoukoli monot´onn´ı z´avislost, nikoli pouze line´arn´ı. Pokud tedy plat´ı, ˇze y = x2 , tak pro kladn´e hodnoty x bude Spearman˚ uv korelaˇcn´ı koeficient roven jedniˇcce (zat´ımco Pearson˚ uv koeficient by vych´azel zˇrejmˇe niˇzˇs´ı). 3.7.5
Bodov´ y graf
Vyj´adˇr´ıme-li s´ılu vztahu mezi dvˇema statistick´ ymi znaky, pomoc´ı jedin´eho ˇc´ısla, doˇ pouˇst´ıme se pochopitelnˇe znaˇcn´e redukce. Casto bychom proto dali pˇrednost moˇznosti na vlastn´ı oˇci vidˇet, jak´ ym zp˚ usobem jsou namˇeˇren´e hodnoty spolu sv´azan´e. K tomu n´am slouˇz´ı bodov´ y graf (angl. scatterplot). Bodov´ y graf vytvoˇr´ıme tak, ˇze na iksovou osu um´ıst´ıme hodnoty jednoho znaku (tˇreba x) a na ypsilonovou druh´eho (y). Jednotliv´e prvky statistick´eho souboru pak zakresl´ıme jako symboly um´ıstˇen´e na souˇradnic´ıch dan´ ych namˇeˇren´ ymi hodnotami znak˚ u x a y. Moˇzn´ y v´ ysledek m˚ uˇzeme vidˇet na obr´azku (25). Pokud mezi namˇeˇren´ ymi hodnotami existuje smyslupln´ y vztah, nejsp´ıˇs jej odhal´ıme na prvn´ı pohled. Vˇsimnˇeme si toho, ˇze bodov´ y graf m˚ uˇze prozradit v´ıce, neˇz jak´ ykoli 65
Obr´azek 25: Uk´azka bodov´eho grafu 30
Obvyklé dvojice slov Bizardní dvojice slov
Počet vybavených slov
25 20 15 10 5 0 0
20
40
60
80 100 Doba od naučení
120
140
160
180
Studenti dostali k zapamatov´ an´ı 30 dvojic slov. Bud’ ˇslo o v´ yrazy, kter´e se obvykle vyskytuj´ı pospolu (ˇcestn´y hr´ aˇc ), nebo o bizarn´ı kombinace (trucovit´y kvˇetin´ aˇc ). Graf zn´azorˇ nuje, kolik slov si vybavili, po r˚ uznˇe dlouh´e prodlevˇe, kdyˇz jim bylo vˇzdy ˇreˇceno prvn´ı slovo z dvojice. K odliˇsen´ı dvou skupin jsme pouˇzili r˚ uzn´e barvy znaˇcek. Z obr´ azku je patrn´a neline´arn´ı monotonn´ı z´avislost u obou skupin.
koeficient – jsou na nˇem patrn´a odlehl´a pozorov´an´ı a rozeznat dok´aˇzeme nejen line´arn´ı (nebo obecnˇe monot´onn´ı) vztahy, ale jak´ekoli druhy z´avislosti. Na urˇcit´e omezen´ı m˚ uˇzeme narazit, kdyˇz jeden ˇci oba sledovan´e znaky nab´ yvaj´ı jen mal´eho poˇctu r˚ uzn´ ych hodnot. Tˇreba kdyˇz n´as bude zaj´ımat, jestli u skupiny ˇskol´ak˚ u souvis´ı zn´amka z matematiky nˇejak se zn´amkou z ˇceˇstiny. Celkovˇe m˚ uˇzeme pozorovat jen 25 r˚ uzn´ ych dvojic hodnot, tedy, i kdybychom vyzpov´ıdali nˇekolik stovek ˇskol´ak˚ u, nebude graf obsahovat v´ıce neˇz 25 bod˚ u, a t´emˇeˇr ztrat´ı vypov´ıdac´ı hodnotu (viz obr´azek 26a). Probl´em lze vyˇreˇsit tak, ˇze k takto zamˇeˇren´ ym hodnot´am pˇriˇcteme n´ahodn´a ˇc´ısla (obvykle poch´azej´ıc´ı z norm´aln´ıho rozdˇelen´ı se stˇredem v nule a mal´ ym rozptylem), kter´a interpretaci nijak nezmˇen´ı, ale umoˇzn´ı n´am z obr´azku vyˇc´ıst potˇrebnou informaci (viz obr´azek 26b). Obecnˇe doporuˇcujeme pˇri v´ ypoˇctu korelaˇcn´ıho koeficientu vˇzdy, pokud to m´a smysl, zobrazit data pomoc´ı bodov´eho grafu a zkontrolovat, jestli jsme zvolili vhodnou metodu.
66
5
5
4
4
Matematika
Matematika
Obr´azek 26: Bodov´ y graf pˇri mal´em mnoˇzstv´ı u ´rovn´ı znak˚ u
3
3
2
2
1
1
1
2
3 4 Český jazyk
1
5
2
3 4 Český jazyk
5
Vztah zn´ amky z matematiky a ˇceˇstiny na souboru 100 ˇz´ak˚ u. Vlevo jsou pouˇzity skuteˇcn´e hodnoty, vpravo byl umˇele pˇrid´an rozptyl pro n´azornˇejˇs´ı zobrazen´ı
4
Statistick´ e odhady
V t´eto kapitole koneˇcnˇe dojde k tomu, na co byl ˇcten´aˇr v pˇredeˇsl´ ych ˇca´stech textu postupnˇe pˇripravov´an. Teoretick´ y svˇet n´ahodn´ ych veliˇcin se potk´a se svˇetem naˇs´ı kaˇzdodenn´ı zkuˇsenosti – naˇse vypr´avˇen´ı o n´ahodn´ ych veliˇcin´ach propoj´ıme s vypr´avˇen´ım o popisn´e statistice. Jiˇz dˇr´ıve jsme zjistili, ˇze k u ´pln´emu popisu chov´an´ı n´ahodn´e veliˇciny staˇc´ı zn´at jej´ı rozdˇelen´ı pravdˇepodobnosti, respektive pˇr´ısluˇsnou distribuˇcn´ı funkci. Ve cviˇcen´ıch (kapitoly 6.4 a 6.5) jsme d´ıky t´eto znalosti stanovovali pravdˇepodobnosti libovoln´ ych n´ahodn´ ych jev˚ u, kter´e dan´a n´ahodn´a veliˇcina popisuje, jelikoˇz n´am byly v zad´an´ı sdˇeleny vlastnosti jej´ı distribuˇcn´ı funkce. V praxi jsme vˇsak o tuto informaci obvykle ochuzeni. Moˇzn´ ych distribuˇcn´ıch funkc´ı existuje neomezenˇe mnoho a my jednoduˇse nev´ıme, kter´a patˇr´ı naˇs´ı n´ahodn´e veliˇcinˇe, a nem˚ uˇzeme tedy o jej´ım chov´an´ı ˇr´ıct t´emˇeˇr nic. Vzpomeˇ nme si vˇsak, ˇze jsme v t´eto plej´adˇe rozdˇelen´ı pravdˇepodobnosti pojmenovali nˇekolik rodin (napˇr. rodinu norm´aln´ıch rozdˇelen´ı, binomick´ ych rozdˇelen´ı a tak d´al), jejichˇz vlastnosti n´am jsou dobˇre zn´am´e. Kdybychom zjistili, ze kter´e rodiny dan´e rozdˇelen´ı poch´az´ı, pak by n´am sch´azela jedin´a informace, abychom z dan´e rodiny mohli vybrat jedno konkr´etn´ı rozdˇelen´ı pravdˇepodobnosti a naˇse znalost tak byla u ´pln´a. Tou chybˇej´ıc´ı informac´ı jsou hodnoty jeho parametr˚ u. Kdybychom napˇr´ıklad vˇedˇeli, ˇze n´ahodn´a veliˇcina, kter´a popisuje to, jak daleko dohod´ı ˇz´ak sedm´e tˇr´ıdy m´ıˇcem, m´a rozdˇelen´ı N (µ, σ 2 ), pak by staˇcilo zn´at hodnoty µ a σ 2 , a m˚ uˇzeme tvrdit, ˇze o t´eto n´ahodn´e veliˇcinˇe v´ıme vˇse. K dokonal´emu pozn´an´ı n´ahodn´e veliˇciny tedy potˇrebujeme dvˇe informace:
67
• z jak´e rodiny poch´az´ı rozdˇelen´ı pravdˇepodobnosti t´eto n´ahodn´e veliˇciny, • jak´e jsou hodnoty jejich parametr˚ u. U kaˇzd´e rodiny rozdˇelen´ı pravdˇepodobnosti jsme hovoˇrili o tom, jak toto rozdˇelen´ı vznik´a. Tato znalost n´am pom˚ uˇze vybrat tu spr´avnou rodinu pro naˇsi zkoumanou n´ahodnou veliˇcinu. Tˇreba v n´ahodn´e veliˇcinˇe poˇcet l´ıc˚ u, kter´e padnou pˇri hodu deseti mincemi na prvn´ı pohled rozezn´ame binomick´e rozdˇelen´ı. Kdyˇz bychom zkoumali tˇreba hladinu nˇejak´eho biologick´eho ukazatele u zdrav´eho ˇclovˇeka, pak bychom nejsp´ıˇs oˇcek´avali norm´alnˇe rozdˇelenou veliˇcinu. M´ame-li k dispozici nˇekolik realizac´ı t´eto n´ahodn´e veliˇciny, m˚ uˇze n´am v naˇsich u ´vah´ach pomoci jejich histogram. Pravdou je, ˇze ne vˇzdy si budeme s naˇs´ı volbou jist´ı a nˇekdy ani spr´avnou rodinu rozdˇelen´ı nenajdeme. Dobrou zpr´avou vˇsak m˚ uˇze b´ yt to, ˇze vˇetˇsina statistick´ ych postup˚ u si zachov´av´a vysokou pˇresnost, i kdyˇz se skuteˇcn´ y tvar distribuˇcn´ı funkce n´ahodn´e veliˇciny m´ırnˇe odliˇsuje od tvaru, kter´ y j´ı pˇrisuzujeme. Typicky jde o situaci, kdy pˇredpokl´ad´ame norm´aln´ı rozdˇelen´ı u m´ırnˇe zeˇsikmen´e ˇci jinak deformovan´e n´ahodn´e veliˇciny. ˇ ıseln´e hodnoty parametr˚ C´ u nicm´enˇe podobn´ ym zp˚ usobem naj´ıt nedok´aˇzeme. M˚ uˇzeme vˇsak zaznamenat naˇsi zkuˇsenost tak, jak jsme se uˇcili v kapitole o popisn´e statistice, a na z´akladˇe tˇechto z´aznam˚ u hodnotu dan´eho parametru odhadnout.
4.1
N´ ahodn´ y v´ ybˇ er a statistiky
Dˇr´ıve neˇz se sezn´am´ıme s logikou statistick´ ych odhad˚ u, mus´ıme vymezit nˇekolik pojm˚ u, ´ redn´ım bez kter´ ych se pˇri hovorech o dalˇs´ıch statistick´ ych postupech neobejdeme. Ustˇ pojmem, kter´ y b´ yv´a nezˇr´ıdka ch´ap´an zcela mylnˇe, to bohuˇzel i v ˇradˇe uˇcebn´ıch text˚ u, je n´ ahodn´ y v´ ybˇ er. Pˇr´ıˇcinou nepochopen´ı je zˇrejmˇe fakt, ˇze zaveden´ı n´ahodn´eho v´ ybˇeru vyˇzaduje ponˇekud neintuitivn´ı myˇslenkov´ y trik, kter´ y pˇri prvn´ım setk´an´ı vyvol´a u vˇetˇsiny posluchaˇc˚ u kroucen´ı hlavou. Ovˇsem jen do t´e doby neˇz zjist´ı, jak uˇziteˇcn´ y n´astroj z´ıskali. Pˇredstavme si n´ahodn´ y v´ ybˇer na n´asleduj´ıc´ım pˇr´ıkladu. V r´amci dopravnˇe-psychologick´eho v´ yzkumu si klademe ot´azku, jakou rychlost´ı proj´ıˇzd´ı ˇridiˇci urˇcit´ ym m´ıstem na rychlostn´ı silnici. Postav´ıme tedy na dan´e m´ısto ˇclovˇeka s radarem, kter´ y jednou za ˇcas nam´atkou zmˇeˇr´ı rychlost pr´avˇe proj´ıˇzdˇej´ıc´ıho auta. T´ımto zp˚ usobem z´ısk´ame n namˇeˇren´ıch hodnot. Doposud jsme byli zvykl´ı tuto situaci popisovat pomoc´ı n´ahodn´e veliˇciny rychlost proj´ıˇzdˇej´ıc´ıho auta (struˇcnˇe X), kter´a m´a nˇejak´e rozdˇelen´ı pravdˇepodobnosti. V naˇsem pˇr´ıpadˇe, ˇreknˇeme, ˇze to je N (80, 102 ). Tuto n´ahodnou veliˇcinu nech´ame n-kr´at realizovat a z´ıskan´ ych n hodnot, tˇreba (78, 87, 96, 73, 88, . . . , 75) bychom oznaˇcili (x1 , x2 , x3 , x4 , x5 , . . . , xn ). Pro namˇeˇren´e hodnoty m˚ uˇzeme, jak jsme zvykl´ı, P spoˇc´ıtat nˇejak´e v´ ybˇerov´e charakteristiky, napˇr´ıklad aritmetick´ y pr˚ umˇer x¯ = n1 ni=1 xi = 78.5. 68
Na tent´ yˇz probl´em se m˚ uˇzeme pod´ıvat druh´ ym, m´enˇe pˇr´ımoˇcar´ ym, zp˚ usobem. Pro kaˇzd´e z naˇsich n mˇeˇren´ı si naˇsi n´ahodnou veliˇcinu pojmenujeme jinak. Nebudeme tedy pracovat s n´ahodnou veliˇcinou rychlost proj´ıˇzdˇej´ıc´ıho auta (X), ale rychlost prvn´ıho auta (znaˇcme X1 ), rychlost druh´eho auta (X2 ), a tak d´al aˇz po Xn . Tuto uspoˇr´adanou entici n´ahodn´ ych veliˇcin (X1 , X2 , X3 , X4 , X5 , . . . , Xn ) budeme naz´ yvat n´ ahodn´ y v´ ybˇ er. Vˇsech n n´ahodn´ ych veliˇcin je pochopitelnˇe u ´plnˇe stejn´ ych (tzn. maj´ı stejn´e rozdˇelen´ı pravdˇepodobnosti), liˇs´ı se jen t´ım, ˇze jsme jim dali r˚ uzn´a jm´ena. V naˇsem pˇr´ıpadˇe tedy plat´ı X1 ∼ N (80, 102 ), X2 ∼ N (80, 102 ),. . . , Xn ∼ N (80, 102 ). Aby skuteˇcnˇe ˇslo o n´ahodn´ y v´ ybˇer, mus´ı naˇse n´ahodn´e veliˇciny splˇ novat jeˇstˇe jednu podm´ınku: mus´ı b´ yt vz´ajemnˇe nez´avisl´e. N´ ahodn´ y v´ ybˇ er o rozsahu n je tedy uspoˇ r´ adan´ a entice nez´ avisl´ ych n´ ahodn´ ych veliˇ cin s identick´ ymi rozdˇ elen´ımi pravdˇ epodobnosti. Zat´ımco podm´ınku identick´eho rozdˇelen´ı pravdˇepodobnosti zajist´ıme t´ım, ˇze budeme vˇsechny pozorov´an´ı prov´adˇet za stejn´ ych podm´ınek, nez´avislost v naˇsem pˇr´ıpadˇe pojist´ıme ˇcasov´ ymi odstupy mezi jednotliv´ ymi mˇeˇren´ımi, aby se ˇridiˇci sv´ ym chov´an´ım nemohli ovlivˇ novat. Naˇsich n namˇeˇren´ ych hodnot (x1 , x2 , x3 , x4 , x5 , . . . , xn ) pˇredstavuje jedinou realizaci n´ahodn´eho v´ ybˇeru X. Co jsme touto u ´vahou z´ıskali? V kapitole o popisn´e statistice jsme pˇredstavili nespoˇcet ukazatel˚ u, jejichˇz hodnotu dok´aˇzeme vyˇc´ıslit pro nˇejakou entici mˇeˇren´ı (x1 , x2 , . . . , xn ), pˇr´ıpadnˇe entici dvojic mˇeˇren´ı (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) u korelaˇcn´ıch koeficient˚ u. D´ıky n´ahodn´emu v´ ybˇeru m˚ uˇzeme entice hodnot (x1 , x2 , . . . , xn ) nahradit obecnˇe enticemi n´ahodn´ ych veliˇcin (X1 , X2 , . . . , Xn ). Tedy tˇreba m´ısto aritmetick´eho pr˚ umˇeru x¯ = P P n 1 ¯ = 1 n Xi . Jiˇz v´ıme, ˇze uˇzeme obecnˇe uvaˇzovat o aritmetick´em pr˚ umˇeru X i=1 xi m˚ i=1 n n ¯ je libovoln´a kombinace n´ahodn´ ych veliˇcin je tak´e n´ahodn´a veliˇcina, tedy i n´aˇs pr˚ umˇer X n´ahodnou veliˇcinou, se svou distribuˇcn´ı funkc´ı, stˇredn´ı hodnotou, rozptylem atd. Funkce, jej´ımˇ z argumentem je n´ ahodn´ y v´ ybˇ er, se naz´ yv´ a v´ ybˇ erov´ a funkce neboli statistika. To, ˇze se term´ın statistika shoduje se jm´enem cel´eho vˇedn´ıho oboru, nen´ı n´ahoda. Statistiky jsou u ´stˇredn´ım t´ematem tohoto i vˇsech navazuj´ıc´ıch kurz˚ u. S trochou nads´azky, m˚ uˇzeme ˇr´ıct, ˇze t´ımto odstavcem konˇc´ı u ´vod tohoto textu a zaˇc´ın´a opravdov´a statistika. Vˇsechny vzorce z kapitoly o popisn´e statistice si m˚ uˇzeme pˇredstavit jako statistiky, coˇz n´am poskytuje moˇznost je zkoumat, srovn´avat a kvantifikovat jejich vlastnosti. Dodejme, jak o statistik´ach mluvit a jak je znaˇcit. V tˇechto skriptech budeme statistiky (skoro vˇzdy) oznaˇcovat velk´ ym p´ısmenem. Mohli bychom tedy ˇr´ıct, ˇze x¯ je realizac´ı ¯ (vzpomeˇ n´ahodn´e veliˇciny X nme, jak vypad´a realizace n´ahodn´eho v´ ybˇeru – je to entice ¯ je funkce hodnot, kter´e m˚ uˇzeme tˇreba zpr˚ umˇerovat). Zat´ımco x¯ je tedy nˇejak´e ˇc´ıslo, X ¯ ∼ N (80, 22 ), rozhodnˇe (n´ahodn´a veliˇcina). Proto m´a smysl v´ yrok x¯ = 78.5 nebo v´ yrok X vˇsak ne naopak.
69
4.2
Bodov´ e odhady parametr˚ u
Vrat’me se k situaci popsan´e v u ´vodu t´eto kapitoly. Mˇejme n´ahodnou veliˇcinu X, o jej´ımˇz rozdˇelen´ı pravdˇepodobnosti v´ıme, ˇze patˇr´ı do urˇcit´e rodiny rozdˇelen´ı. Toto rozdˇelen´ı m´a urˇcit´e parametry – mohly by to b´ yt tˇreba µ nebo σ 2 ; ted’ obecnˇe ˇreknˇeme, ˇze m´a parametr θ. Hodnota parametru θ n´am je nezn´am´a. K odhadnut´ı tohoto parametru potˇrebujeme zn´at hodnoty n realizac´ı n´ahodn´e veliˇciny X. Pro dalˇs´ı u ´vahy bude ale uˇziteˇcn´e si pˇredstavit, ˇze to, co potˇrebujeme, je jedin´a realizace n´ahodn´eho v´ ybˇeru X = (X1 , X2 , ..., Xn ). N´astroj, kter´ y hled´ame, se naz´ yv´a estim´ ator. Estim´ator je statistika (tedy n´ahodn´a veliˇcina vytvoˇren´a z prvk˚ u n´ahodn´eho v´ ybˇeru), kter´a m´a tendenci se realizovat kolem skuteˇcn´e hodnoty hledan´eho parametru. N´aˇs estim´ator, pomoc´ı kter´eho budeme odhadovat hodnotu parametru θ oznaˇcme tˇreba T . Pokud pomoc´ı mˇeˇren´ı z´ısk´ame jednu realizaci n´ahodn´eho v´ ybˇeru, z´ısk´ame tak´e jednu realizaci naˇseho estim´atoru. Tu oznaˇcujeme slovem estim´ at (odhad)13 . U estim´atoru vyˇzadujeme tyto vlastnosti: • Pro v´ ypoˇcet jeho hodnoty nepotˇrebujeme zn´at hodnotu odhadovan´eho parametru θ. Pokud by tomu tak nebylo, nemohli bychom jej vypoˇc´ıtat a pokud mohli, nebylo by jej uˇz proˇc poˇc´ıtat, jelikoˇz bychom znali pˇresn´e ˇreˇsen´ı, a tud´ıˇz nepotˇrebovali odhad. V´ ypoˇcet se mus´ı op´ırat pouze o n´ahodn´ y v´ ybˇer (X1 , X2 , . . . , Xn ). • Stˇredn´ı hodnota estim´atoru je rovna hodnotˇe odhadovan´eho parametru. Tedy E(T ) = θ. Jin´ ymi slovy, pokud bychom nechali cel´ y n´ahodn´ y v´ ybˇer X se v´ıcekr´at realizovat, nalezen´e estim´aty se budou pohybovat kolem hledan´e hodnoty; v pr˚ umˇeru nebudou nadhodnocovat, ani podhodnocovat. Odhad˚ um, kter´e maj´ı tuto vlastnost, ˇr´ık´ame nestrann´ e odhady (t´eˇz nevych´ ylen´e odhady). Nˇekdy se n´am tento poˇzadavek nedaˇr´ı dodrˇzet. Pokud tomu tak je, poˇzadujeme, aby se velikost pˇr´ıpadn´eho vych´ ylen´ı zmenˇsovala s rostouc´ım rozsahem v´ ybˇeru a pˇri n bl´ıˇz´ıc´ım se k nekoneˇcnu bylo vych´ ylen´ı nulov´e. Tehdy oznaˇcujeme estim´ator za asymptoticky nestrann´ y. • Rozptyl estim´atoru je menˇs´ı neˇz rozptyl jak´ehokoli jin´eho estim´atoru t´ehoˇz parametru. Je-li z´aroveˇ n nestrann´ y, pak jej oznaˇcujeme jako nejlepˇ s´ı nestrann´ y odhad. Rozptyl estim´atoru vlastnˇe vyjadˇruje, jak ˇsiroce budou jeho hodnoty kol´ısat kolem skuteˇcn´e hodnoty parametru. • Rozptyl estim´atoru se s rostouc´ım poˇctem pozorov´an´ı zmenˇsuje. Pokud se n bl´ıˇz´ı k nekoneˇcnu, pak je odhad nekoneˇcnˇe bl´ızko hodnotˇe parametru. Pokud estim´ator splˇ nuje tuto podm´ınku, oznaˇcujeme jej za konzistentn´ı odhad. 13 Dodejme vˇsak, ˇze slovn´ı odliˇsen´ı estrim´atoru a estim´atu se v ˇceˇstinˇe st´ır´a. Oba v´ yrazy se pˇrekl´adaj´ı nejednoznaˇcnˇe jako odhad.
70
Na prvn´ı pohled se m˚ uˇze zd´at, ˇze naj´ıt takov´e statistiky, kter´e splˇ nuj´ı vˇsechny v´ yˇse uveden´e podm´ınky, je nesm´ırnˇe sloˇzit´e. Opak je vˇsak pravdou. O co byl teoretick´ yu ´vod obt´ıˇznˇejˇs´ı, t´ım je ˇreˇsen´ı snazˇs´ı. Pokud je odhadovan´ ym parametrem stˇredn´ı hodnota, estim´atorem je aritmetick´ y pr˚ umˇer. Rozptyl odhadujeme pomoc´ı v´ ybˇerov´eho rozptylu, smˇerodatnou odchylku pomoc´ı v´ ybˇerov´e smˇerodatn´e odchylky, kovarianci pomoc´ı v´ ybˇerov´e kovariance, ˇsikmost pomoc´ı v´ ybˇerov´e ˇsikmosti, kvantil pomoc´ı v´ ybˇerov´eho kvantilu a tak bychom mohli pokraˇcovat jeˇstˇe dlouho. ˇ aˇr moˇzn´a m˚ Cten´ uˇze nam´ıtnout, ˇze naj´ıt vhodn´ y estim´ator pro nˇekter´e parametry ˇ sen´ı je i nen´ı pˇrece jen tak pˇr´ımoˇcar´e. Co tˇreba parametr p binomick´eho rozdˇelen´ı? Reˇ zde snadn´e: vˇetˇsinu parametr˚ u m˚ uˇzeme mezi sebou vz´ajemnˇe pˇrev´adˇet. Tˇreba zrovna u binomick´eho rozdˇelen´ı jsme uv´adˇeli, ˇze jeho stˇredn´ı hodnota se rovn´a v´ yrazu np(1 − p). Pokud tedy odhadneme stˇredn´ı hodnotu s pomoc´ı aritmetick´eho pr˚ umˇeru, pak p snadno dopoˇc´ıt´ame, jelikoˇz n je obvykle zn´am´e. Z toho d˚ uvodu oznaˇcujeme slovem parametr libovolnou ˇc´ıselnou charakteristiku n´ahodn´e veliˇciny, jelikoˇz je s parametry, o kter´ ych jsme mluvili, pˇr´ımo propojen´a. Na odhad stˇredn´ı hodnoty, rozptylu a korelaˇcn´ıho koeficientu se pod´ıv´ame podrobnˇeji v n´asleduj´ıc´ıch kapitol´ach. Tabulka (3) poskytuje pˇrehled pouˇzit´eho znaˇcen´ı. Pˇripojme jeˇstˇe kr´atkou terminologickou pozn´amku. V nˇekter´ ych textech se m˚ uˇzeme setkat se slovn´ım spojen´ım v´ybˇerov´e rozdˇelen´ı (ˇcastˇeji pak anglicky sampling distribution). Nemysl´ı se t´ım nic jin´eho neˇz rozdˇelen´ı pravdˇepodobnosti nˇejak´e statistiky. Onen pˇr´ıvlastek v´ybˇerov´e se zde pˇrid´av´a, aby se zd˚ uraznilo, ˇze jedin´a realizace statistiky vyˇzaduje realizaci cel´eho n´ahodn´eho v´ ybˇeru (tedy n pozorov´an´ı). Kdyˇz budeme mluvit o statistik´ach, ˇcasto se setk´ame jeˇstˇe s jedn´ım pojmem: m´ısto smˇerodatn´a odchylka (standard deviation, SD) se ˇcasto ˇr´ık´a smˇerodatn´a chyba (standard error, SE). Na v´ yznamu pojmu to ale nic nemˇen´ı. Tabulka 3: Pˇrehled pouˇzit´eho znaˇcen´ı N´azev Stˇredn´ı hodnota Rozptyl ˇ ıseln´a charakteristika C´ E(X) VAR(X) Oznaˇcen´ı jej´ı hodnoty
COR(X)
σ2
ρ
2
R
s2
r
Estim´ator
µ ¯ X
S
Estim´at
x¯
71
Korelaˇcn´ı koeficient
4.2.1
Odhad stˇ redn´ı hodnoty
Za estim´ator pro stˇredn´ı hodnotu vol´ıme aritmetick´ y pr˚ umˇer. Jelikoˇz je vzorec pro jeho v´ ypoˇcet pomˇernˇe jednoduch´ y, vyuˇzijeme jej k demonstraci vlastnost´ı estim´ator˚ u, kter´e jsme v´ yˇse zm´ınili. Mˇejme n´ahodn´ y v´ ybˇer (X1 , X2 , ..., Xn ), kde pro i = 1, 2, ..., n plat´ı E(Xi ) = µ a ¯ VAR(Xi ) = σ 2 . Aritmetick´ y pr˚ umˇer pro tento n´ahodn´ y v´ ybˇer je n´ahodn´a veliˇcina X, P kter´a vznik´a jako n1 ni=1 Xi . Prvn´ı vlastnost, kterou jsme zm´ınili, je nestrannost. Abychom mohli ˇr´ıct, ˇze je es¯ = µ. Pokud toto tvrzen´ı pˇreloˇz´ıme do ˇceˇstiny: tim´ator nestrann´ y, muselo by platit E(X) poˇzadujeme, aby v pˇr´ıpadˇe, ˇze budeme celou entici mˇeˇren´ı opakovat, nalezen´e hodnoty x¯ se budou v pr˚ umˇeru pohybovat kolem hodnoty µ. Zkusme nestrannost aritmetick´eho pr˚ umˇeru dok´azat matematicky:
¯ =E E(X)
X X n n 1 1 1 Xi = E Xi = E(X1 ) + E(X2 ) + ... + E(Xn ) = n i=1 n n i=1 =
1 1 (µ + µ + ... + µ) = · nµ = µ n n
Aritmetick´ y pr˚ umˇer je tedy nestrann´ y odhad stˇredn´ı hodnoty. Nestrann´ ych estim´ator˚ u stˇredn´ı hodnoty bychom nicm´enˇe mohli vymyslet mnoho. Nˇekdo by napˇr´ıklad mohl navrhnout, ˇze bychom klidnˇe mohli odhadovat stˇredn´ı hodnotu tak, ˇze seˇcteme jen prvn´ı a posledn´ı mˇeˇren´ı a vydˇel´ıme je dvˇema:
X1 +Xn . 2
Opˇet jde o nestrann´ y estim´ator, nav´ıc
se poˇc´ıt´a o moc sn´aze neˇz pr˚ umˇer. Abychom mohli rozsoudit, kter´ y z obou kandid´at˚ u je lepˇs´ı, potˇrebujeme stanovit jejich pˇresnost, kter´a je reprezentov´ana rozptylem. Zjistˇeme tedy rozptyl aritmetick´eho pr˚ umˇeru:
¯ = VAR VAR(X)
X X n n 1 1 Xi = 2 VAR Xi = n i=1 n i=1
=
1 VAR(X1 ) + VAR(X2 ) + ... + VAR(Xn ) = 2 n 1 1 1 = 2 (σ 2 + σ 2 + ... + σ 2 ) = 2 · nσ 2 = σ 2 n n n
Srovnejme s rozptylem naˇseho estim´atoru VAR
X1 + Xn 2
=
X1 +Xn : 2
1 1 1 VAR(X1 ) + VAR(Xn ) = (σ 2 + σ 2 ) = σ 2 4 4 2
72
Je zˇrejm´e, ˇze aritmetick´ y pr˚ umˇer je pro n > 2 pˇresnˇejˇs´ı ( 12 σ 2 >
1 2 σ ), n
tedy m´enˇe
kol´ıs´a. Lze dok´azat, ˇze i kdybychom zkouˇseli libovoln´e dalˇs´ı zp˚ usoby odhadu, aritmetick´ y pr˚ umˇer nikdy nepˇrekon´ame. Aritmetick´ y pr˚ umˇ er je nejlepˇ s´ım nestrann´ ym odhadem stˇ redn´ı hodnoty n´ ahodn´ e veliˇ ciny. Z uveden´eho vztahu je zjevn´e i to, ˇze aritmetick´ y pr˚ umˇer je konzistentn´ı odhad – hodnota
σ2 n
se bude s rostouc´ım n z´akonitˇe zmenˇsovat a pro n bl´ızk´e nekoneˇcnu, bude m´ıt
n´aˇs odhad nekoneˇcnˇe mal´ y rozptyl kolem hodnoty hledan´eho parametru µ. N´aˇs konkurenˇcn´ı kandid´at nem´a ani tuto vlastnost. Kromˇe tˇechto dobr´ ych vlastnost´ı m´a pr˚ umˇer jeˇstˇe jednu pozoruhodnou pˇrednost. Zat´ım jsme se bavili jen obecnˇe o n´ahodn´e veliˇcinˇe bez ohledu na rozdˇelen´ı. Z kapitoly (2.7.3) v´ıme, ˇze souˇctem v´ıce norm´alnˇe rozdˇelen´ ych n´ahodn´ ych veliˇcin vznik´a n´ahodn´a veliˇcina, kter´a m´a tak´e norm´aln´ı rozdˇelen´ı. Tak´e v´ıme, ˇze pokud s takovou n´ahodnou veliˇcinou provedeme nˇejakou line´arn´ı transformaci (vyn´asob´ıme ji nˇeˇc´ım, nˇeco pˇriˇcteme), tak je st´ale norm´aln´ı rozdˇelen´ı zachov´ano. Je tedy patrn´e, ˇze pokud plat´ı Xi ∼ N (µ, σ 2 ), ¯ ∼ N (µ, 1 σ 2 ). pak plat´ı i X n
To ale nen´ı vˇsechno, z t´eˇze kapitoly v´ıme, ˇze souˇcet n libovolnˇe rozdˇelen´ ych n´ahodn´ ych veliˇcin se bude tvarem sv´e distribuˇcn´ı funkce s rostouc´ım n st´ale v´ıce podobat norm´aln´ımu rozdˇelen´ı. Tuto z´akonitost naz´ yv´ame centr´aln´ı limitn´ı teor´em a v pˇr´ıpadˇe aritmetick´eho pr˚ umˇeru jej m˚ uˇzeme vyuˇz´ıt. Tedy bez ohledu na rozdˇelen´ı n´ahodn´ ych veliˇcin X, se roz¯ s rostouc´ım poˇ dˇ elen´ı X ctem pozorov´ an´ı pˇ ribliˇ zuje k rozdˇ elen´ı N (µ, 1 σ 2 ). Tuto n
vlastnost budeme v budoucnu hojnˇe vyuˇz´ıvat. 4.2.2
Odhad rozptylu
Co se t´ yˇce odhadu rozptylu, je situace ponˇekud komplikovanˇejˇs´ı neˇz u stˇredn´ı hodnoty. Za nejvhodnˇejˇs´ı estim´ator obvykle vol´ıme v´ ybˇerov´ y rozptyl definovan´ y jako S 2 = Pn 1 ¯ 2 ıˇz nicm´enˇe vypl´ yv´a z toho, ˇze tento estim´ator nem´a symetrick´e i=1 (Xi − X) . Pot´ n−1 rozdˇelen´ı. Pokud si pˇredstav´ıme modelovou situaci, kdy poˇc´ıt´ame rozptyl n´ahodn´e veliˇciny X, kter´a m´a rozdˇelen´ı N (µ, σ 2 ), a m´ame k dispozici n´ahodn´ y v´ ybˇer, obsahuj´ıc´ı n totoˇzn´ ych veliˇcin, pak odhad rozptylu S 2 m´a rozdˇelen´ı
σ2 n−1
· χ2(n−1) .14 Jak´ y tvar m´a hustota tohoto
rozdˇelen´ı zn´azorˇ nuje obr´azek (17) v kapitole (2.7.4). Z t´eto asymetrie vypl´ yv´a jeden probl´em – pokud vytvoˇr´ıme estim´ator tak, aby byl co nejpˇresnˇejˇs´ı (tedy lokalizoval odhadovan´ y rozptyl tam, kde jej m˚ uˇzeme oˇcek´avat s nejvyˇsˇs´ı 14
Proˇc tomu tak je, lze intuitivnˇe tuˇsit ze vzorce pro jeho v´ ypoˇcet – rozdˇelen´ı χ2(n) vznik´a jakou souˇcet ¯ m´aj´ı zjevnˇe n nez´ avisl´ ych normovan´ ych norm´ aln´ıch rozdˇelen´ı umocnˇen´ ych na druhou. Veliˇciny (Xi –X) norm´ aln´ı rozdˇelen´ı a ve vzorci sˇc´ıt´ ame jejich druh´e mocniny. Detaily, jako kam se ztrat´ı jeden stupeˇ n volnosti, a jak je zajiˇstˇena nez´ avislost atd. vˇsak pˇrekraˇcuj´ı znalosti prezentovan´e v tomto textu.
73
m´ırou jistoty, tedy na m´ısto, kde dosahuje graf hustoty pravdˇepodobnosti rozdˇelen´ı χ2(n−1) sv´eho maxima), pak tento estim´ator nebude nestrann´ y. Naopak, pokud jej um´ıst´ıme tak, aby odpov´ıdal stˇredn´ı hodnotˇe rozdˇelen´ı χ2(n−1) , bude se sice jednat o nestrann´ y odhad, ale jeho rozptyl bude o nˇeco vˇetˇs´ı neˇz pˇri pˇredchoz´ı moˇznosti. V´ ybˇerov´ y rozptyl tak, jak jsme jej definovali, odpov´ıd´a druh´e moˇznosti. Je sice nestrann´ y, ale nen´ı nejpˇresnˇejˇs´ı moˇzn´ y. Pokud bychom se vydali prvn´ı navrˇzenou cestou, hovoˇrili bychom o takzvan´em populaˇ cn´ım rozptylu, kter´ y by bylo moˇzn´e vypoˇc´ıtat Pn 1 2 ¯ . M´a menˇs´ı rozptyl, ale ponˇekud podhodnocuje skuteˇcnou (Xi − X) podle vzorce n
i=1
hodnotu σ 2 . M˚ uˇzeme o nˇem ˇr´ıct, ˇze je asymptoticky nestrann´ y (tedy jeho m´ıra vych´ ylen´ı se s rostouc´ım n sniˇzuje, teoreticky k nule). Pro veˇsker´e v´ ypoˇcty v toto textu vˇsak budeme pouˇz´ıvat v´ yhradnˇe v´ ybˇerov´ y rozptyl, tak jak jsme jej definovali v kapitole (3.5.2). 4.2.3
Odhad korelaˇ cn´ıho koeficientu
V´ ybˇerov´ y korelaˇcn´ı koeficient, kter´ y jsme definovali v kapitole (3.7.2), lze pouˇz´ıt k odhadu korelaˇcn´ıho koeficientu dvou n´ahodn´ ych veliˇcin (obvykle hodnotu tohoto teoretick´eho korelaˇcn´ıho koeficietu znaˇc´ıme p´ısmenem ρ, ˇcti ,,r´o”). Korelaˇcn´ı koeficient je de facto kovarianc´ı standardizovanou pomoc´ı smˇerodatn´ ych odchylek (tedy odmocnin z rozptyl˚ u) obou sledovan´ ych n´ahodn´ ych veliˇcin. O podobnosti mezi kovarianc´ı a rozptylem jsme jiˇz hovoˇrili, ˇcten´aˇr proto m˚ uˇze tuˇsit, ˇze ˇrada poznatk˚ u, kter´e platily o jeho odhadu, plat´ı i pro odhad kovariance. Opˇet zde nar´aˇz´ıme na probl´em, ˇze tento estim´ator nem´a symetrickou hustotu pravdˇepodobnosti, a opˇet si tedy mus´ıme vybrat mezi pˇresnˇejˇs´ı ale vych´ ylenou ,,populaˇcn´ı” kovarianc´ı (m´ısto
1 n−1
by ve vzorci pro jej´ı v´ ypoˇcet vystupoval zlomek n1 ) a nevych´ ylenou
v´ ybˇerovou kovarianc´ı, kter´e d´av´ame obvykle pˇrednost. Pˇri v´ ypoˇctu korelaˇcn´ıho koeficientu se t´eto ot´azce vˇsak vyhneme – jelikoˇz rozhodnut´ı o tom, jestli zvolit v´ ybˇerov´e nebo populaˇcn´ı odhady dˇel´ame pro kovarianci i smˇerodatn´e odchylky, tedy pro ˇcitatele i jmenovatele, tak naˇse rozhodnut´ı nijak nezmˇen´ı v´ ysledek (ledaˇze bychom ponˇekud nelogicky zvolili v ˇcitateli jin´ y druh odhadu neˇz ve jmenovateli). Z tohoto d˚ uvodu existuje jedin´ y korelaˇcn´ı koeficient. M˚ uˇzeme mu d´avat pˇr´ıvlastek v´ ybˇerov´ y. Aˇc je v´ ybˇerov´ y koeficient nejlepˇs´ım estim´atorem hodnoty teoretick´eho korelaˇcn´ıho koeficientu, nen´ı ani nestrann´ y a ani jeho rozdˇelen´ı pravdˇepodobnosti nepatˇr´ı do ˇza´dn´e rodiny, se kterou se bˇeˇznˇe setk´av´ame a um´ıme popsat. To nijak nesniˇzuje jeho uˇziteˇcnost, pˇri ˇreˇsen´ı nˇekter´ ych probl´em˚ u v budoucnu n´am to ale zkomplikuje pr´aci a pˇrinut´ı n´as to hledat nˇejakou transformaci, pomoc´ı kter´e bychom se s tˇemito probl´emy vypoˇra´dali.
74
Zkoum´an´ı (line´arn´ı) z´avislosti mezi dvˇema n´ahodn´ ymi veliˇcinami je jedn´ım z nejˇcastˇejˇs´ıch u ´kol˚ u, na kter´ y v psychologick´em v´ yzkumu nar´aˇz´ıme. Zmiˇ nme proto nˇekolik speci´aln´ıch pˇr´ıpad˚ u, kdy jsme nuceni odhadovat velikost korelaˇcn´ıho koeficientu mezi dvˇema veliˇcinami, nicm´enˇe data, kter´a m´ame k dispozici, jsou nˇejak´ ym zp˚ usobem redukovan´a. Prvn´ım pˇr´ıpadem m˚ uˇze b´ yt korelaˇ cn´ı koeficient pˇ ri omezen´ em rozsahu jedn´e n´ahodn´e veliˇciny. Pˇredstavme si situaci, kdy chceme zjistit, do jak´e m´ıry souvis´ı poˇcet bod˚ u, kter´e ˇ s jejich IQ. Zd´a se, ˇze se jedn´a o trivi´aln´ı u z´ıskali uchazeˇci o studium na VS, ´kol – oslov´ıme skupinu student˚ u, nech´ame je vyplnit inteligenˇcn´ı testy a jejich v´ ysledky budeme korelovat s poˇctem bod˚ u, kter´e z´ıskali u pˇrij´ımac´ıch zkouˇsek. Aˇc se zd´a, ˇze jsme nemohli udˇelat ˇza´dnou chybu, takov´ yto odhad by vedl k drastick´emu podhodnocen´ı m´ıry hledan´e ˇ pˇrijati, korelace. Kamenem u ´razu je to, ˇze pokud oslov´ıme jen ty studenty, co byli na VS tak v naˇsem souboru budou zcela sch´azet jedinci, kteˇr´ı mˇeli velmi ˇspatn´ y v´ ysledek na ˇ pˇrij´ımac´ıch zkouˇsk´ach. Reknˇ eme, ˇze v testu bylo moˇzn´e z´ıskat 0 aˇz 100 bod˚ u. Nejhorˇs´ı uchazeˇc z´ıskal 3 body, nejlepˇs´ı 88 bod˚ u a hranice pro pˇrijet´ı byla 60 bod˚ u. N´aˇs statistick´ y soubor pak nebude pˇr´ıliˇs reprezentativn´ım v´ ybˇerem realizac´ı sledovan´e n´ahodn´e veliˇciny. Minimum v nˇem nebude n´ıˇz neˇz na 60 bodech, pr˚ umˇer bude daleko vyˇsˇs´ı, neˇz byl ve skuteˇcnosti u vˇsech uchazeˇc˚ u o pˇrijet´ı, a rozptyl bude v´ yraznˇe podhodnocen´ y, coˇz povede k podhodnocen´ı odhadovan´eho korelaˇcn´ıho koeficientu. Toto podhodnocen´ı m˚ uˇzeme matematicky korigovat. Mus´ıme nicm´enˇe pˇredpokl´adat, ˇze obˇe sledovan´e veliˇciny (znaˇcme je X a Y ) maj´ı norm´aln´ı rozdˇelen´ı a ˇze zn´ame skuteˇcn´ y 2 rozptyl, kter´ y m´a n´ahodn´a veliˇcina X, pokud by nebyla omezen´a (znaˇcme jej σX ). Kori-
govan´ y odhad rXY , pak z´ısk´ame ze vztahu: rXY = q
σX rxy
,
2 2 2 σX rxy + s2x − s2x rxy
kde rxy je v´ ybˇerov´ y korelaˇcn´ı koeficient vypoˇc´ıtan´ y na namˇeˇren´ ych hodnot´ach a s2x namˇeˇren´ y v´ ybˇerov´ y rozptyl. Pokud teoretick´ y popis neobjasˇ nuje chov´an´ı korelaˇcn´ıho koeficientu na omezen´em rozsahu, jasnˇejˇs´ı pochopen´ı m˚ uˇze pˇrin´est obr´azek (27). Dalˇs´ı speci´aln´ı situace nast´av´a tehdy, kdyˇz zkoum´ame nˇejakou n´ahodou veliˇcinu, kter´a je spojit´a a m´a norm´aln´ı rozdˇelen´ı, nicm´enˇe z d˚ uvodu nedokonal´eho mˇeˇren´ı nezn´ame pˇresnou hodnotu jej´ıch jednotliv´ ych realizac´ı, ale dost´av´ame drasticky redukovanou informaci: u kaˇzd´eho prvku statistick´eho souboru m˚ uˇzeme ˇr´ıct jen to, jestli m´a hodnotu dan´eho znaku vyˇsˇs´ı, neˇz je nˇejak´ y pr´ah, nebo naopak niˇzˇs´ı. Z p˚ uvodn´ı norm´alnˇe rozdˇelen´e veliˇciny XN se tak st´av´a veliˇcina s alternativn´ıch rozdˇelen´ım XA . O znaku xA pak ˇr´ık´ame, ˇze je umˇ ele diskretizovan´ y a ˇze zde existuje skryt´a (anglicky underlying) distribuce, ze kter´e je odvozen. 75
Obr´azek 27: Korelaˇcn´ı koeficient pˇri omezen´em rozsahu znaku x 150 Přijatí studenti 140
Nepřijatí studenti
130
IQ
120 110 100 90 80 0
20
40 60 Počet bodů u přijímacích zkoušek
80
100
Graf zn´ azorˇ nuje vztah mezi poˇctem bod˚ u u pˇrij´ımac´ıch zkouˇsek a IQ. Pokud bychom v´ ybˇerov´ y korelaˇcn´ı koeficient vypoˇc´ıtali pouze u pˇrijat´ ych student˚ u, dos´ahne v´ yˇse 0.36. Pokud bychom vˇsak do v´ ypoˇctu pˇridali i nepˇrijat´e studenty, hodnota vzroste aˇz na 0.67. Budeme-li hodnotu 0.36 korigovat, z´ısk´ ame odhad bl´ıˇze pravdˇe: rXY = 0.65.
Pokud bychom chtˇeli odhadovat Pearson˚ uv korelaˇcn´ı koeficient veliˇcin XA a Y , pak bychom patrnˇe s´ahli po bodovˇe biseri´aln´ım korelaˇcn´ım koeficientu. Nalezen´a hodnota by vˇsak nebyla pˇr´ıliˇs dobr´ ym odhadem COR(XN , Y ), jelikoˇz zm´ınˇen´a diskretizace povede k podhodnocen´ı m´ıry odhadovan´e korelace. Opˇet vˇsak m˚ uˇzeme zvolit vhodnou korekci, pomoc´ı kter´e takto vznikl´e zkreslen´ı vykompenzujeme. Hovoˇrili bychom pak o biseri´ aln´ım korelaˇ cn´ım koeficientu rbis a jeho v´ yˇsi bychom stanovili jako: √ p0 p 1 , rbis = rpb f (p0 ) kde rpb je bodovˇe biseri´aln´ı korelaˇcn´ı koeficient vypoˇc´ıtan´ y na znac´ıch x (hodnoty 0 a 1) a y (kvantitativn´ı znak), hodnoty p0 a p1 jsou nalezen´e relativn´ı ˇcetosti u ´rovn´ı 0 a 1 znaku x a f (p0 ) je hodnota hustoty pravdˇepodobnosti normovan´eho norm´aln´ıho rozdˇelen´ı v bodˇe p0 , tedy p2 0
e− 2 f (p0 ) = √ . 2π Situace m˚ uˇze b´ yt jeˇstˇe komplikovanˇejˇs´ı. Co kdyby byly obˇe sledovan´e n´ahodn´e veliˇciny norm´alnˇe rozdˇelen´e, ale podobnˇe jako v pˇredeˇsl´em pˇr´ıpadˇe diskretizovan´e na hodnoty 0 a 1? Koeficient rφ , po kter´em bychom intuitivnˇe s´ahli, by opˇet m´ıru skuteˇcn´e korelace 76
ˇ sen´ım je tentokr´at tetrachorick´ COR(XN , YN ) podhodnocoval. Reˇ y korelaˇ cn´ı koeficient, kter´ y tento probl´em elegantnˇe pˇrekon´av´a. Tato metoda m´a vˇsak jednu nev´ yhodu – je v´ ypoˇcetnˇe velmi n´aroˇcn´a a i z bˇeˇznˇe pouˇz´ıvan´ ych statistick´ ych program˚ u jich tento ukazatel ˇrada neposkytuje. Naˇse u ´vahy bychom mohli posunout jeˇstˇe d´al. Co kdybychom mˇeli k dispozici disktretizovan´e n´ahodn´e veliˇciny, ale tentokr´at ne na hodnoty 0 a 1, ale do v´ıce uspoˇra´dan´ ych kategori´ı (tˇreba 0, 1 a 2, kde 0 znaˇc´ı velmi m´alo, 1 hodnoty kolem pr˚ umˇeru a 2 vysok´e hodnoty). Biseri´aln´ı korelaˇcn´ı koeficient bychom pak nahradili polyseri´ aln´ım korelaˇ cn´ım koeficientem a tetrachorick´ y polychorick´ ym korelaˇ cn´ım koeficientem. Na rozd´ıl od pˇredeˇsl´ ych dvou se vˇsak s t´ımto ˇreˇsen´ım setk´av´ame zˇr´ıdkakdy. Vˇenujme jeˇstˇe pozornost tomu, jak vlastnˇe pozn´ame, ˇze alternativn´ı znak ve skuteˇcnosti reprezentuje spojitou veliˇcinu. Jedn´a se o mnohem h˚ uˇr uchopiteln´ y probl´em, neˇz se zd´a. Nˇekter´e pˇr´ıpady n´am m˚ uˇzou pˇripadat vcelku jasn´e. Tˇreba to, jestli jedinec spr´avnˇe vyˇreˇsil poloˇzku v inteligenˇcn´ım testu, je typick´a diskretizovan´a promˇenn´a. Inteligence m´a pˇribliˇznˇe norm´aln´ı rozdˇelen´ı, nicm´enˇe v´ ysledek je pouze 0 (nevyˇreˇsil) a 1 (vyˇreˇsil). Naopak to, jestli je ˇzena tˇehotn´a, je jiˇz od pˇr´ırody disktr´etn´ı alternativnˇe rozdˇelen´a n´ahodn´a veliˇcina. Nem˚ uˇze se st´at, ˇze by nˇekdo byl ,,nap˚ ul tˇehotn´ y” nebo ,,tak troˇsku” tˇehotn´ y, aˇc n´as kvˇetnat´a realita nˇekdy nut´ı i o tomto kategorick´em tvrzen´ı pochybovat. Pravdou je, ˇze i pˇredn´ı statistici se ˇcasto na tom, jakou veliˇcinu vlastnˇe zkoum´ame, neshodnou. Historicky v´ yznamn´a je napˇr´ıklad pomˇernˇe ostr´a v´ ymˇena n´azor˚ u mezi Karlem Pearsonem (kter´ y formuloval tetrachorick´ y koeficient) a Udnym Yulem (kter´ y spoluobjevil a prosazoval koeficient φ) nad t´ım, jak kvantifikovat u ´ˇcinnost oˇckov´an´ı proti neˇstovic´ım. U pacient˚ u kolem roku 1900 bylo moˇzn´e sledovat v podstatˇe jen to, jestli byli oˇckov´ani nebo ne a jestli n´akazu neˇstovicemi pˇreˇzili. Druh´ y jmenovan´ y statistik argumentoval ve prospˇech koeficientu φ t´ım, ˇze kaˇzd´ y mrtv´ y pacient je stejnˇe mrtv´ y a kaˇzd´ y oˇckovan´ y je oˇckovan´ y stejnˇe. Pearson nicm´enˇe v pozad´ı vidˇel n´ahodn´e veliˇciny, kter´e bychom mohli pojmenovat z´avaˇznost pr˚ ubˇehu (kter´a, kdyˇz pˇrekroˇc´ı jistou hranici, konˇc´ı smrt´ı) a s´ıla imunitn´ıho syst´emu. Kter´emu z uˇcenc˚ u bychom mˇeli d´at za pravdu, nechme na u ´sudku ˇcten´aˇre.
4.3
Intervaly spolehlivosti
Bodov´e odhady parametr˚ u pˇrin´aˇs´ı nemal´ y uˇzitek. Zejm´ena tehdy, kdyˇz potˇrebujeme odhad pouˇz´ıt v dalˇs´ıch v´ ypoˇctech, se n´am vypl´ac´ı to, ˇze m´a podobu jedin´eho ˇc´ısla. Kdyˇz se vˇsak nad pˇredeˇslou podkapitolou hloubˇeji zamysl´ıme, vˇsimneme si jedn´e znepokojiv´e vlastnosti bodov´ ych odhad˚ u. Aˇc jsou sebepˇresnˇejˇs´ı, ve vˇetˇsinˇe pˇr´ıpad˚ u si m˚ uˇzeme b´ yt jisti, ˇze se hodnota odhadovan´eho parametru nerovn´a naˇsemu odhadu. S jistotou se nˇejak´e, aˇc tˇreba mal´e, chyby dopouˇst´ıme. Vhodn´e by proto mohlo b´ yt stanovit interval, kter´ y s urˇcitou 77
d´avkou jistoty hodnotu hledan´eho parametru obsahuje. A pr´avˇe toto je podstata interval˚ u spolehlivosti. Interval spolehlivosti (neboli konfidenˇcn´ı interval), jak jiˇz n´azev napov´ıd´a, je vˇzdy stanoven s urˇcitou spolehlivost´ı, kterou m˚ uˇzeme vyj´adˇrit jako ˇc´ıslo mezi nulou a jedniˇckou (budeme jej znaˇcit α, respektive 1 − α). Oboustrann´ ym intervalem spolehlivosti je dvojice statistik, pro kter´ e plat´ı, ˇ ze s pravdˇ epodobnost´ı 1 − α se prvn´ı z nich realizuje s hodnotou menˇ s´ı neˇ z je hodnota hledan´ eho parametru a z´ aroveˇ n se druh´ a z nich realizuje s hodnotou vˇ etˇ s´ı neˇ z je hodnota hledan´ eho parametru. Kdyˇz chceme stanovit 99% interval spolehlivosti pro parametr θ (tedy α = 0.01), pak hled´ame takov´e dvˇe statistiky D a H (doln´ı a horn´ı), kter´e vytvoˇr´ı interval (D, H), o nˇemˇz m˚ uˇzeme ˇr´ıct, ˇze v 99% pˇr´ıpad˚ u pokr´ yv´a skuteˇcnou hodnotu hledan´eho parametru. Tento interval I0.99 = (D, H) budeme povaˇzovat za intervalov´ y odhad parametru θ. Pouˇzit´ı intervalu m´ısto bodov´eho odhadu je v mnoha ohledech poctivˇejˇs´ı. Nevyvol´av´a iluzi toho, ˇze zn´ame nˇejakou pˇresnou hodnotu, ale pˇrizn´av´ame jistou m´ıru nejistoty. Napˇr´ıklad pokud bychom odhadovali, o kolik zkr´at´ı urˇcit´ y l´ek pr˚ ubˇeh chˇripky, pak by (bodov´a) odpovˇed’ mohla zn´ıt tˇreba 5 dn˚ u. Nicm´enˇe aˇz konfidenˇcn´ı interval, ˇreknˇeme 95%, kter´ y by ˇr´ıkal tˇreba (−2, 12) dn˚ u, by n´am dal tuˇsit, ˇze o tom, jak´ y uˇzitek l´ek pˇrinese, nem´ame vlastnˇe tuˇsen´ı (dokonce je moˇzn´e, ˇze dobu l´eˇcby prodluˇzuje!). I pˇres tuto v´ yhodu se mnoho lid´ı interval˚ um spolehlivosti vyh´ yb´a. To, co ˇskod´ı jejich popularitˇe, je jejich neintuitivn´ı interpretace. Po pˇreˇcten´ı pˇr´ıkladu v pˇredchoz´ım odstavci, by moˇzn´a ˇrada lid´ı prohl´asila, ˇze ,,s pˇetadevades´atiprocentn´ı pravdˇepodobnost´ı leˇz´ı stˇredn´ı hodnota sledovan´e veliˇciny mezi m´ınus dvojkou a dvan´actkou”. To ovˇsem nen´ı pravda! Vzpomeˇ nme si na kapitolu o pravdˇepodobnosti, kdy jsme uvaˇzovali nad t´ım, jak je nesmysln´e se pt´at, s jakou pravdˇepodobnost´ı je ve vesm´ıru nˇejak´a mimozemsk´a civilizace. Bud’ je, nebo nen´ı; nejde j´ı pˇripisovat pravdˇepodobnost. Stejnˇe tak hledan´a stˇredn´ı hodnota bud’ v intervalu leˇz´ı, nebo neleˇz´ı. Stˇredn´ı hodnota existuje a je nepromˇenliv´a, jen je skryt´a pˇred naˇsim pozn´an´ım. Nem˚ uˇzeme ani ˇr´ıct, ˇze se n´am v naˇsem konkr´etn´ım pˇr´ıpadˇe podaˇrilo tuto (st´alou ale skrytou) hodnotu parametru zachytit ˇci pokr´ yt. Od chv´ıle, kdy jsme provedli mˇeˇren´ı, se bav´ıme o jedineˇcn´em pˇr´ıpadu, kter´ y byl bud’ u ´spˇeˇsn´ y nebo nikoli. Nic mezi t´ım. Ona spolehlivost nepatˇr´ı v´ ysledku, ale proceduˇre, kter´a n´as k nˇemu pˇrivedla. S ˇcist´ ym svˇedom´ım proto m˚ uˇzeme obecnˇe prohl´asit, ˇze napˇr´ıklad 99% konfidenˇcn´ı interval m´a 99% pravdˇepodobnost, ˇze hledanou hodnotu bude obsahovat, ale toto jiˇz nem˚ uˇzeme ˇr´ıct o jednom konkr´etn´ım vyˇc´ıslen´em intervalu. Zˇrejmˇe nejsch˚ udnˇejˇs´ı interpretace je takov´a, ˇze kdyˇz bychom opakovanˇe prov´adˇeli n mˇeˇren´ı a vˇzdy vypoˇc´ıtali hodnotu 99% intervalu spolehlivosti, tak v pr˚ umˇeru z kaˇzd´ ych 100 interval˚ u, jich bude hledanou hodnotu obsahovat 99 a jeden se bude m´ ylit. 78
Demonstrujme postup konstrukce intervalu spolehlivosti pro stˇredn´ı hodnotu veliˇciny X, o kter´e v´ıme, ˇze m´a norm´aln´ı rozdˇelen´ı N (µ, σ 2 ) s t´ım, ˇze na rozd´ıl od µ, hodnotu parametru σ 2 zn´ame. Tento pˇr´ıpad vol´ıme z didaktick´ ych d˚ uvod˚ u. Ve skuteˇcnosti se jen zˇr´ıdka setk´ame se situac´ı, kdybychom znali pˇresnou hodnotu rozptylu n´ahodn´e veliˇciny, ale stˇredn´ı hodnota n´am byla utajena. Z pˇredchoz´ı kapitoly v´ıme, ˇze konfidenˇcn´ı interval by mˇel m´ıt podobu (D, H). Zaˇcnˇeme t´ım, ˇze z jeho definice vyp´ıˇseme, co o tˇechto dvou n´ahodn´ ych veliˇcin´ach v´ıme: P (D ≤ µ ≤ H) ≥ 1 − α. Jak formulovat statistiky D a H nicm´enˇe nen´ı na prvn´ı pohled zˇrejm´e. Abychom splnili tento u ´kol, mus´ıme nejprve naj´ıt pomocnou (t´eˇz pivotovou) statistiku (ˇr´ıkejme j´ı tˇreba Z). Je to nˇejak´a statistika, pro kterou plat´ı, ˇze jednak obsahuje hodnotu hledan´eho parametru ¯ a pˇredevˇs´ım m´a nˇejak´e n´am zn´am´e rozdˇelen´ı pra(µ), estim´ator tohoto parametru (X), vdˇepodobnosti. V kapitole o bodov´ ych odhadech jsme odvodili, jak´e rozdˇelen´ı pravdˇepodobnosti m´a ¯ za pˇredpokladu, ˇze X ∼ N (0, 1): bodov´ y odhad stˇredn´ı hodnoty, tedy statistika X, n
X 1 ¯= 1 Xi ∼ N (µ, σ 2 ). X n i=1 n Vhodn´ ym kandid´atem na rozdˇelen´ı pravdˇepodobnosti naˇs´ı pomocn´e statistiky se zd´a b´ yt normovan´e norm´aln´ı rozdˇelen´ı, jelikoˇz na nˇej um´ıme pˇrev´est libovoln´e norm´aln´ı rozdˇelen´ı odeˇcten´ım stˇredn´ı hodnoty a vydˇelen´ım smˇerodatnou odchylkou (viz kapitola 2.7.3): Z=
¯ −µ X √σ n
∼ N (0, 1).
Statistika Z splˇ nuje naˇse poˇzadavky na pomocnou statistiku. Pro jakoukoli n´ahodnou veliˇcinu, tedy i pro Z, plat´ı to, ˇze se s pravdˇepodobnost´ı 1 − α realizuje mezi dvojici sv´ ych kvantil˚ u x α2 a x1− α2 (takto jsou kvantily totiˇz definov´any). Tedy pravdˇepodobnost tˇreba toho, ˇze se n´ahodn´a veliˇcina bude realizovat mezi kvantilem napˇr´ıklad 0.025 a kvantilem 0.975 je 95 %. Pˇreps´ano do matematick´ ych symbol˚ u pro veliˇcinu Z ∼ N (µ, σ 2 ): P Φ α2 ≤ Z ≤ Φ1− α2 ≥ 1 − α. V´ yraz Φ α2 ≤ Z ≤ Φ1− α2 m˚ uˇzeme upravovat jako bˇeˇznou nerovnici. Postupn´ ymi kroky jej tedy pˇreved’me do tvaru D ≤ µ ≤ H, z nˇejˇz zjist´ıme podobu statistiky D a H.
79
V prvn´ım kroku vyuˇzijme symetrie norm´aln´ıho rozdˇelen´ı a nahrad’me hodnotu Φ α2 kvantilem −Φ1− α2 . D´ale pak dosad’me za statistiku Z: P
− Φ1− α2 ≤
¯ −µ X
≤ Φ1− α2
√σ n
Vˇsechny tˇri ˇc´asti nerovnice d´ale vyn´asob´ıme v´ yrazem − Φ1− α2
P
≥ 1 − α. √σ n
¯ a odeˇcteme X:
σ ¯ ≤ −µ ≤ Φ1− α · √σ − X ¯ · √ −X 2 n n
≥ 1 − α.
Celou nerovnici vyn´asob´ıme m´ınus jednou. To vˇsak obr´at´ı znam´enka nerovnosti, v´ yraz proto pˇrep´ıˇseme od konce, aby smˇer znam´enek z˚ ustal zachov´an (tzv. pˇrehod´ıme strany): σ σ ¯ ¯ P X − √ Φ1− α2 ≤ µ ≤ X + √ Φ1− α2 ≥ 1 − α. n n Nalezen´ y v´ yraz m´a poˇzadovan´ y tvar P (D ≤ µ ≤ H) ≥ 1 − α. Snadno z nˇej vyˇcteme, ˇze ¯ + √σ Φ1− α . Hledan´ ¯ − √σ Φ1− α a H = X y konfidenˇcn´ı interval m´a tedy podobu: D=X n
n
2
I1−α =
2
σ σ ¯ ¯ α α X − √ Φ1− 2 , X + √ Φ1− 2 . n n
Nebo v o nˇeco pˇrehlednˇejˇs´ım form´atu: ¯ ± √σ Φ1− α . I1−α = X 2 n N´aˇs interval oznaˇcujeme za dvoustrann´ y (t´eˇz oboustrann´ y). Zmiˇ nme jeˇstˇe situaci, kdy by n´as nezaj´ımal cel´ y interval, ale pouze jeho doln´ı (respektive horn´ı) mez. Tˇreba v naˇsem pˇr´ıkladu s l´ekem, co m´a zkr´atit pr˚ ubˇeh onemocnˇen´ı chˇripkou, bychom se zaj´ımali sp´ıˇse o nejmenˇs´ı u ´ˇcinek, kter´ y u nˇej m˚ uˇzeme v pr˚ umˇeru oˇcek´avat, neˇz o nejvˇetˇs´ı. Jin´ ymi slovy chceme stanovit nejmenˇs´ı odhad pr˚ umˇern´eho u ´ˇcinku, takov´ ym zp˚ usobem, aby pouze pˇri α opakov´an´ıch tohoto postupu odhad tuto mez pˇreceˇ noval. Postup stanoven´ı jednostrann´ ych interval˚ u je stejn´ y jako v pˇr´ıpadˇe oboustrann´ ych, jen s t´ım rozd´ılem, ˇze pˇri v´ ypoˇctu jedin´e meze nebudeme p˚ ulit stanovenou hodnotu α. Tedy: ¯ − √σ Φ1−α D=X n
¯ + √σ Φ1−α . H=X n
Nalezen´e jednostrann´e intervaly by pak vypadaly I1−α =
σ ¯ X − √ Φ1− α2 , ∞ , n
I1−α = 80
σ ¯ − ∞, X + √ Φ1− α2 . n
4.3.1
Interval spolehlivosti pro stˇ redn´ı hodnotu
V´ yˇse uveden´ y pˇr´ıklad popisoval ponˇekud nerealistickou situaci, kdy pracujeme s norm´alnˇe rozdˇelenou n´ahodnou veliˇcinou a potˇrebujeme odhadnout jej´ı stˇredn´ı hodnotu µ, ale jiˇz zn´ame pˇresnou hodnotu parametru σ 2 . V praxi, kdyˇz se setk´ame s u ´kolem odhadu stˇredn´ı hodnoty, pravdˇepodobnˇe n´am bude utajen i rozptyl n´ahodn´e veliˇciny. Pro stanoven´ı intervalu spolehlivosti jsme ale potˇrebovali zn´at hodnotu parametru σ 2 , coˇz n´am situaci ponˇekud komplikuje. Nicm´enˇe i zde si dok´aˇzeme poradit. Hodnotu σ 2 jsme se nauˇcili v pˇredeˇsl´e kapitole odhadnout, a tedy parametr nahrad´ıme nestrann´ ym bodov´ ym odhadem S 2 . Naˇse pomocn´a statistika, ze kter´e konfidenˇcn´ı interval odvod´ıme (nazvˇeme ji protentokr´at T nikoli Z), vˇsak kv˚ uli t´eto zmˇenˇe nebude m´ıt norm´aln´ı rozdˇelen´ı, ale Studentovo t rozdˇelen´ı. Coˇz um´ıme na z´akladˇe naˇsich znalost´ı z pˇredeˇsl´ ych kapitol sami dok´azat. Z odhad˚ u stˇredn´ı hodnoty a rozptylu norm´aln´ıho rozdˇelen´ı um´ıme vytvoˇrit dvˇe n´ahodn´e veliˇciny se zn´am´ ymi rozdˇelen´ımi: ¯ −µ X √σ n
∼ N (0, 1),
S2 ∼
σ2 2 χ tedy n − 1 (n−1)
S 2 (n − 1) ∼ χ2(n−1) . σ2
Taky zn´ame definici Studentovat t rozdˇelen´ı15 : N (0, 1) T =q 2 ∼ t(n−1) , χ(n−1) n−1
kde je n´ahodn´a veliˇcina v ˇcitateli a jmenovateli nez´avisl´a. Kdyˇz do tohoto vzorce dosad´ıme yˇse uveden´e n´ahodn´e veliˇciny (kter´e jsou na m´ısto veliˇcin N (0, 1) a χ2(n−1) naˇse dvˇe v´ mimochodem nez´avisl´e, jak poˇzadujeme, aˇc to neum´ıme dok´azat), z´ısk´ame n´asleduj´ıc´ı v´ yraz: ¯ X−µ
T =r
√σ n S 2 (n−1) σ2
n−1
¯ X−µ √σ
n =q =
S2 σ2
¯ −µ σ ¯ −µ X X · = S ∼ t(n−1) . σ √ √ S n n
Kdyˇz srovn´ame z´ıskanou statistiku s tou, kterou jsme pouˇz´ıvali v pˇr´ıpadˇe zn´am´eho rozptylu, zmˇenilo se jen m´alo: hodnota σ 2 byla nahrazena veliˇcinou S 2 a norm´aln´ı rozdˇelen´ı bylo nahrazeno Studentov´ ym t rozdˇelen´ım s n − 1 stupni volnosti. Skuteˇcnˇe se toho v´ıce nemˇen´ı. M˚ uˇzeme proto v jiˇz odvozen´ ych vzorc´ıch z u ´vodn´ı kapitoly prov´est stejn´e z´amˇeny 15 Za zm´ınku stoj´ı to, ˇze vkl´ adat do rovnic oznaˇcen´ı rozdˇelen´ı pravdˇepobodnosti nen´ı spr´avn´ y zp˚ usob z´ apisu, aˇc jsme mu ted’ dali pro pˇrehlednost pˇrednost. Ve skuteˇcnosti bychom mˇeli ke kaˇzd´emu rozdˇelen´ı, se kter´ ym chceme pracovat, pˇriˇradit nˇejakou veliˇcinu a teprve tu vkl´adat do rovnic.
81
Obr´azek 28: Demonstrace pˇresnosti konfidenˇcn´ıch interval˚ u
μ
Graf zn´ azorˇ nuje 100 konfidenˇcn´ıch interval˚ u na simulovan´ ych datech pˇri spolehlivosti 0.95. Kaˇzd´ y interval je sestrojen pomoc´ı deseti n´ ahodn´ ych hodnot z´ıskan´ ych z norm´aln´ıho rozdˇelen´ı. Vˇsimnˇete si, ˇze ˇs´ıˇre interval˚ u kol´ıs´ a, jelikoˇz rozptyl nen´ı zn´am´ y a mus´ı b´ yt odhadov´an. V pr˚ umˇeru 5 interval˚ u ze 100 hledanou hodnotu neobsahuje.
a stanovit hledan´ y konfidenˇcn´ı interval jako: I1−α
S S ¯ ¯ α α = X − √ t(n−1),1− 2 , X + √ t(n−1),1− 2 , n n
kde t(n−1),1− α2 je kvantil Studentova t rozdˇelen´ı s n−1 stupni volnosti. Pˇr´ıpadnˇe pouˇzijeme tvar ¯ ± √S t(n−1),1− α . I1−α = X 2 n Konfidenˇcn´ı intervaly m˚ uˇzeme prezentovat bud’ v podobˇe ˇc´ısel anebo graficky. Typicky, kdyˇz kresl´ıme sloupcov´ y graf, kter´ y zobrazuje pr˚ umˇern´e hodnoty, k vrcholu kaˇzd´eho sloupce zakresl´ıme chybovou u ´seˇcku, kter´a zn´azorˇ nuje pr´avˇe interval spolehlivosti16 . Takov´ yto graf m´a pak o mnoho vˇetˇs´ı vypov´ıdac´ı hodnotu. Zobrazen´ı konfidenˇcn´ıch interval˚ u umoˇzn ˇuje vˇetˇsina statistick´ ych program˚ u, vˇcetnˇe programu MS Excel, ve kter´em ve verzi 2013 m˚ uˇzeme zobrazit chybov´e u ´seˇcky s libovoln´ ymi hodnotami. Zamysleme se nad t´ım, co vˇsechno a jak´ ym zp˚ usobem ovlivˇ nuje velikost nalezen´eho intervalu spolehlivosti. V z´asadˇe jde o tˇri faktory: ˇ ım v´ıce se spolehlivost intervalu pˇribliˇzuje jedniˇcce, t´ım • Stanoven´a spolehlivost. C´ ˇsirˇs´ı bude (coˇz intuitivnˇe d´av´a smysl – kdyˇz si vezmu vˇetˇs´ı s´ıt’, m´am vˇetˇs´ı ˇsanci, ˇze vylov´ım rybu). Pokud bychom definovali stoprocentn´ı interval spolehlivosti, jeho ˇs´ıˇre by byla (−∞, +∞). • Rozptyl pozorovan´e n´ahodn´e veliˇciny. Je-li sledovan´a veliˇcina velmi homogenn´ı, bude se daˇrit jej´ı stˇredn´ı hodnotu zamˇeˇrit mnohem pˇresnˇeji, neˇz kdyby byla rozkol´ısan´a. 16
Nicm´enˇe je silnˇe doporuˇceno k takov´emu grafu pˇridat koment´aˇr, co onou u ´seˇckou mysl´ıme. Nˇekdy se totiˇz stejn´ ym zp˚ usobem zakresluje smˇerodatn´a odchylka sledovan´e veliˇciny nebo smˇerodatn´a odchylka odhadu.
82
• Velikost souboru. Toto je v praxi obvykle jedin´a moˇznost, jak regulovat velikost interval˚ u spolehlivosti a udrˇzet je rozumnˇe u ´zk´e. S rostouc´ım n se ˇs´ıˇrka intervalu sniˇzuje. Pokud zvˇetˇs´ıme rozsah souboru stokr´at, interval se z´ uˇz´ı desetkr´at (coˇz vypl´ yv´a z v´ yˇse uveden´ ych vzorc˚ u). 4.3.2
Interval spolehlivosti pro rozptyl a smˇ erodatnou odchylku
Nˇekdy se setk´av´ame se situac´ı, kdy potˇrebujeme odhadnout rozptyl, respektive smˇerodatnou odchylku, sledovan´e n´ahodn´e veliˇciny. Za pˇredpokladu, ˇze tato n´ahodn´a veliˇcina m´a norm´aln´ı rozdˇelen´ı, m˚ uˇzeme i zde sestrojit intervalov´ y odhad. Postup bude stejn´ y jako pˇri konstrukci konfideˇcn´ıch interval˚ u pro stˇredn´ı hodnotu. Prvn´ım krokem bude nalezen´ı pomocn´e statistiky, kter´a m´a nˇejak´e zn´am´e rozdˇelen´ı pravdˇepodobnosti a obsahuje jak S 2 , tak σ 2 . Tuto pr´aci jsme ale jiˇz vlastnˇe udˇelali v pˇredeˇsl´e podkapitole. V´ıme, ˇze S2 ∼
σ2 χ2 , n−1 (n−1)
coˇz lze snadno pˇrev´est do tvaru
S 2 (n−1) σ2
∼ χ2(n−1) . Jelikoˇz rozdˇelen´ı χ2
dobˇre zn´ame a hodnoty jeho kvantil˚ u najdeme ve statistick´ ych tabulk´ach, m˚ uˇzeme v´ yraz S 2 (n−1) σ2
povaˇzovat za naˇsi hledanou statistiku. Odvozen´ı intervalov´eho odhadu provedene
n´asledovnˇe: S 2 (n − 1) 2 2 ≤ χ(n−1),1− α ≥ 1 − α P χ(n−1), α ≤ 2 2 σ2 χ2 χ2(n−1),1− α 1 (n−1), α 2 2 ≤ 2 ≤ 2 P ≥1−α S 2 (n − 1) σ S (n − 1) Pˇrevr´at´ıme ˇcitatele a jmenovatele vˇsech tˇr´ı ˇca´st´ı nerovnice. S 2 (n − 1) S 2 (n − 1) 2 P ≥ σ ≥ χ2(n−1), α χ2(n−1),1− α
2
≥1−α
2
Jelikoˇz se v pˇredchoz´ım kroku obr´atila znam´enka nerovnosti, pˇrepiˇseme jednotliv´e ˇca´sti nerovnice v opaˇcn´em poˇrad´ı, a z´ısk´ame tak statistiky D a H. S 2 (n − 1) S 2 (n − 1) 2 P ≤ σ ≤ χ2(n−1),1− α χ2(n−1), α
2
≥1−α
2
Interval spolehlivosti pro rozptyl tedy m˚ uˇzeme zapsat jako
Iσ2 ,1−α =
! S 2 (n − 1) S 2 (n − 1) , . χ2(n−1),1− α χ2(n−1), α 2
83
2
Chceme-li z´ıskat interval spolehlivosti pro smˇerodatnou odchylku, hodnoty obou mez´ı bychom jednoduˇse odmocnili. Tedy s Iσ,1−α =
S 2 (n
− 1)
χ2(n−1),1− α 2
s ,
S 2 (n
− 1)
χ2(n−1), α 2
! .
Narozd´ıl od konfidenˇcn´ıch interval˚ u pro stˇredn´ı hodnoty, nebudou intervalov´e odhady rozptylu a smˇerodatn´e odchylky symetrick´e. To vypl´ yv´a z faktu, ˇze rozdˇelen´ı χ2 je asymetrick´e a budeme tedy muset pˇri konstrukci interval˚ u hledat zvl´aˇst’ kvantil pro horn´ı a doln´ı mez. Intervaly spolehlivosti m˚ uˇzeme samozˇrejmˇe stanovit pro libovoln´e dalˇs´ı odhady. Nˇekolik z nich v t´eto kapitole uvedeme. Budeme se jim vˇsak vˇenovat jen struˇcnˇe a bez vysvˇetlen´ı, jelikoˇz jejich konstrukce ve vˇetˇsinˇe pˇr´ıpad˚ u vych´az´ı z u ´vah, kter´e si zaslouˇz´ı detailn´ı odvozen´ı; ta vˇsak ˇcten´aˇri poskytneme aˇz v kapitol´ach o testech statistick´ ych hypot´ez. 4.3.3
*Interval spolehlivosti pro rozd´ıl stˇ redn´ıch hodnot*
V psychologick´em v´ yzkumu ˇcasto nepracujeme s jedinou skupinou, ale v mnoha pˇr´ıpadech srovn´av´ame pr˚ umˇery (respektive stˇredn´ı hodnoty distribuˇcn´ıch funkc´ı) dvou skupin. Mohli bychom napˇr´ıklad zkoumat, jestli je m´ıra obt´ıˇz´ı klient˚ u v experiment´aln´ı skupinˇe, na kterou jsme uplatili nˇejakou novou psychoterapeutickou techniku, niˇzˇs´ı ve srovn´an´ı s kontroln´ı skupinou, kde jsme tuto techniku neuplatnili. Budeme-li hodnoty namˇeˇren´e v experiment´aln´ı skupinˇe oznaˇcovat (X1 , X2 , . . . Xn ) a hodnoty namˇeˇren´e v kontroln´ı skupinˇe (Y1 , Y2 , . . . Ym ), pak se vlastnˇe snaˇz´ıme odhadnout ¯ − Y¯ . Podrobnˇeji se t´ımto probl´emem budeme zab´ stˇredn´ı hodnotu n´ahodn´e veliˇciny X yvat v kapitole (5.4.2) pˇri testov´an´ı statistick´ ych hypot´ez. Bez vysvˇetlen´ı ted’ jen uved’me, za pˇredpokladu X ∼ N (µ1 , σ 2 ) a Y ∼ N (µ2 , σ 2 ) konfidenˇcn´ı interval pro stˇredn´ı hodnotu ¯ − Y¯ , tedy pro µ1 − µ2 , stanov´ıme jako veliˇciny X r ¯ − Y¯ ) ± t(n+m−2),1− α · S∗ I1−α = (X 2
1 1 + n m
Symbolem S∗ oznaˇcujeme spoleˇcnou smˇerodatnou odchylku, kterou z´ısk´ame ze vztahu s S∗ =
2 (n − 1)SX + (m − 1)SY2 n+m−2
2 kde SX a SY2 jsou v´ ybˇerov´e rozptyly a n, m rozsahy jednotliv´ ych soubor˚ u.
84
Vˇsimnˇeme si, ˇze jsme pˇredpokl´adali, ˇze rozptyl veliˇciny X i veliˇciny Y je roven nˇejak´e hodnotˇe σ 2 , a tedy je pro obˇe skupiny stejn´ y (aˇc n´am nezn´am´ y). Pokud bychom ovˇsem toto pˇredpokl´adat nemohli a obˇecnˇe bychom mohli ˇr´ıct pouze X ∼ N (µ1 , σ12 ) a Y ∼ N (µ2 , σ22 ), kde se hodnoty σ12 a σ22 nutnˇe nemus´ı rovnat, pak bychom v´ yˇse uveden´ y postup museli zmˇenit. V pˇr´ıpadˇe nestejn´ ych rozptyl˚ u dok´aˇzeme zkonstruovat pouze pˇribliˇzn´ y konfidenˇcn´ı interval pomoc´ı vzorce r ¯ − Y¯ ) ± t(ν),1− α · I1−α = (X 2
2 SX S2 + Y, n m
kde poˇcet stupˇ n˚ u volnosti ν (coˇz ponˇekud pˇrekvapivˇe nemus´ı b´ yt cel´e ˇc´ıslo) z´ısk´ame ze vztahu ν=
4.3.4
2
2 SX n
+
SY2 m
4 SX n2 (n−1)
+
SY4 m2 (m−1)
.
*Interval spolehlivosti pro relativn´ı ˇ cetnost*
Sledujeme-li alternativn´ı znak, tedy pˇr´ıtomnost ˇci nepˇr´ıtomnost urˇcit´e vlastnosti, frekvenci jeho v´ yskytu ˇcasto popisujeme pomoc´ı relativn´ı ˇcetnosti (viz kapitola 3.2). Relativn´ı ˇcetnost nen´ı niˇc´ım jin´ ym neˇz odhadem parametru p. Spr´avnˇe bychom mˇeli odliˇsovat parametr p a jeho odhad, tedy relativn´ı ˇcetnost, kterou jsme znaˇcili taky p. Aby nedoˇslo k z´amˇenˇe, oznaˇc´ıme ted’ odhad relativn´ı ˇcetnosti pˆ. Ostatnˇe symbol stˇr´ıˇsky se bˇeˇznˇe pouˇz´ıv´a k oznaˇcen´ı odhadu. Z minula v´ıme, ˇze parametr p alternativnˇe rozdˇelen´e n´ahodn´e veliˇciny je roven jej´ı stˇredn´ı hodnotˇe, a tedy je jeho odhad vlastnˇe jen speci´aln´ım pˇr´ıpadem odhadu stˇredn´ı hodnoty jedn´e n´ahodn´e veliˇciny pˇri nezn´am´em rozptylu. P˚ uvodn´ı vzorec, kter´ y jsme odvodili v kapitole (4.3.1), a kter´ y vyuˇz´ıv´a Studentovo t-rozdˇelen´ı, by vˇsak nebyl nejvhodnˇejˇs´ı volbou. Jeho slabina spoˇc´ıv´a v tom, ˇze je postaven´ y na dvou nez´avisl´ ych ¯ a S 2 ). Alternativn´ı rozdˇelen´ı m´a vˇsak jedin´ odhadech (X y parametr, kter´ y kdyˇz zn´ame, tak n´am je zn´am´a jak stˇredn´ı hodnota, tak rozptyl. Vyuˇz´ıv´ame proto asymptotick´eho vztahu ¯ −p X q ∼ N (0, 1). p(1−p) n
Slovo asymptotick´ y znamen´a, ˇze rovnost nen´ı zcela pˇresn´a, nicm´enˇe s rostouc´ım n se moˇzn´a chyba sniˇzuje, teoreticky aˇz k nulov´e hodnotˇe. Pro mal´a n tato metoda tedy nen´ı vhodn´a a pˇresnˇejˇs´ı by bylo stanovit interval spolehlivosti pˇresnˇe z binomick´eho rozdˇelen´ı, ˇcemuˇz se v tomto textu nebudeme vˇenovat. Jedno orientaˇcn´ı pravidlo, jak poznat dostateˇcnˇe velk´ y rozsah souboru, ˇr´ık´a, ˇze mus´ı platit nerovnost np(1 − p) > 9 a z´aroveˇ n 85
1 n+1
< p <
n . n+1
Jsme-li pˇresvˇedˇcen´ı, ˇze tyto podm´ınky jsou splnˇeny, m˚ uˇzeme stanovit
konfidenˇcn´ı interval ve tvaru r pˆ ± Φ1− α2
pˆ(1 − pˆ) . n
Chybu, kter´e se dopouˇst´ıme, m˚ uˇzeme nepatrnˇe zmenˇsit korekc´ı, kdy od spodn´ı meze odeˇcteme hodnotu 4.3.5
0.5 n
a k horn´ı mezi tut´eˇz hodnotu pˇriˇcteme17 .
*Interval spolehlivosti pro Pearson˚ uv korelaˇ cn´ı koeficient*
V kapitole (4.2.3) jsme hovoˇrili o tom, ˇze Pearson˚ uv korelaˇcn´ı koeficient nen´ı nestrann´ ym odhadem skuteˇcn´e hodnoty korelaˇcn´ıho koeficientu ρ a ani nem´a ˇza´dnou dobˇre zn´amou distribuˇcn´ı funkci. Stanovit pro nˇej konfidenˇcn´ı interval by nicm´enˇe bylo velmi uˇziteˇcn´e – odhadov´an´ı tˇesnosti vztah˚ u mezi dvˇema veliˇcinami je ve statistice u ´stˇredn´ı t´ema. Pom´ah´ame si proto takzvanou Fisherovou transformac´ı, pomoc´ı kter´e m˚ uˇzeme Pearson˚ uv korelaˇcn´ı koeficient R pˇrev´est na veliˇcinu Z, kter´a m´a asymptoticky norm´aln´ı rozdˇelen´ı: ! 1 1 + R 1 1 + ρ 1 Z = ln ∼N ln , , 2 1−R 2 1−ρ n−3 kde ρ je skuteˇcn´a velikost odhadovan´eho korelaˇcn´ıho koeficientu. Pro veliˇcinu Z pak stanov´ıme konfidenˇcn´ı interval jako 1 1 + R 1 IZ,1−α = ln ± Φ1− α2 √ = (DZ , HZ ). 2 1−R n−3 Nalezen´e meze pak pˇrevedem zpˇet na hodnoty Pearsonova korelaˇcn´ıho koeficientu t´ım, ˇze na nˇe uplatn´ıme Fisherovu transformaci pozp´atku (inverznˇe): exp 2DZ − 1 D= , exp 2DZ + 1
exp 2HZ − 1 H= , exp 2HZ + 1
kde se funkc´ı exp rozum´ı umocnˇen´ı ˇc´ısla e na dan´ y argument. Zd˚ uraznˇemˇe, ˇze pomocn´a veliˇcina Z m´a pouze asymptoticky norm´aln´ı rozdˇelen´ı; ˇc´ım se hodnota hledan´eho parametru ρ bl´ıˇz´ı k jedniˇcce (nebo m´ınus jedniˇcce), t´ım je potˇreba v´ıce mˇeˇren´ı, aby byla dodrˇzena stanoven´a spolehlivost. Nalezen´ y interval je jinak o nˇeco ˇsirˇs´ı, a nedpov´ıd´a tak poˇzadovan´ ym napˇr´ıklad 95% spolehlivosti, ale tˇreba 98%. 17
Tuto korekci najdeme v literatuˇre pod n´azvem korekce na spojitost (continuity correction) a slouˇz´ı k redukci chyby, kter´ a vznikla z toho, ˇze jsme disktr´etn´ı binomick´e rozdˇelen´ı nahradili spojit´ ym norm´an´ım rozdˇelen´ım.
86
4.4
Metafora populace a v´ ybˇ er“ ”
Pokud jste pˇri studiu pˇredchoz´ıch kapitol tˇechto skript s´ahli po jin´ ych textech, kter´e se pokouˇs´ı student˚ um aplikovan´ ych discipl´ın vysvˇetlit t´ema statistick´ ych odhad˚ u, zˇrejmˇe jste narazili na ponˇekud odliˇsn´e vysvˇetlen´ı. Pravdˇepodobnˇe jste naˇsli pov´ıd´an´ı o populaci a v´ ybˇeru. Na tuto odliˇsnost jsme upozorˇ novali jiˇz v u ´vodu tˇechto skript. Ted’ je na ˇradˇe zasvˇetit ˇcten´aˇre do t´eto problematiky hloubˇeji. Pˇredevˇs´ım z toho d˚ uvodu, aby rozumˇel bˇeˇznˇe dostupn´ ym text˚ um o statistice urˇcen´ ym psycholog˚ um a dalˇs´ım obor˚ um, a d´ale proto, aby si uvˇedomoval, proˇc je pov´ıd´an´ı o populaci a v´ ybˇeru pouhou metaforou, kter´a vˇsak nˇekdy m˚ uˇze b´ yt uˇziteˇcn´a. Pˇredstavme si, ˇze si zkoum´ame Cotard˚ uv syndrom. Jedn´a se o velmi vz´acnou poruchu myˇslen´ı, kdy je postiˇzen´ y pˇresvˇedˇcen, ˇze je mrtv´ y (nebo konkr´etnˇeji, ˇze mu sch´az´ı vnitˇrn´ı org´any, nem´a krev v ˇzil´ach, mozek atd.) Dejme tomu, ˇze se domn´ıv´ame, ˇze toto onemocnˇen´ı je zp˚ usobeno u ´bytkem ˇsed´e hmoty mozkov´e ve specifick´e oblasti sp´ankov´eho laloku. Pokus´ıme se proto sehnat nˇekolik pacient˚ u, u kter´ ych se tato porucha projevuje, a pomoc´ı zobrazovac´ıch technik mnoˇzstv´ı ˇsed´e k˚ ury mozkov´e zjist´ıme. Pˇreloˇz´ıme-li probl´em do statistick´eho jazyka, tak jak jsme se to uˇcili, znˇel by n´asledovnˇe: • Zkoum´ame spojitou n´ahodnou veliˇcinu mohutnost dan´e oblasti mozku u pacient˚ u s Cotardov´ym syndromem. Ta m´a nˇejak´e (n´am nezn´am´e) rozdˇelen´ı pravdˇepodobnosti s nˇejakou stˇredn´ı hodnotou µ. Tu se pokus´ıme odhadnout. V´ ysledky mˇeˇren´ı u pacient˚ u, kter´e jsme do v´ yzkumu z´ıskali, pˇredstavuj´ı jednotliv´e realizace t´eto n´ahodn´e veliˇciny. Na jejich z´akladˇe stanov´ıme odhad stˇredn´ı hodnoty t´eto n´ahodn´e veliˇciny. Pouˇzijeme k tomu aritmetick´ y pr˚ umˇer, kter´ y je nejlepˇs´ım estim´atorem t´eto ˇc´ıseln´e charakteristiky. Pokud bychom tento u ´kol naˇsli popsan´ y ve vˇetˇsinˇe ostatn´ıch uˇcebn´ıch text˚ u urˇcen´ ych psycholog˚ um, zˇrejmˇe by jeho popis znˇel takto. • Existuje nˇejak´a populace pacient˚ u trp´ıc´ım Cotardov´ ym syndromem. (Z nˇejak´ ych ˇ bl´ıˇze neupˇresnˇen´ ych d˚ uvod˚ u budeme pracovat jen s pacienty, kteˇr´ı jsou obyvatel´e CR – pˇr´ıklad to troˇsku zjednoduˇs´ı.) Jelikoˇz je Cotard˚ uv syndrom velmi vz´acn´ y, tak tahle populace m´a mal´ y rozsah, tˇreba 30 jedinc˚ u (budeme jej znaˇcit N = 30.) Klademe si ot´azku, ˇcemu by se rovnal aritmetick´ y pr˚ umˇer mohutnosti dan´e oblasti mozku, pokud bychom jej vypoˇc´ıtali na u ´daj´ıch od vˇsech N existuj´ıc´ıch pacient˚ u. Jelikoˇz je tato populace pˇr´ıliˇs velk´a (a bylo by drah´e nebo nere´aln´e ji celou prozkoumat) vytvoˇr´ıme v´ ybˇer o n pozorov´an´ıch (jednoduˇse vylosujeme n pacient˚ u) a pr˚ umˇernou
87
hodnotu vypoˇc´ıt´ame na nich. Pak budeme tvrdit, ˇze n´aˇs v´ ybˇerov´ y pr˚ umˇer spoˇc´ıtan´ y na n pozorov´an´ıch je odhadem populaˇcn´ıho pr˚ umˇeru vˇsech N existuj´ıc´ıch prvk˚ u. Je zjevn´e, ˇze toto vysvˇetlen´ı d´av´a smysl, a co v´ıc, v˚ ubec nevyˇzaduje znalost koncept˚ u, jako je n´ahodn´a veliˇcina, rozdˇelen´ı pravdˇepodobnosti nebo distribuˇcn´ı funkce. Mohli jsme si uˇsetˇrit des´ıtky stran pr´ace a moˇzn´a i ˇradu bezesn´ ych noc´ı, kdybychom ˇsli touto cestou, tak proˇc jsme si vybrali tu tˇeˇzˇs´ı? Metafora populace a v´ ybˇer“ m´a hned nˇekolik nedostatk˚ u, kter´e n´am v bˇeˇzn´em hovoru ” o statistice nevad´ı, ale zabr´anily by n´am dos´ahnout hlubˇs´ıho pozn´an´ı. Napˇr´ıklad, co kdyˇz nechceme zobecnit n´aˇs v´ ysledek jen na tˇech 30 pacient˚ u, kteˇr´ı jsou k dneˇsku evidovan´ı, ale chceme je vzt´ahnout, i na pacienty, kteˇr´ı se objev´ı v budoucnu. Co je pak populac´ı a ˇcemu se rovn´a N ? Zjevnˇe bychom pak hovoˇrili o populaci s nekoneˇcn´ ym rozsahem a naˇse moˇznost z n´ı f´erovˇe vylosovat n pacient˚ u by troˇsku kulhala. Pokud z˚ ustaneme u koneˇcn´eho rozsahu populace, jak bychom mohli stanovit tˇreba konfidenˇcn´ı interval? Tˇeˇzko bychom zd˚ uvodnili, kde se vzalo Studentovo t-rozdˇelen´ı, kter´e k v´ ypoˇctu pouˇz´ıv´ame, kdyˇz se nebav´ıme o spojit´e n´ahodn´e veliˇcinˇe, ale o N diskr´etn´ıch hodnot´ach, z nichˇz losujeme. N´aˇs u ´kol by se zˇrejmˇe zvrhl v hodnˇe nehezk´ y kombinatorick´ y pˇr´ıklad.18 Ten nejvˇetˇs´ı probl´em vypl´ yv´a z posledn´ıho uveden´eho. Pokud bychom ˇsli cestou metafory populace a v´ ybˇeru“, prakticky vˇsechny statistick´e postupy bychom museli nekriticky ” pˇrijmout jako nedotknuteln´e ritu´aly a opakovat je ve slep´e v´ıˇre, ˇze funguj´ı. Ale tˇreba co to je kvantil Studentova t-rozdˇelen´ı a kde se vzal, by n´am z˚ ustalo navˇzdy utajeno. Ponechme si tedy znalost t´eto metafory pro hovory o statistice s lidmi, kteˇr´ı v t´eto oblasti maj´ı jen mˇelk´e znalosti. My v tomto textu budeme skuteˇcnost popisovat pomoc´ı n´ahodn´ ych veliˇcin tak, jak jsme to dˇelali doposud.
18
S metaforou populace a v´ ybˇer souvis´ı pojmenov´an´ı populaˇcn´ı a v´ ybˇerov´ y rozptyl. Standardn´ı 1 vysvˇetlen´ı tˇechto pojm˚ u je takov´e, ˇze v´ ybˇerov´ y rozptyl (vzorec s n−1 ) bychom poˇc´ıtali, pokud m´ame k dispozici jen n prvk˚ u vybran´ ych z vˇetˇs´ı populace. Pokud bychom vˇsak mˇeli k dispozici vˇsech N prvk˚ u (tedy n = N ), pak bychom pouˇzili populaˇcn´ı rozptyl (vzorec s n1 ). Ve skuteˇcnosti se vˇsak t´ımto zp˚ usobem populaˇcn´ı rozptyl nepouˇz´ıv´ a. Probl´emem populace s koneˇcn´ ym rozsahem se zab´ yv´a obor s n´azvem v´ybˇerov´ a ˇsetˇren´ı. Nen´ı-li rozsah populace nekoneˇcn´ y, zaj´ımav´ ym zp˚ usobem by se mˇenilP rozptyl odhadu pr˚ umˇeru v populaci. Uv´adˇeli n 1 ¯ 2 ybˇer jsme, ˇze odhad rozptylu pr˚ umˇeru je n1 S 2 , kde S 2 = n−1 i=1 (Xi − X) . Pokud bychom provedli v´ bez vracen´ı (tedy vylosovali n r˚ uzn´ ych prvk˚ u z populace o rozsahu N ), pˇresnˇejˇs´ıho odhadu bychom 2 dos´ ahli pomoc´ı vztahu NN−n aˇs p˚ uvodn´ı vzorec by platil pouze tehdy, kdyˇz by ˇslo o v´ ybˇer s vracen´ım n S . N´ (libovoln´ y prvek m˚ uˇzeme vylosovat v´ıcekr´ at).
88
5
Testov´ an´ı statistick´ ych hypot´ ez
Tato kapitola pˇredstavuje vyvrcholen´ı z´akladn´ıho kurzu statistiky. Vedle popisu reality ˇc´ısly, kter´emu jsme se vˇenovali v kapitole o popisn´e statistice, nejˇcastˇejˇs´ı zak´azkou, se kterou se statistik v psychologick´em v´ yzkumu setk´a, je ovˇeˇrit platnost urˇcit´e hypot´ezy. Tuto dovednost si ˇcten´aˇr spolu s nˇekolika dalˇs´ımi dovednostmi osvoj´ı na n´asleduj´ıc´ıch str´ank´ach. Bude schopen naj´ıt vhodn´ y test pro ovˇeˇren´ı hypot´ezy o vztahu dvojice statistick´ ych znak˚ u libovoln´e povahy, bude umˇet pracovat s p´arov´ ymi mˇeˇren´ımi a dok´aˇze srovnat namˇeˇren´e hodnoty se zadanou konstantou. Kromˇe samotn´eho otestov´an´ı statistick´e v´ yznamnosti se nauˇc´ı pracovat i s v´ yznamnost´ı praktickou a z´ısk´a tak´e z´akladn´ı dovednosti z oblasti anal´ yzy s´ıly testu.
5.1
Datov´ a matice a typy promˇ enn´ ych
Dˇr´ıve neˇz pˇrikroˇc´ıme k pov´ıd´an´ı o statistick´ ych testech, kter´e m˚ uˇzeme na namˇeˇren´e hodnoty aplikovat, mˇeli bychom si ujasnit, jak´ y form´at sv´ ym dat˚ um d´ame a jak´ ym zp˚ usobem s nimi budeme manipulovat. V pˇrechoz´ıch kapitol´ach jsme zavedli term´ın statistick´ y soubor, kter´ y je obvykle tvoˇren skupinou u ´ˇcastn´ık˚ u v´ yzkumu, na kter´ ych pozorujeme nˇejak´e statistick´e znaky. Na kaˇzd´em prvku statistick´eho souboru (na kaˇzd´em jedinci) m˚ uˇzeme pozorovat nespoˇcet r˚ uzn´ ych statistick´ ych znak˚ u. Namˇeˇren´e hodnoty pak nejˇcastˇeji zapisujeme do tabulky, v n´ıˇz kaˇzd´e testov´e osobˇe vyhrad´ıme jeden ˇra´dek a kaˇzd´emu sledovan´emu statistick´emu znaku jeden sloupec. Tabulka (4) je uk´azkou takov´eho datov´eho form´atu. Pˇripomeˇ nme, ˇze statistick´ ymi jednotkami nemus´ı b´ yt nutnˇe lid´e; v psychologick´em v´ yzkumu tomu tak ale v drtiv´e vˇetˇsinˇe pˇr´ıpad˚ u je. Statistik by takto vytvoˇrenou tabulku oznaˇcil term´ınem datov´a matice, ˇcasto j´ı vˇsak jednoduˇse ˇr´ık´ame datov´a tabulka. Z oznaˇcen´ı matice (pˇresnˇeji ˇc´ıseln´a matice) vypl´ yv´a jeden fakt, a to, ˇze hodnoty vˇsech statistick´ ych znak˚ u jsou ˇc´ısla, i kdyby ˇslo o znaky kvalitativn´ı povahy (vzpomeˇ nte na pov´ıd´an´ı o n´ahodn´ ych veliˇcin´ach, kter´e pˇrev´ad´ı libovoln´e kousky reality na ˇc´ıseln´e hodnoty). V praxi n´am nevad´ı, kdyˇz v tabulce nech´ame slovn´ı Tabulka 4: Datov´a tabulka Jm´eno Kuba Jan Daniel Lenka Barbora
Pohlav´ı Vˇek muˇz muˇz muˇz ˇzena ˇzena
23 15 22 25 21
Neuroticismus
Extraverze
Pˇr´ıvˇetivost
Svˇedomitost
42 56 52 44 53
34 57 36 58 51
50 37 55 52 45
42 65 61 53 58
89
oznaˇcen´ı, kter´e se konec konc˚ u l´epe ˇcte, a nebudeme je nahrazovat ˇc´ısly – statistick´ y software obvykle toto nahrazen´ı skrytˇe provede s´am bˇehem v´ ypoˇctu. Pro jednoduchost budeme libovoln´ y sloupeˇcek t´eto datov´e matice oznaˇcovat slovem promˇ enn´ a. Promˇenn´a je tedy obvykle tot´eˇz, co statistick´ y znak, respektive nˇejak´a mnoˇzina realizac´ı n´ahodn´e veliˇciny. Abychom vˇsak nezabˇred´avali spekulac´ım nad t´ım, jestli je tˇreba promˇenn´a pohlav´ı n´ahodnou veliˇcinou, kdyˇz jsme n´aˇs soubor vytvoˇrili slouˇcen´ım souboru deseti muˇz˚ u a souboru deseti ˇzen, z˚ ustaneme u univerz´aln´ıho oznaˇcen´ı promˇenn´a. Obecnˇe m˚ uˇzeme rozliˇsovat nˇekolik typ˚ u promˇenn´ ych: • Konstanta – pokud v datov´e matici existuje sloupeˇcek, kter´ y na vˇsech ˇra´dc´ıch obsahuje pˇresnˇe stejnou hodnotu, oznaˇcujeme jej pojmem konstanta. Striktnˇe vzato se ani nejedn´a o promˇennou, jelikoˇz se zde nic nemˇen´ı. Ponˇekud benevolentnˇe budeme ale pˇredpokl´adat, ˇze promˇenn´a m˚ uˇze m´ıt i tuto formu. • Alternativn´ı promˇenn´a (t´eˇz dichotomick´a, nula-jedniˇckov´a) – jedn´a se o promˇennou, kter´a nab´ yv´a pouze dvou hodnot. Tradiˇcnˇe je znaˇc´ıme ˇc´ısly 0 a 1, jak jsme zvykl´ı z kapitoly o alternativn´ım rozdˇelen´ı, ale jsou pˇr´ıpustn´e i jin´e moˇznosti. Pˇr´ıkladem m˚ uˇze b´ yt muˇz-ˇzena, prav´ak-lev´ak, profesion´al-amat´er, ˇclen kontroln´ı skupiny-ˇclen experiment´aln´ı skupiny. • Nomin´aln´ı promˇenn´a – pro kaˇzd´e dva prvky m˚ uˇzeme s jistotou ˇr´ıct, jestli si jejich hodnoty jsou nebo nejsou rovny, ale uˇz nedok´aˇzeme ˇr´ıct, jestli je hodnota jednoho vyˇsˇs´ı nebo niˇzˇs´ı neˇz hodnota druh´eho. Nab´ yv´a v´ıce neˇz dvou hodnot, jinak bychom o n´ı hovoˇrili jako o alternativn´ı promˇenn´e. Pˇr´ıkladem je studijn´ı obor, druh l´eˇcby, nebo tˇreba n´arodnost. • Ordin´aln´ı promˇenn´a – pro kaˇzd´e dva prvky m˚ uˇzeme s jistotou ˇr´ıct, jestli si jsou rovny nebo jestli m´a jeden vyˇsˇs´ı hodnotu neˇz druh´ y. Pˇr´ıkladem m˚ uˇze b´ yt tˇreba vojensk´a hodnost. V´ıme, ˇze major je zjevnˇe v´ıc neˇz plukovn´ık, ale nem˚ uˇzeme v´est ˇza´dn´e u ´vahy o tom, jak velk´ y je rozd´ıl mezi majorem a plukovn´ıkem a srovn´avat ho tˇreba s rozd´ılem mezi kapit´anem a poruˇc´ıkem. • Metrick´a promˇenn´a (t´eˇz kvantitativn´ı) – pro kaˇzd´e dva prvky dok´aˇzeme rozhodnout, jestli m´a jeden vyˇsˇs´ı, niˇzˇs´ı nebo stejnou hodnotu jako druh´ y, a nav´ıc dok´aˇzeme stejn´e srovn´an´ı prov´est mezi rozd´ıly hodnot libovoln´ ych dvou prvk˚ u. Napˇr´ıklad m˚ uˇzeme ˇr´ıct, ˇze Honza je vyˇsˇs´ı neˇz Anna o 10 cm, zat´ımco Lucka je vyˇsˇs´ı neˇz Petr o 2 cm, a tedy ˇze rozd´ıl vzr˚ ustu mezi Honzou a Annou je vˇetˇs´ı neˇz rozd´ıl mezi Luckou a Petrem. ˇ aˇri zˇrejmˇe nemohla uniknout podobnost u Cten´ ´rovn´ı mˇeˇren´ı definovan´ ych Stanleym Stevensem: nomin´aln´ı, ordin´aln´ı, intervalov´a a pomˇerov´a. Tato podobnost nen´ı n´ahodn´a,
90
pro u ´ˇcely statistiky vˇsak nepotˇrebujeme rozliˇsovat mezi posledn´ımi dvˇema u ´rovnˇemi19 a naopak jsme z nomin´aln´ıch promˇenn´ ych vydˇelili alternativn´ı.
5.2
Logika testov´ an´ı statistick´ ych hypot´ ez
Pˇredstavte si, ˇze um´ıte pˇredpov´ıdat budoucnost. Jednoduˇse soustˇred´ıte svou mysl a z niˇceho nic v´ıte, jak´e bude z´ıtra poˇcas´ı, na co se v´as uˇcitel zept´a u zkouˇsky nebo jak´a ˇc´ısla budou taˇzena ve Sportce. D´a se ˇcekat, ˇze kdyˇz se touhle schopnost´ı nˇekomu pochlub´ıte, nebude v´am vˇeˇrit. Ot´azka zn´ı, jak byste dok´azali druh´ ym lidem nebo i sami sobˇe, ˇze skuteˇcnˇe tuto schopnost m´ate a dok´aˇzete s velkou m´ırou jistoty zjistit, co se stane. Odpovˇed’ zˇrejmˇe napadne kaˇzd´eho – zkus´ıte pˇredpovˇedˇet nˇejakou ud´alost a aˇz k n´ı skuteˇcnˇe dojde, tak v´ıtˇezoslavnˇe prohl´as´ıte: J´a jsem to ˇr´ıkal! “. Tento postup by s´am o ” sobˇe asi nestaˇcil, abychom nˇekoho skuteˇcnˇe pˇresvˇedˇcili. Napˇr´ıklad tehdy, pokud bychom naˇsi pˇredpovˇed’ formulovali jen v´agnˇe a nejasnˇe, naˇse d˚ uvˇeryhodnost by utrpˇela ve chv´ıli, kdyˇz bychom kaˇzd´emu vysvˇetlovali, ˇze jsme to opravdu mysleli zrovna takhle. Nikoho bychom nepˇresvˇedˇcili ani tehdy, pokud bychom pˇredpovˇed´ı nar´az uˇcinili des´ıtky, a pak se hl´asili jen k tˇem, co n´am vyˇsly. Aby n´aˇs postup byl tedy co nejpˇresvˇedˇcivˇejˇs´ı a naˇsi schopnost pˇredpov´ıdat budoucnost nemohl nikdo zpochybnit, jednoznaˇcnˇe a pˇresnˇe formulujeme, co se dle naˇs´ı pˇredpovˇedi m´a st´at. Situaci nech´ame probˇehnout a srovn´ame s naˇs´ı pˇredpovˇed´ı. Asi ˇcten´aˇre napad´a, ˇze ani tento postup n´am s´am o sobˇe nezaruˇc´ı to, ˇze n´am druz´ı lid´e uvˇeˇr´ı. Vynechali jsme totiˇz jeden kl´ıˇcov´ y fakt. Pokud napˇr´ıklad m´a pˇredpovˇed’ bude zn´ıt Prvn´ıho dubna pˇr´ıˇst´ıho roku bude v Olomouci prˇset“, tak n´as asi nikdo nebude m´ıt ” za jasnovidce, i kdyˇz v dan´ y den zmokne. Jednoduˇse kv˚ uli tomu, ˇze jsme pˇredpov´ıdali nˇeco velmi pravdˇepodobn´eho. V´aha pˇredpovˇedi stoup´a s t´ım, jak moc nepravdˇepodobn´a ud´alost nastala. Prohl´as´ım-li tedy, ˇze pˇr´ıˇst´ı loterijn´ı tiket, na kter´ y si vsad´ım, vyhraje, tak m´a schopnost jasnovidectv´ı se bude jevit mnohem vˇerohodnˇeji, kdyˇz pak vyhraji hlavn´ı v´ yhru (tedy se stane nˇeco krajnˇe nepravdˇepodobn´eho), neˇz kdyˇz sice vyhraji, ale jen p´ar desetikorun, kter´e mi stˇeˇz´ı zaplat´ı cenu tiketu (coˇz je vcelku pravdˇepodobn´e). Aˇc jsme mluvili o jasnovidectv´ı, ve skuteˇcnosti jsme popsali postup, jak´ ym pracuj´ı vˇedci. Vˇedci de facto tak´e pˇredpov´ıdaj´ı budoucnost, nedˇelaj´ı to ale pomoc´ı ˇcajov´ ych l´ıstk˚ u nebo kˇriˇst’a´lov´e koule. Vˇedci se pokouˇs´ı popsat svˇet pomoc´ı teori´ı. Hledaj´ı takov´e teorie, kter´e by jim umoˇznily dˇelat co nejpˇresnˇejˇs´ı pˇredpovˇedi.20 Tˇemto pˇredpovˇed´ım budeme ˇr´ıkat hypot´ ezy. Zkoum´ate-li tedy tˇreba dynamiku ve ˇskoln´ıch kolektivech a na z´akladˇe 19 Jedinou v´ yjimkou z tohoto tvrzen´ı je variaˇcn´ı koeficient. Ten m´a smyl poˇc´ıtat pouze u promˇenn´ ych na pomˇerov´e u ´rovni; v jin´ ych pˇr´ıpadech ztr´ac´ı smysl. 20 Mimochodem, vˇsimnˇete si, ˇze ani netvrd´ıme, ˇze vˇedec hled´a pravdivou teorii. To je ide´al, kter´ y povaˇzujeme za nedosaˇziteln´ y, at’ uˇz v psychologii nebo tˇreba fyzice. Skuteˇcnˇe jde jen o to se k pravdˇe pˇribl´ıˇzit co nejtˇesnˇeji, abychom dos´ ahli co nejpˇresnˇejˇs´ıch pˇredpovˇed´ı.
91
sv´e teorie vytvoˇr´ıte preventivn´ı program proti ˇsikanˇe, pak vaˇse hypot´eza bude zn´ıt tˇreba: Ve tˇr´ıd´ach, ve kter´ych je uplatnˇen preventivn´ı program, se ˇsikana vyskytuje m´enˇe ˇcasto ” neˇz v tˇech tˇr´ıd´ach, kde tento program uplatnˇen nen´ı“. Pokud naˇse teorie popisuje rys narcismu v r´amci osobnostn´ı struktury, mohla by naˇse hypot´eza zn´ıt Existuje pozitivn´ı ” korelace mezi poˇctem bod˚ u, kter´e jedinec z´ısk´a v inteligenˇcn´ım testu a poˇctem bod˚ u, kter´e z´ısk´a v dotazn´ıku neklinick´eho narcismu“. Potom, stejnˇe jako v pˇr´ıpadˇe jasnovidectv´ı, nech´ape situaci probˇehnout a zjist´ıme, do jak´e m´ıry odpov´ıd´a to, co se stalo, naˇs´ı hypot´eze. Ona nevinn´a sl˚ uvka nech´ame ” probˇehnout“ obvykle znamenaj´ı, ˇze provedeme n´akladn´ y experiment nebo jin´ y v´ yzkumn´ y design, pˇriˇcemˇz budeme peˇclivˇe dodrˇzovat nespoˇcet pravidel, abychom minimalizovali vˇsechna moˇzn´a zkreslen´ı. Tomuto t´ematu se vˇenuje cel´ y vˇedn´ı obor jm´enem metodologie. V tomto textu mu ale prostor vˇenovat nebudeme. Stejnˇe jako v naˇsem pˇr´ıkladu s jasnovidectv´ım i zde plat´ı to, ˇze ˇc´ım nepravdˇepodobnˇejˇs´ı v´ ysledek, kter´ y je v souladu s naˇs´ı hypot´ezou, nastane, t´ım pˇresvˇedˇcivˇejˇs´ı doklad o platnosti naˇs´ı teorie jsme naˇsli. A pr´avˇe k tomu pouˇz´ıv´ame statistiku. Pomoc´ı znalost´ı, kter´e jsme z´ıskali v pˇredeˇsl´ ych kapitol´ach, budeme stanovovat pravdˇepodobnost, s jakou m˚ uˇze urˇcit´ y v´ ysledek nastat, a na z´akladˇe toho posuzovat, jak silnou oporu v namˇeˇren´ ych datech naˇse hypot´eza (respektive teorie, z n´ıˇz vych´az´ı) m´a. 5.2.1
Statistick´ y test
Proces posouzen´ı platnosti hypot´ezy, kter´ y v t´eto kapitole vysvˇetl´ıme, se naz´ yv´a testov´an´ı nulov´e hypot´ezy. Obecnˇe t´eto ˇca´sti statistiky ˇr´ık´ame inferenˇ cn´ı statistika. Mnoha lidem toto t´ema pˇripad´a neintuitivn´ı a ˇrada tˇech, kteˇr´ı si postupy nˇejak osvojili, je pouˇz´ıvaj´ı nespr´avnˇe. Pˇritom nejde o nic jin´eho neˇz o peˇclivou formalizaci naˇsich u ´vah z pˇredeˇsl´ ych odstavc˚ u, kter´e jsou srozumiteln´e a v dobr´e shodˇe se selsk´ ym rozumem. Matematick´ y postup testov´an´ı nulov´e hypot´ezy si vysvˇetl´ıme na pˇr´ıkladu. Pˇredstavte si, ˇze jste vytvoˇrili nov´ y postup, jak´ ym lze stˇredoˇskol´aky efektivnˇe uˇcit matematiku. V souladu s poznatky z metodologie z´ısk´ame soubor stˇredoˇskol´ak˚ u, kter´e budeme pomoc´ı tohoto postupu matematiku uˇcit. N´aˇs oˇcek´avan´ y v´ ysledek je ten, ˇze na konci studia u st´atn´ı maturity (kterou budeme povaˇzovat za standardizovan´ y test matematick´ ych schopnost´ı) dopadnou naˇsi studenti l´epe neˇz ostatn´ı. Vyˇrkli bychom proto n´asleduj´ıc´ı hypot´ezu: Studenti, kteˇr´ı jsou vzdˇel´av´an´ı naˇs´ı metodou, z´ıskaj´ı u maturity ” z matematiky v pr˚ umˇeru vyˇsˇs´ı poˇcet bod˚ u neˇz ti, kteˇr´ı touto metodou vzdˇel´av´ani nejsou“. V pˇredeˇsl´ ych kapitol´ach jsme se nauˇcili popisovat svˇet pomoc´ı n´ahodn´ ych veliˇcin. Tot´eˇz udˇel´ame ted’: poˇcet bod˚ u, kter´e student vyuˇcovan´y naˇs´ı metodou z´ısk´a u maturity, je n´ahodn´a veliˇcina (budeme j´ı ale radˇeji ˇr´ıkat X, protoˇze p˚ uvodn´ı n´azev je troˇsku dlouh´ y). M˚ uˇzeme tedy, jak jsme zvykl´ı, zkoumat jej´ı distribuˇcn´ı funkci, odhadovat jej´ı ˇc´ıseln´e 92
charakteristiky a tak podobnˇe. V´ ybˇer statistick´eho testu je u ´zce spojen´ y s pˇredpoklady, kter´e na zvolenou n´ahodnou veliˇcinu klademe. To je citliv´e t´ema, kter´emu vˇenujeme pozornost v kapitol´ach o jednotliv´ ych statistick´ ych testech. Ted’ jednoduˇse pˇredpokl´adejme, ˇze jsme poˇza´dali pˇr´ısluˇsnou instituci, aby n´am poskytla v´ ysledky student˚ u z cel´e republiky, a z nich jsme zjistili, ˇze tvar rozdˇelen´ı poˇct˚ u bod˚ u pˇripom´ın´a norm´aln´ı rozdˇelen´ı a ˇze pr˚ umˇern´ y poˇcet bod˚ u byl 20 se smˇerodatnou odchylkou 6. Budeme tedy pˇredpokl´adat, ˇze i naˇse n´ahodn´a veliˇcina X m´a norm´aln´ı rozdˇelen´ı, kter´e m´a smˇerodatnou odchylku 6, nicm´enˇe jej´ı pr˚ umˇer (oznaˇcme jej µ) se mohl d´ıky naˇs´ı intervenci nˇejak´ ym zp˚ usobem posunout. N´aˇs pˇredpoklad tedy zn´ı: X ∼ N (µ, 62 ) . Vrat’me se k naˇs´ı hypot´eze, kter´e znˇela Studenti, kteˇr´ı jsou vzdˇel´av´an´ı naˇs´ı metodou, ” z´ıskaj´ı u maturity z matematiky v pr˚ umˇeru vyˇsˇs´ı poˇcet bod˚ u neˇz ti, kteˇr´ı touto metodou vzdˇel´av´ani nejsou“. Budeme j´ı ˇr´ıkat alternativn´ı hypot´ eza nebo alternativa (znaˇcme HA ). Po pˇrekladu do matematick´e ˇreˇci by naˇse hypot´eza znˇela HA : µ > 20 . ˇ ıslo 20 oznaˇcuje pr˚ C´ umˇern´ y poˇcet bod˚ u, kter´e z´ısk´a student bez pouˇzit´ı naˇs´ı metody, a µ je stˇredn´ı hodnota naˇs´ı n´ahodn´e veliˇciny X (tedy veliˇciny poˇcet bod˚ u, kter´e student vyuˇcovan´y naˇs´ı metodou z´ısk´a u maturity). Alternativn´ı hypot´eza ve skuteˇcnosti nejde testovat pˇr´ımo. Testovat m˚ uˇzeme pouze jej´ı doplnˇek, kter´emu ˇr´ık´ame nulov´ a hypot´ eza (znaˇc´ıme H0 ). R˚ uzn´e testy pracuj´ı s r˚ uzn´ ymi ˇ ıkaj´ı, ˇze naˇse progn´oza je myln´a, nulov´ ymi hypot´ezami, jejich smyl je ale vˇzdy stejn´ y. R´ ˇze ˇz´adn´ y efekt/rozd´ıl/souvislost (at’ uˇz hled´ame cokoli) neexistuje. V naˇsem pˇr´ıpadˇe by nulov´a hypot´eza ˇr´ıkala, ˇze studenti, kteˇr´ı jsou vzdˇel´av´ani naˇs´ı metodou, z´ıskaj´ı u maturity ” z matematiky stejn´y poˇcet bod˚ u jako ti, kteˇr´ı touto metodou vzdˇel´av´ani nejsou“. Pˇreloˇzeno do jazyka matematiky21 H0 : µ = 20 . Vˇsechno m´ame pˇripraveno, m˚ uˇzeme se proto pod´ıvat na naˇse studenty. Naˇsi metodu v´ yuky matematiky jsme aplikovali na 9 student˚ u (n = 9) a ti z p´ısemn´eho maturitn´ıho testu z matematiky dostali tato bodov´a ohodnocen´ı: 15, 25, 22, 19, 22, 29, 35, 22, 27. Snadno zjist´ıme, ˇze pr˚ umˇer z tˇechto hodnot je 24, tedy v´ıc neˇz 20 bod˚ u, kter´e v pr˚ umˇeru studenti dost´avaj´ı. Takˇze se naˇse oˇcek´av´an´ı naplnilo. 21
V nˇekter´ ych textech b´ yv´ a uvedeno znˇen´ı nulov´e hypot´ezy jako H0 : µ ≤ 20, aby nulov´a hypot´eza i alternativa dohromady pokr´ yvaly vˇsechny moˇznosti. V tomto textu se ale budeme drˇzet naˇs´ı p˚ uvodn´ı formulace, protoˇze je n´ azornˇejˇs´ı, nehledˇe na to, ˇze v praxi pracujeme obvykle s oboustrann´ ymi alternativami, u nichˇz k t´eto dvojakosti nedoch´ az´ı.
93
Ot´azka vˇsak je, jestli to nen´ı jen d´ılo n´ahody. Nˇekdy maj´ı studenti troˇsku v´ıc ˇstˇest´ı, jindy troˇsku m´enˇe (respektive nˇekdy m´a uˇcitel ˇstˇest´ı na lepˇs´ı jindy na horˇs´ı ˇza´ky), takˇze je zjevn´e, ˇze kdybychom experiment opakovali kaˇzd´ y rok, dostaneme nˇekdy o nˇeco vyˇsˇs´ı ˇc´ıslo a jindy o nˇeco niˇzˇs´ı. Abychom naˇs´ı hypot´eze pˇridali na vˇerohodnosti, pomohlo by n´am, kdybychom byli schopni vyˇc´ıslit, jak je nepravdˇepodobn´e, ˇze soubor dev´ıti student˚ u pˇrekroˇc´ı pr˚ umˇernou hodnotu 20 bod˚ u nejm´enˇe o ˇctyˇri body. Abychom tuto pravdˇepodobnost stanovili, budeme pˇredpokl´adat, ˇze plat´ı nulov´a hypot´eza. Tedy ˇze bez ohledu na metodu v´ yuky je v´ ysledek kaˇzd´eho naˇseho studenta n´ahodn´a veliˇcina s rozdˇelen´ım N (20, 62 ). T´aˇzeme se pak, jak´a je pravdˇepodobnost, ˇze kdyby tohle skuteˇcnˇe platilo a naˇse metoda zkr´atka nefungovala, tak ˇze by jen v r´amci n´ahodn´eho kol´ıs´an´ı vyˇsla pr˚ umˇern´a hodnota z dev´ıti realizac´ı t´eto n´ahodn´e veliˇciny vˇetˇs´ı nebo rovna hodnotˇe 24. Odpovˇed’ najdeme pomoc´ı vhodn´e testov´ e statistiky (t´eˇz testovac´ı statistiky). Jedn´a se o nˇejakou n´ahodnou veliˇcinu, kter´a splˇ nuje tyto podm´ınky: • za platnosti nulov´e hypot´ezy m´a nˇejakou zn´amou distribuˇcn´ı funkci, • jej´ı hodnota odr´aˇz´ı platnost nulov´e hypot´ezy. V naˇsem pˇr´ıpadˇe odvod´ıme testovac´ı statistiku z aritmetick´eho pr˚ umˇeru. Kdyˇz v´ıme, ˇze za platnosti nulov´e hypot´ezy X ∼ N (20, 62 ), pak snadno odvod´ıme ˇze 9
X 62 ¯=1 X Xi ∼ N (20, ) = N (20, 22 ) . 9 i=1 9 ¯ odr´aˇz´ı platnost nulov´e hypot´ezy (ˇc´ım je vyˇsˇs´ı neˇz 20, t´ım vˇetˇs´ı jistotu m´ame, Statistika X ˇze nulov´a hypot´eza neplat´ı). Abychom splnili i druhou podm´ınku, mus´ıme tuto n´ahodnou veliˇcinu transformovat na testovou statistiku (ˇr´ıkejme j´ı Z) odeˇcten´ım stˇredn´ı hodnoty a vydˇelen´ım smˇerodatnou odchylkou. Obecnˇe tedy pro naˇsi testovou statistiku plat´ı vztah Z=
¯ − µ0 X √σ n
∼ N (0, 1) ,
¯ za platnosti nulov´e kde µ0 oznaˇcuje stˇredn´ı hodnotu n´ahodn´e veliˇciny X, respektive X, hypot´ezy (v naˇsem pˇr´ıpadˇe ˇc´ıslo 20) a σ je n´am zn´am´a smˇerodatn´a odchylka veliˇciny X (tzn. 6). Po dosazen´ı z=
24 − 20 √6 9
= 2.
N´aˇs probl´em jsme tedy transformovali v ot´azku, kterou jsme schopni rutinnˇe odpovˇedˇet: jak´a je pravdˇepodobnost, ˇze n´ahodn´a veliˇcina, kter´a m´a normovan´e norm´aln´ı rozdˇelen´ı, 94
Tabulka 5: Oznaˇcen´ı m´ıry statistick´e v´ yznamnosti p-hodnota
slovn´ı oznaˇcen´ı
hvˇezdiˇckov´a notace
<0.10 <0.05 <0.01 <0.001
nen´ı signifikantn´ı, existuje trend signifikantn´ı vysoce signifikantn´ı velmi vysoce signifikantn´ı
* ** ***
se realizuje s hodnotou vyˇsˇs´ı nebo rovnou neˇz 2. Zbˇeˇzn´ y pohled do tabulek n´am prozrad´ı, ˇze to je pˇribliˇznˇe 2.28 %. M˚ uˇzeme tedy prohl´asit, ˇze pokud plat´ı nulov´a hypot´eza a my se m´ ylili – naˇse metoda v´ yuky ˇza´dn´e zlepˇsen´ı nepˇrin´aˇs´ı, pak pravdˇepodobnost, ˇze naˇsich 9 student˚ u z´ısk´a u maturity 24 a v´ıc bod˚ u, je 2.28 %. Pravdˇepodobnost, kterou jsme t´ımto zp˚ usobem pomoc´ı statistick´eho testu obdrˇzeli, oznaˇcujeme pojmem p-hodnota (angl. p-value). Je to hodnˇe nebo m´alo? Jak nepravdˇepodobn´ y jev mus´ıme b´ yt schopni pˇredpovˇedˇet, abychom mohli tvrdit, ˇze jsme pˇrijali naˇsi alternativn´ı hypot´ezu? Spr´avn´ ym postupem by bylo pˇredem stanovit takzvanou hladinu v´ yznamnosti (znaˇc´ıme α). Je to nˇejak´e kladn´e ˇc´ıslo bl´ızko nuly. Kdyˇz je naˇse p-hodnota podkroˇc´ı, pak m˚ uˇzeme prohl´asit, ˇze nulovou hypot´ezu zam´ıt´ame, a tedy pˇrij´ım´ame alternativu (jelikoˇz nulov´a hypot´eza a alternativa se vz´ajemnˇe vyluˇcuj´ı). Dojdeme-li k takov´emu v´ ysledku, pak pozorovan´ y efekt oznaˇcujeme za signifikantn´ı (t´eˇz statisticky v´yznamn´y ). V praxi si vˇsak hladinu v´ yznamnosti α nevyb´ır´ame, ale vol´ıme tradiˇcn´ı hodnotu 0.05. Klesne-li p-hodnota dokonce pod hladinu 0.01, pak v´ ysledek oznaˇcujeme za vysoce signifikantn´ı a kdyˇz pod hladinu 0.001, pak jako velmi vysoce signifikantn´ı. Zkr´acenˇe tyto tˇri stupnˇe statistick´e v´ yznamnosti oznaˇcujeme pomoc´ı jedn´e aˇz tˇri hvˇezdiˇcek (viz tabulka 5). Ve starˇs´ıch textech, zejm´ena v tˇech, kter´e vznikly v ´eˇre pˇred masivn´ım rozˇs´ıˇren´ım poˇc´ıtaˇc˚ u, najdeme jin´ y postup neˇz ten, co je uveden v´ yˇse. Dˇr´ıve nebylo zvykem poˇc´ıtat pˇresnou p-hodnotu, ale nalezen´a hodnota testov´e statistiky (v naˇsem pˇr´ıkladu z) byla srovn´ana s kvantilem pˇr´ısluˇsn´eho rozdˇelen´ı pravdˇepodobnosti, takzvanou kritickou hodnotou. Jelikoˇz naˇse testov´a statistika m´a normovan´e norm´aln´ı rozdˇelen´ı, a alternativa zn´ı µ > 20, hledali bychom kvantil Φ1−α (v naˇsem pˇr´ıpadˇe 1.64). Interval W = [Φ1−α , ∞) oznaˇcujeme jako kritick´ y obor. Pokud do nˇej padne hodnota testov´a statistiky, tak zam´ıt´ame nulovou hypot´ezu. Je zjevn´e, ˇze oba postupy vedou k identick´emu z´avˇeru, prvn´ı z postup˚ u n´am vˇsak nav´ıc poskytuje informaci o p-hodnotˇe, kter´a sama o sobˇe m˚ uˇze b´ yt zaj´ımav´a. Pokud by hodnota testov´e statistiky byla rovna kritick´e hodnotˇe, pak se p-hodnota v pˇr´ıpadˇe spojit´eho rozdˇelen´ı testov´e statistiky rovn´a α.
95
Obr´azek 29: P-hodnoty testovac´ı statistiky Z pˇri r˚ uznˇe formulovan´ ych alternativ´ach
5.2.2
Jednostrann´ e a dvoustrann´ e alternativn´ı hypot´ ezy
Alternativn´ı hypot´eza ve v´ yˇse uveden´em pˇr´ıkladu je takzvanˇe jednostrann´ a (anglicky onetailed ). Znamen´a to, ˇze pˇredpokl´ad´a, v jak´em smˇeru se oˇcek´avan´ y rozd´ıl (respektive souvislost) projev´ı. Naˇse oˇcek´av´an´ı je takov´e, ˇze studenti, kteˇr´ı podstoupili naˇsi vzdˇel´avac´ı metodu, budou m´ıt vyˇsˇs´ı poˇcet bod˚ u u maturity, neˇz ostatn´ı (tedy HA : µ > 20). Za jednostrannou hypot´ezu bychom povaˇzovali i opak – tedy tvrzen´ı, ˇze studenti, na kter´e jsme metodu aplikovali, z´ıskaj´ı m´enˇe bod˚ u (HA : µ < 20). Prvn´ı jmenovanou alternativu bychom oznaˇcili jako pravostrannou, druhou jako levostrannou. Pokud bychom vˇsak hypot´ezu formulovali obecnˇe Studenti, kteˇr´ı jsou vzdˇel´av´an´ı naˇs´ı ” metodou, z´ıskaj´ı u maturity z matematiky jin´y poˇcet bod˚ u neˇz ti, kteˇr´ı touto metodou vzdˇel´av´ani nejsou“ (zaps´ano matematicky HA : µ 6= 20), pak bychom hovoˇrili o dvoustrann´ e (oboustrann´e, anglicky twotailed ) alternativˇe. Neˇr´ık´ame tedy nic o oˇcek´avan´em smˇeru efektu, tvrd´ıme jen, ˇze se zmˇena metody v´ yuky nˇejak projev´ı na v´ ysledc´ıch student˚ u. Pokud dok´aˇzeme vypoˇc´ıtat p-hodnotu pro obˇe jednostrann´e hypot´ezy, snadno z nich z´ısk´ame p-hodnotu pro hypot´ezu dvoustrannou. Vzali bychom menˇs´ı z obou p-hodnot a vyn´asobili ji dvˇema. Pokud m´a testov´a statistika symetrickou hustotu pravdˇepodobnosti, pak bychom p-hodnotu pro opaˇcnou jednostrannou hypot´ezu mohli z´ıskat jednoduˇse tak, ˇze bychom p˚ uvodn´ı p-hodnotu odeˇcetli od jedniˇcky. To v naˇsem pˇr´ıpadˇe plat´ı, a tedy p-hodnota pro levostrannou alternativu, kter´a ˇr´ık´a, ˇze se v´ ysledky student˚ u kv˚ uli naˇs´ı metodˇe zhorˇs´ı, je 97.72 % (= 1 − 0.0228). Menˇs´ı z hodnot 2.28 % a 97.72 % vyn´asob´ıme dvˇema, a m˚ uˇzeme tedy ˇr´ıct, ˇze p-hodnota pro dvoustrannou hypot´ezu je rovna hodnotˇe 0.0455 (tedy 4.55 %). Vid´ıme, ˇze i v pˇr´ıpadˇe, kdy bychom formulovali naˇsi p˚ uvodn´ı alternativn´ı hypot´ezu jako dvoustrannou, budeme nulovou hypot´ezu zam´ıtat. Chceme-li vyuˇz´ıt pro rozhodnut´ı kritick´e obory, projev´ı se tvar alternativy na kvantilu rozdˇelen´ı, kter´e budeme pouˇz´ıvat. V pˇr´ıpadˇe, ˇze se jednalo o pravostrannou alternativu, byl kritick´ y obor vymezen jako W = [φ1−α , ∞). Pokud by ˇslo o levostrannou alternativu, platilo by W = (−∞, φα ]. A nakonec kritick´ y obor vztahuj´ıc´ı se k oboustrann´e alternativˇe by mˇel tvar W = (−∞, φ α2 ] ∪ [φ1− α2 , ∞). Pokud by testov´a statistika mˇela jin´e rozdˇelen´ı 96
Obr´azek 30: Kritick´e obory a kritick´e hodnoty testov´e statistiky Z
neˇz normovan´e norm´aln´ı (napˇr. χ2 ), pak bychom pochopitelnˇe pouˇzili jeho kvantil. Obecnˇe plat´ı, ˇze p-hodnota ˇr´ık´a, jak´ a je pravdˇ epodobnost, ˇ ze za platnosti nulov´ e hypot´ ezy z´ısk´ ame v´ ysledek, kter´ y je jeˇ stˇ e extr´ emnˇ ejˇ s´ı, co se t´ yˇ ce m´ıry poruˇ sen´ı nulov´ e hypot´ ezy, neˇ z ten, co jsme z´ıskali. Slovn´ı spojen´ı jeˇstˇe extr´emnˇejˇs´ı by v pˇr´ıpadˇe pravostrann´e alternativy znamenalo vˇetˇs´ı a v pˇr´ıpadˇe levostrann´e menˇs´ı. Pokud jde o dvoustrannou alternativu, tak se j´ım rozum´ı vzd´alenˇejˇs´ı od hodnoty, kterou oˇcek´avala nulov´a hypot´eza. Tedy v naˇsem pˇr´ıkladu je hodnota 16 stejnˇe extr´emn´ı jako 24 a napˇr´ıklad hodnoty 10 nebo 30 jsou extr´emnˇejˇs´ı jeˇstˇe v´ıc. Aˇc maj´ı jednostrann´e alternativy svou logiku, v drtiv´e vˇetˇsinˇe pˇr´ıpad˚ u ovˇeˇruj´ı v´ yzkumn´ıci sv´e hypot´ezy, jako by se jednalo o dvoustrann´e alternativy. Je to zp˚ usobeno zˇrejmˇe t´ım, ˇze statistick´e programy n´am jako v´ ysledek poskytuj´ı pr´avˇe oboustrannou p-hodnotu (coˇz je pochopiteln´e – poˇc´ıtaˇc nem˚ uˇze vˇedˇet, jak´e bylo naˇse oˇcek´av´an´ı). Pokud bychom se pˇrece jen rozhodli z˚ ustat u jednostrann´ ych alternativ, je uˇziteˇcn´e umˇet pˇrev´est dvoustrannou p-hodnotu na jednostrannou. V pˇr´ıpadˇe, ˇze v´ ysledek vyjde v oˇcek´avan´em smˇeru (tedy v tom, o kter´em mluv´ı alternativa), pak z´ıskanou p-hodnotu vydˇel´ıme dvojkou. V pˇr´ıpadˇe, ˇze v´ ysledek vyjde v opaˇcn´em smˇeru, pak p-hodnotu taky vydˇel´ıme dvojkou, ale pot´e ji jeˇstˇe odeˇcteme od jedniˇcky. Na z´avˇer se zamysleme nad nˇekolika d˚ usledky, jejichˇz pochopen´ı je pro dalˇs´ı pr´aci kl´ıˇcov´e a kter´e student˚ um nˇekdy unikaj´ı: • I v pˇr´ıpadˇe, ˇze jsme celou proceduru provedli preciznˇe, nem˚ uˇzeme s jistotou ˇr´ıct, ˇze nalezen´ y v´ ysledek je pravdiv´ y. Z logiky statistick´eho testu vypl´ yv´a, ˇze v pˇ r´ıpadˇ e, kdy alternativa nen´ı pravdiv´ a (tedy plat´ı nulov´ a hypot´ eza), doch´ az´ı k zam´ıtnut´ı nulov´ e hypot´ ezy aˇ z v α pˇ r´ıpadech. Tedy pˇri volbˇe tradiˇcn´ı hladiny 0.05 je dobr´ ych 5 % statisticky v´ yznamn´ ych v´ ysledk˚ u jen d´ılem n´ahody! Stejnˇe tak se n´am nemus´ı podaˇrit zam´ıtnout nulovou hypot´ezu, i kdyˇz naˇse oˇcek´av´an´ı bylo opr´avnˇen´e. Oba druhy chyb budeme podrobnˇeji rozeb´ırat v kapitole o s´ıle testu (5.5). • Nulovou hypot´ ezu nelze nikdy pˇ rijmout. Jedin´e dva moˇzn´e v´ ysledky jsou 97
nulov´a hypot´eza byla zam´ıtnuta, pˇrij´ım´ame alternativu“ a nulovou hypot´ezu ne” ” zam´ıt´ame“ (o jej´ı platnosti a tedy ani o platnosti alternativy nejsme schopni na z´akladˇe naˇsich dat rozhodnout). Pokud se napˇr´ıklad pokouˇs´ıte naj´ıt d˚ ukazy pro to, ˇze muˇzi i ˇzeny se neliˇs´ı ve schopnosti multitaskingu, pak testov´an´ı nulov´ ych hypot´ez nen´ı vhodn´ ym n´astrojem, jelikoˇz nikdy stanovenou hypot´ezu nebudeme moct pˇrijmout. V´ ysledkem bude bud’ jej´ı zam´ıtnut´ı nebo nezam´ıtnut´ı (tedy stav, kdy nev´ıme). • Nejv´ıc neporozumˇen´ı tradiˇcnˇe z˚ ust´av´a kolem v´ yznamu p-hodnoty. P-hodnota vyjadˇruje pravdˇ epodobnost, s jakou m˚ uˇ zeme za platnosti nulov´ e hypot´ ezy pozorovat takov´ y v´ ysledek, co jsme pozorovali, nebo takov´ y, co nulov´ e hypot´ eze odporuje jeˇ stˇ e v´ıc neˇ z ten pozorovan´ y. Rozhodnˇe se nejedn´a o pravdˇepodobnost, s jakou nulov´a hypot´eza plat´ı (ta bud’ plat´ı, nebo ne, bez nˇejak´e pravdˇepodobnosti). A uˇz v˚ ubec ne o pravdˇepodobnost, ˇze kdyˇz v´ yzkum zopakujeme, tak z´ısk´ame odliˇsn´ y v´ ysledek. • Testy nulov´ ych hypot´ ez u ´ zce souvis´ı s konfidenˇ cn´ımi intervaly. V naˇsem pˇr´ıkladu bychom mohli nahradit test nulov´e hypot´ezy t´ım, ˇze bychom zkonstruovali dvoustrann´ y 95% interval spolehlivosti pro stˇredn´ı hodnotu pˇri zn´amem rozptylu. Jednoduˇse bychom pak zkontrolovali, jestli interval obsahuje hodnotu µ0 (tzn. ˇza´dn´e zlepˇsen´ı“) nebo ne. Pokud by tato hodnota v konfidenˇcn´ım intervalu ” obsaˇzena nebyla, zam´ıt´ame nulovou hypot´ezu. Obecnˇe nemus´ı j´ıt vˇzdy o ˇc´ıslo µ0 , ale dle druhu testovan´e hypot´ezy o tu hodnotu, kterou bychom u testov´e statistiky oˇcek´avali, pokud by nulov´a hypot´eza platila. Jednostrann´e hypot´ezy by pak byly ekvivalentem jednostrann´ ych konfidenˇcn´ıch interval˚ u. Obˇe metody vedou k identick´ ym v´ ysledk˚ um.
5.3
Praktick´ a v´ yznamnost a m´ıry u ´ˇ cinku
Doposud jsme hovoˇrili o takzvan´e statistick´e v´ yznamnosti. Ta n´am poskytuje velmi zaj´ımavou informaci, na kaˇzdou ot´azku n´am vˇsak odpovˇedˇet nedok´aˇze. Jeˇstˇe jednou se vrat’me k naˇsemu pˇr´ıkladu z minul´e kapitoly, kdy jsme ovˇeˇrovali, jestli n´ami navrˇzen´ y zp˚ usob v´ yuky matematiky na stˇredn´ı ˇskole vede ke zlepˇsen´ı v´ ysledk˚ u student˚ u u p´ısemn´e st´atn´ı maturity. Pˇredpokl´adali jsme, ˇze v´ ysledek student˚ u, na kter´e jsme tuto metodu v´ yuky aplikovali, je n´ahodn´a veliˇcina X ∼ N (µ, 62 ). Na naˇsem souboru 9 pozorov´an´ı jsme namˇeˇrili pr˚ umˇernou hodnotu 24 bod˚ u, coˇz je oproti populaˇcn´ımu pr˚ umˇeru 20 bod˚ u zlepˇsen´ı. Z tˇechto u ´daj˚ u vypoˇc´ıtan´a statistika Z se rovnala 2, coˇz by odpov´ıdalo dvoustrann´e p-hodnotˇe 0.0455. Nulovou hypot´ezu jsme zam´ıtli.
98
Nejsme vˇsak jedin´ı, kdo hled´a cestu, jak vyuˇcovat matematiku efektivnˇeji. Pˇredpokl´adejme, ˇze jsme narazili na studii ze Spojen´ ych st´at˚ u, jej´ıˇz autoˇri popisuj´ı ovˇeˇrov´an´ı u ´ˇcinnosti jin´e metodiky v´ yuky matematiky, kter´a tak´e pˇrinesla velmi slibn´e v´ ysledky. Na reprezentativn´ım souboru 400 stˇredoˇskol´ak˚ u, kteˇr´ı byli novou metodou vyuˇcov´ani, byl sledov´an jejich v´ ysledek v testu SAT z matematiky. Tuhle zkouˇsku kaˇzd´ y rok absolvuj´ı ˇ V´ tis´ıce mlad´ ych Ameriˇcan˚ u a pln´ı podobnou u ´lohu, jako maturita v CR. ysledky tohoto testu jsou pˇrepoˇcteny tak, aby mˇely pr˚ umˇer 500 bod˚ u a smˇerodatnou odchylku 100 bod˚ u. Autoˇri studie uv´ad´ı pr˚ umˇer u sv´ ych pokusn´ ych osob 530 bod˚ u – tedy o 30 bod˚ u v´ıc, neˇz je oˇcek´av´ana hodnota. Po dosazen´ı do vzorce vyjde testov´a statistka z =
530−500 √ 100/ 400
=
6. Vyˇc´ısl´ıme-li p-hodnotu, z´ısk´ame ˇc´ıslo, kter´e se tˇesnˇe bl´ıˇz´ı nule: 0.000000002 (v praxi bychom uvedli jen p < 0.001). Ot´azka zn´ı, kter´a metodika vedla k v´ yraznˇejˇs´ımu zlepˇsen´ı? Pokud bychom srovnali velikosti u ´ˇcink˚ u pomoc´ı p-hodnoty, zahraniˇcn´ı studie by z toho vyˇsla daleko l´epe (pˇrece jen, naˇsich bezm´ala 5 % m˚ uˇze tˇeˇzko konkurovat t´emˇeˇr nulov´e hodnotˇe). Ke stejn´emu z´avˇeru by n´as vedlo pouˇzit´ı testov´e statistiky Z. Tento druh u ´vahy by vˇsak byl hrubou chybou. Statistick´e testy jsou konstruovan´e tak, aby s rostouc´ım rozsahem v´ ybˇeru reagovaly na jak´ekoli odchylky citlivˇeji. Byla-li tedy jedna studie provedena na 9 lidech a druh´a na ˇctyˇrech stovk´ach student˚ u, pak jsou z´ıskan´e p-hodnoty nesrovnateln´e. Druhou cestou by mohlo b´ yt pˇr´ım´e srovn´an´ı poˇct˚ u bod˚ u, o kter´e se studenti zlepˇsili. U ˇcesk´ ych to byly 4 body, u zahraniˇcn´ıch 30 bod˚ u. Takov´ yto postup by vˇsak byl stejnˇe nedomyˇslen´ y jako pˇredchoz´ı navrˇzen´ y. Tentokr´at kv˚ uli tomu, ˇze body z r˚ uzn´ ych zkouˇsek nem˚ uˇzeme srovn´avat. Kdybychom napˇr´ıklad vyn´asobili body z´ıskan´e u maturity u kaˇzd´eho ˇ stovkou, v´ studenta v CR ykon naˇsich dev´ıti pokusn´ ych osob by se nijak nezmˇenil, aˇc by rozd´ıl r´azem ˇcinil 400 bod˚ u a ne jen 4. Probl´emy, jako je tento, ˇreˇs´ı takzvan´e ukazatele m´ıry u ´ˇ cinku (angl. effect size). Ukazatelem m´ıry u ´ˇcinku je libovoln´a statistika, kter´a m´a tyto tˇri vlastnosti: • odr´aˇz´ı m´ıru poruˇsen´ı nulov´e hypot´ezy (tedy napˇr. velikost rozd´ılu, s´ılu z´avislosti atd.), • nen´ı ovlivnˇena velikost´ı souboru, • nen´ı ovlivnˇena jednotkami mˇeˇren´ı. Pro kaˇzd´ y statistick´ y test m˚ uˇzeme naj´ıt mnoho ukazatel˚ u, kter´e maj´ı tyto vlastnosti. Obvykle je mezi sebou lze volnˇe pˇrev´adˇet. V naˇsem pˇr´ıpadˇe se zd´a jako rozumn´e ˇreˇsen´ı spoˇc´ıtat rozd´ıl mezi oˇcek´avan´ ym a skuteˇcn´ ym pr˚ umˇerem a ten pˇrev´est do nˇejak´ ych standardn´ıch jednotek. Toto pˇreveden´ı provedeme tak, ˇze nalezen´ y rozd´ıl vydˇel´ıme smˇerodatnou odchylkou. M´ıru u ´ˇcinku pro jednov´ ybˇerov´ y Z-test, jak naˇsemu testu pomoc´ı statistiky
99
Z m˚ uˇzeme ˇr´ıkat, budeme znaˇcit d (jako diference) a vypoˇc´ıt´ame ji d=
x¯ − µ . σ
N´aˇs ukazatel tedy ˇr´ık´a, o kolik smˇerodatn´ ych odchylek se studenti zlepˇsili (pˇr´ıpadnˇe zhorˇsili, pokud by vyˇslo z´aporn´e znam´enko). Kdyˇz pouˇzijeme tento ukazatel na studie z naˇseho pˇr´ıkladu, zjist´ıme, ˇze dX =
dY =
24 − 20 = 0.¯6 , 6
530 − 500 = 0.3 . 100
Z v´ ysledku vych´az´ı jednoznaˇcnˇe l´epe naˇse metoda v´ yuky – zat´ımco se naˇsi studenti zlepˇsili ´ cinek naˇs´ı meo dvˇe tˇretiny smˇerodatn´e odchylky, zahraniˇcn´ı pouze o necelou tˇretinu. Uˇ tody je dle naˇsich v´ ysledk˚ u v´ıce neˇz dvojn´asobn´ y. Pouˇzit´ı ukazatel˚ u m´ıry u ´ˇcinku je spolu s konfidenˇcn´ımi intervaly souˇc´ast´ı dobr´e praxe prezentov´an´ı v´ ysledk˚ u. Tyto ukazatele n´am d´avaj´ı pomˇernˇe jednoznaˇcnou informaci, a br´an´ı tak zneuˇzit´ı statistiky, kdy pomoc´ı m´enˇe jasn´ ych statistik m˚ uˇzeme vyvolat dojem, ˇze existuje urˇcit´ y efekt, kter´ y je ve skuteˇcnosti velmi slab´ y ˇci prakticky ˇz´adn´ y. Pokud se tomuto n´astroji autor studie vyh´ yb´a, m˚ uˇze to znamenat bud’ to, ˇze se n´am pokouˇs´ı zatajit skuteˇcnou s´ılu pozorovan´eho efektu, anebo jednoduˇse jeho znalosti neodpov´ıdaj´ı v´ yvoji vˇedy. Smutnou pravdou je to, ˇze tyto f´erov´e“ ukazatele si jen pomalu nach´az´ı ” m´ısto ve statistick´ ych programech a ˇcasto nejsou automaticky zahrnuty ve v´ ystupu, kter´ y n´am dan´ y software poskytuje. V tomto textu tento trend vˇsak budeme sledovat a z´akladn´ı ukazatele m´ıry u ´ˇcinku budeme u pˇr´ısluˇsn´ ych test˚ u vˇzdy uv´adˇet.
5.4
Parametrick´ e testy
Metoda, kterou jsme popsali v pˇr´ıkladu z pˇredeˇsl´e kapitoly, by patˇrila do bohat´e rodiny takzvan´ ych parametrick´ ych test˚ u, respektive spr´avnˇeji test˚ u parametrick´ ych hypot´ez. Rozum´ı se t´ım to, ˇze pˇred t´ım, neˇz vypoˇc´ıt´ame testovou statistiku, pˇrijmeme pˇredpoklad, ˇze n´ahodn´a veliˇcina, se kterou pracujeme, patˇr´ı do urˇcit´e zn´am´e rodiny rozdˇelen´ı. To n´am umoˇzn ˇuje vztahovat hypot´ezy k jednotliv´ ym parametr˚ um tohoto rozdˇelen´ı. Pˇredpoklad, kter´ y budeme pˇrij´ımat nejˇcastˇeji, je to, ˇze zkouman´e n´ahodn´e veliˇciny poch´az´ı z norm´aln´ıho rozdˇelen´ı. Obecnˇe se vˇsak m˚ uˇze jednat i o jin´e rodiny rozdˇelen´ı. Parametrick´e testy jsou mimoˇra´dnˇe citliv´e a jejich v´ ysledky se snadno prezentuj´ı. M´ame-li na vybranou, jsou proto pro n´as n´astroji prvn´ı volby.
100
5.4.1
Jednov´ ybˇ erov´ y t-test a p´ arov´ y t-test
Znovu se vrat’me k pˇr´ıkladu, kde jsme mluvili o metodˇe, jak na stˇredn´ı ˇskole vyuˇcovat matematiku. Formulovali jsme hypot´ezu o tom, ˇze studenti, kteˇr´ı byli vzdˇel´av´an´ı pomoc´ı n´ami navrˇzen´e metody, z´ısk´avaj´ı u maturity z matematiky v´ıce bod˚ u neˇz je celkov´ y pr˚ umˇer v populaci student˚ u. Pˇredpokl´adali jsme, ˇze sledovan´a promˇenn´a (poˇcet bod˚ u, kter´e student vzdˇel´avan´y naˇs´ı metodou u maturity z´ısk´a, znaˇcme X) m´a norm´aln´ı rozdˇelen´ı s nezn´amou stˇredn´ı hodnotou, ale se zn´amou smˇerodatnou odchylkou σ. U t´e jsme pˇredpokl´adali, ˇze je rovn´a smˇerodatn´e odchylce poˇctu bod˚ u ostatn´ıch student˚ u, coˇz bylo v naˇsem pˇr´ıpadˇe ˇc´ıslo 6. Z toho jsme odvodili, ˇze hodnotu testov´e statistiky Z z´ısk´ame pomoc´ı vzorce z =
x ¯−µ √0 σ/ n
a ˇze m´a normovan´e norm´aln´ı rozdˇelen´ı. Tento postup n´am m˚ uˇze pˇrin´est nemal´ y uˇzitek, nicm´enˇe v praxi se Z-test, jak bychom test pomoc´ı statistiky Z mohli nazvat, pouˇz´ıv´a jen zˇr´ıdka. Jeho nedostatkem je to, ˇze jen m´alokdy m˚ uˇzeme pˇrijmout pˇredpoklad, ˇze zn´ame hodnotu σ 2 (respektive σ), tedy skuteˇcn´ y rozptyl zkouman´e n´ahodn´e veliˇciny. Co se t´ yˇce naˇseho pˇr´ıkladu, tˇeˇzko bychom naˇsli argument, proˇc bychom mˇeli oˇcek´avat, ˇze naˇse metoda uniformˇe zlepˇs´ı v´ ysledky student˚ u a pˇritom nijak nezmˇen´ı jejich rozmanitost. Tento probl´em ˇreˇs´ı t-test pro jeden v´ ybˇ er. Jeho logika je velmi podobn´a logice detailnˇe popsan´eho Z-testu, rozd´ıl je vˇsak v tom, ˇze m´ısto statistiky Z, vypoˇc´ıt´ame statistiku T dle n´asleduj´ıc´ıho vzorce: ¯ − µ0 X . T = S √
n
Vˇsimnˇete si, ˇze rozd´ıl je jen v tom, ˇze jsme p˚ uvodn´ı hodnotu parametru σ nahradili jej´ım odhadem S. Tedy v´ ybˇerovou smˇerodatnou odchylkou, kterou um´ıme z´ıskat uˇzit´ım vzorce q Pn 1 ¯ 2 cnosti je zde jeˇstˇe jeden rozd´ıl. Statistika T nem´a S = i=1 (Xi − X) . Ve skuteˇ n−1 norm´aln´ı rozdˇelen´ı, ale Studentovo t rozdˇelen´ı s n − 1 stupni volnosti (kde n odpov´ıd´a poˇctu pozorov´an´ı). Proˇc tomu tak je, jsme jiˇz odvodili v kontextu konfidenˇcn´ıch interval˚ u v kapitole (4.3.1). Struˇcnˇe naˇsi u ´vahu zopakujme. Studentovo t rozdˇelen´ı m´a dle definice kaˇzd´a statistika, kter´a vznik´a jako pod´ıl dvou nez´avisl´ ych n´ahodn´ ych veliˇcin ve tvaru N (0, 1) q . χ2ν ν
Symboly N (0, 1) a χ2 zde oznaˇcuj´ı nez´avisl´e n´ahodn´e veliˇciny s pˇr´ısluˇsn´ ymi rozdˇelen´ımi pravdˇepodobnosti.
101
Plat´ı to i pro naˇsi statistiku T ? Snadno m˚ uˇzeme dok´azat, ˇze ano. Vyjdeme ze tˇr´ı poznatk˚ u. Zaprv´e v´ıme, ˇze pr˚ umˇer n´ahodn´ ych veliˇcin, kter´e maj´ı norm´aln´ı rozdˇelen´ı, m´a tak´e norm´aln´ı rozdˇelen´ı, a z nˇej odvozen´a statistika Z, kterou jsme pouˇz´ıvali v jednov´ ybˇerov´em Z-testu, m´a normovan´e norm´aln´ı rozdˇelen´ı. Z kapitoly (4.2.2) d´ale v´ıme to, ˇze v´ ybˇerov´ y rozptyl m˚ uˇzeme upravit takov´ ym zp˚ usobem, aby mˇel rozdˇelen´ı χ2 . Konkr´etnˇe by ˇslo o tvar
S 2 ·(n−1) σ2
∼ χ2(n−1) . Nakonec potˇrebujeme vˇedˇet, ˇze obˇe tyto n´ahodn´e veliˇciny jsou
nez´avisl´e, coˇz bohuˇzel sami dok´azat neum´ıme, nicm´enˇe ted’ tento poznatek pˇrijmˇeme jako fakt. Dosazen´ım n´ahodn´ ych veliˇcin
¯ X−µ √0 σ/ n
a
s2 ·(n−1) σ2
do vzorce, kter´ ym jsme definovali stu-
dentovo t-rozdˇelen´ı, a u ´pravou v´ yrazu z´ısk´ame vzorec pro v´ ypoˇcet testov´e statistiky t: ¯ X−µ
T =r
√σ n S 2 (n−1) σ2
¯ X−µ √σ
n =q =
S2 σ2
n−1
¯ −µ σ ¯ −µ X X = ∼ t(n−1) . · √σ √S S n n
M˚ uˇzeme tedy konstatovat, ˇze plat´ı T =
¯ − µ0 X √S n
∼ t(n−1) .
Veˇsker´ y dalˇs´ı postup je (s v´ yjimkou pouˇzit´ı t rozdˇelen´ı m´ısto normovan´eho norm´aln´ıho rozdˇelen´ı) shodn´ y s postupem uveden´ ym v pˇr´ıkladu pro Z-test. P-hodnotu bychom tedy z´ıskali z rozdˇelen´ı t(n−1) a v pˇr´ıpadˇe, ˇze bychom stanovovali kritick´ y obor, zvolili bychom pro oboustrannou hypot´ezu tento interval: W = − ∞, t α2 (n − 1) ∪ t1− α2 (n − 1), ∞ . Co se t´ yˇce ukazatele m´ıry u ´ˇcinku, opˇet ji pojmenujme d a vypoˇc´ıtejme analogicky jako v pˇr´ıpadˇe Z testu podle vzorce x¯ − µ0 . d= s I v tomto pˇr´ıpadˇe ji m˚ uˇzeme interpretovat jako poˇcet smˇerodatn´ ych odchylek, o kter´e se pozorovan´ y pr˚ umˇer liˇs´ı od pr˚ umˇeru, kter´ y bychom oˇcek´avali, kdyby platila nulov´a hypot´eza. Pˇri prezentaci v´ ysledku t-testu pro jeden v´ ybˇer je vhodn´e uv´est hodnotu testov´e statistiky, stupnˇe volnosti, p-hodnotu a m´ıru u ´ˇcinku. V textu by to mohlo zn´ıt napˇr´ıklad takto: Co se t´yˇce dimenze otevˇrenosti v˚ uˇci zkuˇsenosti, nem˚ uˇzeme soubor dobrovoln´ık˚ u povaˇzovat za reprezentativn´ı. Ve srovn´an´ı s hodnotami uv´adˇen´ymi v testov´e pˇr´ıruˇcce jsme 102
Tabulka 6: V´ ysledky testu pozornosti pˇred a po absolvov´an´ı terapie tmou Klient
Prvn´ı mˇeˇren´ı (X)
Druh´e mˇeˇren´ı (Y)
Zlepˇsen´ı (D)
1 2 3 4 5 6 7 8
36 49 51 60 49 38 39 56
53 45 64 58 55 53 40 66
17 -4 13 -2 6 15 1 10
pozorovali signifikantnˇe vyˇsˇs´ı sk´ore ve skupinˇe ˇzen (t(49) = 2.72, p < 0.01, d = 0.38) i ve skupinˇe m˚ uˇzu (t(19) = 2.77, p < 0.05, d = 0.62), kde byl rozd´ıl obzvl´aˇstˇe markantn´ı. Kromˇe t-testu pro jeden v´ ybˇer se ˇcasto setk´ame s nˇekolika dalˇs´ımi metodami podobn´eho jm´ena. Takzvan´ y p´ arov´ y t-test neboli t-test pro dva z´ avisl´ e v´ ybˇ ery (matchedpairs t-test) de facto pˇredstavuje speci´aln´ı pˇr´ıpad t-testu pro jeden v´ ybˇer. Uved’me tuto metodou na n´asleduj´ıc´ım pˇr´ıkladu. Zkoum´ame u ´ˇcinky takzvan´e terapie tmou – techniky, kdy jedinec podobu jednoho t´ ydne dobrovolnˇe proˇz´ıv´a naprostou soci´aln´ı i senzorickou izolaci v temn´e m´ıstnosti, do kter´e mu pravidelnˇe nos´ı j´ıdlo. Zaj´ım´a n´as, jestli se nˇejak´ ym zp˚ usobem pobyt podep´ıˇse na kognitivn´ıch schopnostech klient˚ u, kteˇr´ı tuto techniku absolvuj´ı. Osmi dobrovoln´ık˚ um je pˇred pobytem ve tmˇe administrov´an Bourdon˚ uv test pozornosti. Kr´atce pot´e, co t´ yden ve tmˇe absolvuj´ı, je jim stejn´ y test administrov´an podruh´e. Formulujeme oboustrannou alternativu, jelikoˇz existuj´ı pˇresvˇedˇciv´e argumenty pro to, ˇze technika zlepˇs´ı v´ ykon jedince (klienti subjektivnˇe proˇz´ıvaj´ı ˇradu pozitivn´ıch zmˇen), i to, ˇze jej zhorˇs´ı (nucen´a senzorick´a deprivace vede k velmi nepˇr´ıjemn´ ym stav˚ um a u ´dajn´emu zhorˇsen´ı pozornosti). Pro kaˇzd´eho jedince tedy m´ame k dispozici dvˇe hodnoty, kaˇzdou z jednoho mˇeˇren´ı. Na prvn´ı pohled jde o odliˇsnou situaci neˇz v pˇr´ıpadˇe t-testu pro jeden v´ ybˇer. Analogii mezi obˇema metodami odhal´ıme ve chv´ıli, kdy formulujeme alternativn´ı a nulovou hypot´ezu. Oˇcek´av´ame, ˇze m´ıra zlepˇsen´ı (respektive zhorˇsen´ı) v´ ykonu v testu pozornosti se bude liˇsit od nuly. Nulov´a hypot´eza naopak ˇr´ık´a, ˇze toto zlepˇsen´ı bude v pr˚ umˇeru rovno nule. Intuitivnˇe k dvˇema sloupc˚ um s v´ ysledky test˚ u pˇrid´ame tˇret´ı sloupec, ve kter´em bude rozd´ıl poˇctu bod˚ u v druh´em testu m´ınus poˇcet bod˚ u v prvn´ım testu. Nazvˇeme jej zlepˇsen´ı a oznaˇcme p´ısmenem D. Z´ıskan´e hodnoty shrnuje tabulka (6). P˚ uvodn´ı dva sloupce namˇeˇren´ ych hodnot do v´ ypoˇctu jiˇz nad´ale nebudou vstupovat. Budeme pracovat pouze se sloupcem zjiˇstˇen´ ych rozd´ıl˚ u. Dˇr´ıve, neˇz s´ahneme po t-testu, mus´ıme pˇrijmout pˇredpoklad, ˇze se jedn´a o n´ahodnou veliˇcinu s norm´aln´ım rozdˇelen´ım
103
pravdˇepodobnosti, tedy D ∼ N (µD , σD2 ). Pokud tento pˇredpoklad m˚ uˇzeme pˇrijmout, pak mezi alternativou a nulovou hypot´ezou HA : µD 6= 0,
H0 : µD = 0,
rozhodneme pomoc´ı t-testu pro jeden v´ ybˇer. V naˇsem pˇr´ıpadˇe bychom pozorovali pr˚ umˇern´e ¯ = 7.0 se smˇerodatnou odchylkou sD = 8.0 pˇri osmi (p´arov´ zlepˇsen´ı D ych) pozorov´an´ı. Dos´ad´ıme-li do vzorce pro jednov´ ybˇerov´ y t-test: t=
¯ − µD0 D sD √ n
=
7.0 − 0 8.0 √ 8
= 2.47
Z distribuˇcn´ı funkce Studentova t-rozdˇelen´ı z´ısk´ame pravdˇepodobnost 1 − Ft (2.47) = 0.021, kterou vyn´asob´ıme dvˇema, jelikoˇz se jedn´a o dvoustrannou alternativu. Hodnota 0.043 je niˇzˇs´ı neˇz stanoven´a hladina v´ yznamnosti α = 0.05, a tedy m˚ uˇzeme zam´ıtnout nulovou hypot´ezu a konstatovat, ˇze jsme pozorovali signifikantn´ı zlepˇsen´ı ve v´ ysledc´ıch testu. Urˇcit´a odliˇsnost m˚ uˇze nastat pˇri stanovov´an´ı m´ıry u ´ˇcinku. Zvolit lze klasick´ y postup, kter´ y jsme pouˇzili u t-testu pro jeden v´ ybˇer. V naˇsem pˇr´ıpadˇe tedy d=
¯ − µD0 D 7.0 − 0 = = 0.875. sD 8.0
Mohli bychom vˇsak nam´ıtnout, jestli bylo vhodn´e pouˇz´ıt smˇerodatnou odchylku vypoˇc´ıtanou na sloupci zlepˇsen´ı (D), kter´a kvantifikuje rozmanitost u ´ˇcinku techniky. Sv´e opodstatnˇen´ı by totiˇz mohla m´ıt i smˇerodatn´a odchylka vypoˇc´ıtan´a na hodnot´ach prvn´ıho mˇeˇren´ı (X), jelikoˇz ta vyjadˇruje rozmanitost sledovan´eho znaku v naˇsem souboru pˇred naˇsim z´akrokem. Pokud bychom ˇsli touto cestou, z´ıskali bychom m´ıru u ´ˇcinku: d=
¯ − µD0 D 7.0 − 0 = 0.797. = sX 8.78
ˇ eji se pouˇz´ıv´a prvn´ı varianta. V pˇr´ıpadˇe, ˇze s´ahneme po druh´e, je vhodn´e na to Castˇ ˇcten´aˇre upozornit a sv´e rozhodnut´ı zd˚ uvodnit. 5.4.2
T-test pro dva nez´ avisl´ e v´ ybˇ ery a Welch˚ uv test
ˇ Rada v´ yzkumn´ ych design˚ u p´arov´a mˇeˇren´ı neumoˇzn ˇuje. Pˇredstavme si tˇreba, ˇze si pokl´ad´ame ot´azku, jestli se u lid´ı, kteˇr´ı v posledn´ım roce prodˇelali autonehodu, ˇcastˇeji vyskytuj´ı noˇcn´ı m˚ ury neˇz u tˇech, kter´ ym se nic takov´eho nestalo. Pokud bychom chtˇeli pouˇz´ıt p´arov´ y test, nejsp´ıˇs bychom zmˇeˇrili v´ yskyt noˇcn´ıch m˚ ur u skupiny lid´ı, kteˇr´ı autonehodu 104
neprodˇelali, pak bychom se jim museli vloupat do gar´aˇze, poˇskodit brzdy na autˇe a za nˇejakou dobu bychom provedli druh´e mˇeˇren´ı. Takov´ y design by vˇsak zˇrejmˇe ˇz´adn´a etick´a komise neschv´alila. A to jeˇstˇe neuvaˇzujeme designy, kter´e by mˇely za u ´kol srovn´avat tˇreba muˇze a ˇzeny. Tyto pˇr´ıpady ˇreˇs´ı t-test pro dva nez´avisl´e v´ ybˇery. Jak n´azev napov´ıd´a, budeme pracovat s dvˇema n´ahodn´ ymi v´ ybˇery, kter´e jsou nez´avisl´e – mus´ı tedy platit nejen to, ˇze uvnitˇr kaˇzd´eho v´ ybˇeru jsou jednotliv´a mˇeˇren´ı nez´avisl´a, ale tato podm´ınka mus´ı b´ yt splnˇena napˇr´ıˇc obˇema skupinami. Typicky by se mohlo jednat o hodnoty, kter´e jsme namˇeˇrili na dvou skupin´ach (n´ahodnˇe vybran´ ych) lid´ı. Kromˇe nez´avislosti tento druh t-testu vych´az´ı z nˇekolika dalˇs´ıch pˇredpoklad˚ u. Pokud sledovanou n´ahodnou veliˇcinu v prvn´ım souboru o rozsahu n pozorov´an´ı pojmenujeme X a v druh´em souboru o m pozorov´an´ı Y , pak bychom poˇzadovali, aby platilo X ∼ N (µX , σ 2 ),
Y ∼ N (µY , σ 2 ).
Pˇredpokl´ad´ame tedy, ˇze sledovan´e n´ahodn´e veliˇciny v prvn´ım i druh´em souboru maj´ı norm´aln´ı rozdˇelen´ı s nezn´am´ ymi stˇredn´ımi hodnotami a nezn´am´ ymi rozptyly. Pro rozptyly vˇsak mus´ı platit to, ˇze aˇc jejich velikost nezn´ame, tak jsou u veliˇciny X i Y stejn´e. Oboustrann´a alternativn´ı a nulov´a hypot´eza bude zn´ıt HA : µX 6= µY
H0 : µX = µY .
¯ a Y¯ , jejichˇz vlastPˇri tvorbˇe testov´e statistiky vyjdeme opˇet z aritmetick´ ych pr˚ umˇer˚ uX ¯ ∼ N µX , 1 σ 2 a nosti dobˇre zn´ame. Pokud jsme dodrˇzeli vˇsechny pˇredpoklady, v´ıme ˇze X n 1 2 ¯ Y ∼ N µY , m σ . Za platnosti nulov´e hypot´ezy (tedy kdyˇz µX = µY ) by pak pro n´ahodnou ¯ − Y¯ platilo veliˇcinu X ¯ − Y¯ ∼ N X
1 1 µX − µY , σ 2 + σ 2 n m
1 1 2 ∼ N 0, σ · + n m
Pokud bychom znali hodnotu parametru σ 2 , mohli bychom ted’ v´ yklad ukonˇcit a odk´azat se na tabulku s hodnotami norm´aln´ıho rozdˇelen´ı, jelikoˇz obecnˇe norm´an´ı rozdˇelen´ı dok´aˇzeme transformovat na normovan´e norm´aln´ı rozdˇelen´ı odeˇcten´ım stˇredn´ı hodnoty a vydˇelen´ım smˇerodatnou odchylkou. Hodnota σ 2 je vˇsak nezn´am´a a my ji potˇrebujeme odhadnout. Rozptyl tradiˇcnˇe odhadujeme pomoc´ı v´ ybˇerov´eho rozptylu a ani zde tomu nebude jinak. M´ame vˇsak k dispozici dva soubory, ot´azkou proto je, jak z nich z´ıskat jedin´ y odhad rozptylu. To, co by n´as zˇrejmˇe napadlo jako prvn´ı, a uk´aˇze se to b´ yt velmi ˇspatn´ ym n´apadem, je oba soubory slouˇcit a spoˇc´ıtat odhad rozptylu na vˇsech hodnot´ach X a Y dohromady bez ohledu na skupinu. Z´adrhel je vˇsak v tom, ˇze tento odhad rozptylu by sice 105
zohledˇ noval rozmanitost v prvn´ı a v druh´e skupinˇe (coˇz chceme), ale tak´e rozd´ılnost obou skupin (coˇz necheme). Pˇredstavme si, ˇze m´ame dva maliˇck´e soubory, kaˇzd´ y o tˇrech hodnot´ach. V prvn´ı trojici jsou hodnoty 2, 3, 4 a v druh´e 102, 103, 104. Kdyˇz spoˇc´ıt´ame v´ ybˇerov´ y rozptyl pro prvn´ı a pak pro druhou skupinu, najdeme v obou pˇr´ıpadech hodnotu 1. Nejpˇresnˇejˇs´ım odhadem by byla tedy jedniˇcka. Pokud bychom vˇsak obˇe skupiny slouˇcili (2, 3, 4, 102, 103, 104), z´ısk´ame pˇremrˇstˇen´ y odhad rozptylu nˇeco pˇres 3000. Je tedy zjevn´e, ˇze tento postup ˇzalostnˇe selh´av´a. Spr´avn´ ym ˇreˇsen´ım by bylo spoˇc´ıtat odhady rozptylu pro prvn´ı a druhou skupinu zvl´aˇst’ a celkov´ y odhad z´ıskat jako v´aˇzen´ y pr˚ umˇer tˇechto odhad˚ u. Jako v´ahy nepouˇzijeme rozsahy soubor˚ u, ale stupnˇe volnosti, kter´e jsme vyuˇz´ıvali pˇri v´ ypoˇctu rozptylu, tedy n−1 a m−1. Spoleˇcn´ y odhad rozptylu (znaˇcme S∗2 ) pak spoˇc´ıt´ame z odhad˚ u rozptyl˚ u jednotliv´ ych skupin SX2 a SY2 jako S∗2 =
SX2 · (n − 1) + SY2 · (m − 1) . n+m−2
Je zjevn´e, ˇze pokud jsou soubory stejn´eho rozsahu, m˚ uˇzeme odhady rozptylu jednoduˇse zpr˚ umˇerovat bez v´aˇzen´ı. Pro spoleˇcn´ y odhad rozptylu plat´ı
S∗2 (n+m−2) σ2
´vahy je jiˇz velmi ∼ χ2(n+m−2) . Zbytek u
jednoduch´ y a je analogi´ı k postupu, kter´ y jsme pouˇzili pˇri odvozen´ı jednov´ ybˇerov´eho t2 ¯ − Y¯ s norm´aln´ım rozdˇelen´ım a veliˇcinu S , z n´ıˇz m˚ uˇzeme testu. N´ahodnou veliˇcinu X ∗ z´ıskat rozdˇelen´ı χ2(n+m−2) , zkombinujeme v testov´e statistice T , kter´a m´a Studentovo t rozdˇelen´ı s n + m − 2 stupni volnosti. Nalezen´a testov´a statistika m´a tedy podobu T =
¯ − Y¯ X q S∗ · n1 +
1 m
∼ t(n+m−2) .
Test opˇet m˚ uˇzeme pouˇz´ıt v pˇr´ıpadˇe jak jednostrann´ ych tak dvoustrann´ ych alternativn´ıch hypot´ez. Kritick´ y obor bychom pro dvoustrannou alternativu stanovili jako − ∞, t α2 (n + m − 2) ∪ t1− α2 (n + m − 2), ∞ . Zmiˇ nme jeˇstˇe dva poznatky, kter´e sice vypl´ yvaj´ı z v´ yˇse uveden´eho, nicm´enˇe ˇcasto bud´ı ve studentech nejistotu: • T-test pro dva nez´avisl´e v´ ybˇery lze pouˇz´ıt na v´ ybˇery o libovolnˇe mal´em rozsahu (samozˇrejmˇe za pˇredpokladu, ˇze dok´aˇzeme spoˇc´ıtat v´ ybˇerov´ y rozptyl, tedy alespoˇ n dvˇe pozorov´an´ı v kaˇzd´em souboru potˇrebujeme). Limity, na kter´e nar´aˇz´ıme, by se net´ ykaly metody jako takov´e, ale sp´ıˇs metodologie (tzn. m˚ uˇze b´ yt tak mal´ y soubor reprezentativn´ı?) a klesaj´ıc´ı s´ıly testu (viz kapitola 5.5). 106
• Soubory, se kter´ ymi pracujeme, nemus´ı b´ yt nutnˇe stejnˇe velk´e. Je nicm´enˇe pravdou, ˇze pokud m´ame k dispozici napˇr´ıklad 100 mˇeˇren´ı, tak test bude spolehlivˇejˇs´ı, pokud budou rozdˇeleny v pomˇeru 50 a 50 pˇr´ıpad˚ u neˇz tˇreba 90 a 10. Rozd´ıl vˇsak nebude citeln´ y vyjma pˇr´ıpad˚ u extr´emnˇe nevyv´aˇzen´ ych skupin (napˇr. 3 a 97).
Ukazatelem m´ıry u ´ˇcinku pro t-test pro dva nez´avisl´e v´ ybˇery je takzvan´e Cohenovo d nesouc´ı jm´eno psychometrika a pr˚ ukopn´ıka mˇer u ´ˇcinku Jacoba Cohena. Logika tohoto ukazatele je pˇresnˇe stejn´a jako v pˇredchoz´ıch pˇr´ıpadech. Spoˇc´ıt´ame rozd´ıl mezi pr˚ umˇery obou skupin a standardizujeme jej pomoc´ı (spoleˇcn´e) smˇerodatn´e odchylky S∗2 . Vzorec pro jeho v´ ypoˇcet by tedy vypadal n´asledovnˇe22 : d=
x¯ − y¯ . s∗
Statistick´e programy standardnˇe Cohenovo d neuv´ad´ı. Chceme-li zpˇetnˇe dopoˇc´ıtat jeho hodnotu, m˚ uˇzeme ji z´ıskat pˇr´ımo ze statistiky t a rozsah˚ u soubor˚ u n a m pomoc´ı vztahu23 r d=t·
1 1 + . n m
Kdyˇz jsme odvozovali t-test pro dva nez´avisl´e v´ ybˇery, pˇredpokl´adali jsme kromˇe nez´avislosti jednotliv´ ych mˇeˇren´ı tak´e norm´aln´ı rozdˇelen´ı n´ahodn´ ych veliˇcin a to, ˇze maj´ı stejn´ y rozptyl. Posledn´ı zmiˇ novanou podm´ınku se n´am vˇsak ˇcasto nedaˇr´ı dodrˇzet. Zejm´ena tehdy, kdyˇz prov´ad´ıme urˇcitou intervenci a srovn´av´ame jej´ı dopad v kontroln´ı a experiment´aln´ı skupinˇe, ˇcasto pozorujeme zv´ yˇsen´ı rozptylu v experiment´aln´ı skupinˇe. Tyto nedostatky ˇreˇs´ı Welch˚ uv test zn´am´ y t´eˇz pod n´azvem t-test pro dva nez´ avisl´ e v´ ybˇ ery bez pˇ redpokladu stejn´ ych rozptyl˚ u. Pˇri jeho odvozen´ı vyjdeme z velmi podobn´ ych pˇredpoklad˚ u jako u t-testu pro dva nez´avisl´e v´ ybˇery: X ∼ N (µX , σX2 ),
Y ∼ N (µY , σY2 ).
Rozd´ıl je pouze v tom, ˇze nemus´ı nutnˇe platit tvrzen´ı σX2 = σY2 , tedy n´ahodn´e veliˇciny v jedn´e a druh´e skupinˇe m˚ uˇzou b´ yt r˚ uznˇe variabiln´ı. Testovou statistiku opˇet odvod´ıme 22 Aby situace nebyla tak jednoduch´ a, v literatuˇre nar´aˇz´ıme na nˇekolik dalˇs´ıch variant t´eto statistiky. Jde zejm´ena oqzp˚ usob, jak´ ym poˇc´ıtat spoleˇcnou smˇerodatnou odchylku. Nˇekteˇr´ı autoˇri ji poˇc´ıtaj´ı podle SX2 ·(n−1)+SY2 ·(m−1) vzorce S∗ = , kter´ y vede k pˇresnˇejˇs´ımu avˇsak vych´ ylen´emu odhadu parametru σ. n+m Abychom vˇsak byli konzistentn´ı se vzorcem pro v´ ypoˇcet t-testu a tak´e zbytkem tohoto textu, budeme pouˇz´ıvat nevych´ ylen´ y odhad (v´ıc o takzvan´ v´ ybˇerov´em a populaˇcn´ım rozptylu viz 4.2.2). Tu a tam q 2 em SX +SY2 m˚ uˇzeme tak´e zahl´ednout vzorec S∗ = . Ten by vedl ke spr´avn´emu v´ ysledku pouze tehdy, pokud 2 by obˇe srovn´ avan´e skupiny mˇely stejn´ y rozsah. 23 ˇ Cten´ aˇri nedoporuˇcujeme pro pˇrevod t na d pouˇz´ıvat online kalkul´atory. Velmi ˇcasto nejsou autoˇri konzistentn´ı s definic´ı m´ıry u ´ˇcinku, kterou sami uv´ad´ı, a ˇcasto vol´ı pˇribliˇzn´e metody. Setk´av´ame se 2t , jej´ıˇz logiku ani p˚ uvod se nepodaˇrilo autorovi tˇechto skript vyp´atrat. napˇr´ıklad s formul´ı d = √n+m−2
107
¯ ∼ N µX , 1 σ 2 a Y¯ ∼ N µY , 1 σ 2 . z rozd´ıl˚ u aritmetick´ ych pr˚ umˇer˚ u, pro kter´e plat´ı X X Y n m Budeme-li pˇredpokl´adat platnost nulov´e hypot´ezy (H0 : µX = µY ), pak zjist´ıme, ˇze σ2 σ2 1 2 1 2 ¯ ¯ X − Y ∼ N µX − µY , σX + σY ∼ N 0, X + Y . n m n m Stejnˇe jako v minul´em pˇr´ıpadˇe z rozd´ılu pr˚ umˇer˚ u a odhadu jejich rozptylu vytvoˇr´ıme testovou statistiku, kter´a m´a Studentovo t rozdˇelen´ı s ν stupni volnosti: ¯ − Y¯ X T =q 2 ∼ tν . SX SY2 + n m Urˇcitou komplikac´ı je stanoven´ı poˇctu stupˇ n˚ u volnosti ν. Pouˇz´ıv´ame k tomu pomˇernˇe krkolomn´ y odhad SY2 2 SX2 + ν = S2 n2 mS2 2 . X n
n−1
+
Y m
m−1
D´ale pracujeme s Welchov´ ym testem stejn´ ym zp˚ usobem jako s t-testem pro dva nez´avisl´e v´ ybˇery. Welch˚ uv test nen´ı tak popul´arn´ı jako t-test. D˚ uvody nejsou zcela jasn´e – za dodrˇzen´ı vˇsech pˇredpoklad˚ u je sice t-test zanedbatelnˇe silnˇejˇs´ı, Welch˚ uv test je vˇsak robustnˇejˇs´ı a ˇ nen´ı sv´az´an ˇcasto poruˇsovanou podm´ınkou stejn´ ych rozptyl˚ u. Rada statistik˚ u se pˇrikl´an´ı k n´azoru, ˇze Welch˚ uv test by mˇel b´ yt testem prvn´ı volby a t-test jen speci´aln´ım pˇr´ıpadem, kter´ y pouˇz´ıv´ame tehdy, kdyˇz si jsme jist´ı shodou rozptyl˚ u (nebo kdyˇz m´ame stejnˇe rozs´ahl´e soubory – tehdy nen´ı ani t-test ovlivnˇen´ y rozd´ıln´ ymi rozptyly). Ve skuteˇcnosti m´a Welch˚ uv test jeˇstˇe jeden nedostatek, kter´ y se vˇsak v praxi nijak neprojevuje. Na rozd´ıl od t-testu se jedn´a o pˇribliˇzn´ y test a nalezen´a p-hodnota nen´ı matematicky zcela pˇresn´a. V pˇr´ıpadˇe, ˇze bychom chtˇeli uv´est m´ıru u ´ˇcinku pro rozd´ıl mezi pr˚ umˇery dvou nez´avisl´ ych v´ ybˇer˚ u s rozd´ıln´ ymi rozptyly, m˚ uˇzeme opˇet pouˇz´ıt Cohenovo d. M˚ uˇzeme se t´ım vˇsak dopustit urˇcit´eho zkreslen´ı, jelikoˇz pˇri v´ ypoˇctu pˇredpokl´ad´ame shodu rozptyl˚ u. Vhodnou alternativou by mohla b´ yt statistika s n´azvem Glassova ∆ (delta). Logika tohoto ukazatele i jeho intepretace je stejn´a jako u Cohenova d, m´ısto spoleˇcn´e smˇerodatn´e odchylky vˇsak pouˇzijeme smˇerodatnou odchylku z jedin´e skupiny, obvykl´e t´e, kterou oznaˇcujeme za kontroln´ı (tedy SY ). Vzorec pro v´ ypoˇcet by tedy vypadal n´asledovnˇe: ∆=
¯ − Y¯ X . SY
108
5.4.3
Test rozptylu a F-test
Ne vˇzdy n´as zaj´ımaj´ı pouze stˇredn´ı hodnoty n´ahodn´ ych veliˇcin, s nimiˇz pracujeme. Nˇekter´e hypot´ezy, kter´e pˇri v´ yzkumu formulujeme, se t´ ykaj´ı dalˇs´ıch charakteristik n´ahodn´ ych veliˇcin. V t´eto kapitole se sezn´am´ıme s pˇr´ıpady, jak testovat hypot´ezy t´ ykaj´ıc´ı se rozptylu n´ahodn´ ych veliˇcin s norm´aln´ım rozdˇelen´ım. Zaˇcnˇeme od pomˇernˇe prost´eho pˇr´ıpadu, kdy chceme rozhodnout, jestli m´a n´ahodn´a veliˇcina X rozptyl roven nˇejak´e stanoven´e hodnotˇe σ02 . Pracovali bychom tedy s n´asleduj´ıc´ı alternativou a nulovou hypot´ezou: HA : σ 2 6= σ02 ,
H0 : σ 2 = σ02 .
Situace se v´ yraznˇe zjednoduˇs´ı, pokud zn´ame tvar rozdˇelen´ı n´ahodn´e veliˇciny X. Budeme pˇredpokl´adat, ˇze X ∼ N (µ, σ 2 ). Testovou statistiku odvod´ıme z v´ ybˇerov´eho rozptylu P 2 1 ¯ 2 S 2 = n−1 sli k poznatku, ˇze v´ ybˇerov´ y rozptyl i=1 (Xi − X) . V kapitole (4.3.1) jsme doˇ za dan´eho pˇredpokladu po vyn´asoben´ı stupni volnosti a vydˇelen´ı skuteˇcn´ ym rozptylem m´a rozdˇelen´ı χ2n−1 . Rozdˇelen´ı χ2 je n´am zn´am´e a hodnoty jeho distribuˇcn´ı funkce jsou k dispozici. Jako testovou statistiku V tedy m˚ uˇzeme pouˇz´ıt tvar V =
S 2 (n − 1) ∼ χ2(n−1) . σ02
Pro v´ ypoˇcet p-hodnoty bychom pouˇzili rozdˇelen´ı χ2 a kritick´e obory bychom stanovili jako 0, χ2α (n − 1) ∪ χ21− α (n − 1), ∞ . 2
2
Tento test nejsp´ıˇs nevyuˇzijeme pˇr´ıliˇs ˇcasto, zmiˇ nujeme jej sp´ıˇse pro u ´plnost. S´ahli bychom po nˇem tˇreba tehdy, kdyˇz bychom si kladli ot´azku, jestli ˇza´ci z´akladn´ı ˇskoly pro nadan´e dˇeti maj´ı stejnˇe rozmanit´e IQ jako bˇeˇzn´a populace (tedy σ0 = 15). Za ukazatel m´ıry u ´ˇcinku bychom mohli zvolit pomˇer pozorovan´e smˇerodatn´e odchylky a oˇcek´avan´e smˇerodatn´e odchylky, tedy
S . σ0
Mnohem ˇcastˇeji nar´aˇz´ıme na probl´em, kdy chceme srovnat rozptyly u dvou nez´avisl´ ych n´ahodn´ ych v´ ybˇer˚ u. Za pˇredpokladu, ˇze n´ahodn´e veliˇciny, s nimiˇz pracujeme, maj´ı norm´aln´ı rozdˇelen´ı, m˚ uˇzeme pouˇz´ıt Fisher˚ uv F test. Pˇri konstrukci testov´e statistiky vyjdeme z v´ ybˇerov´ ych rozptyl˚ u SX2 a SY2 (p´ısmeny X a Y znaˇcme n´ahodn´e veliˇciny v prvn´ım a druh´em v´ ybˇeru o rozsaz´ıch n a m). Nulov´a hypot´eza, jej´ıˇz platnost budeme testovat, a oboustrann´a alternativa by znˇely HA : σX2 6= σY2
H0 : σX2 = σY2 .
Na rozd´ıl od test˚ u stˇredn´ı hodnoty se vˇsak nebudeme t´azat, o kolik se od sebe rozptyly liˇs´ı, ale kolikr´at je jeden vˇetˇs´ı (menˇs´ı) neˇz ten druh´ y. K dispozici m´ame dvˇe nez´avisl´e 109
n´ahodn´e veliˇciny, kter´e maj´ı rozdˇelen´ı χ2 . Vr´at´ıme-li se ke kapitole (2.7), kde shrnujeme spojit´a rozdˇelen´ı pravdˇepodobnosti, zjist´ıme, ˇze vhodn´ ym kandid´atem pro rozdˇelen´ı testov´e statistiky je Fisherovo F rozdˇelen´ı definovan´e jako
χ2ν /ν . χ2ϕ /ϕ
Podobu testov´e statistiky
z´ısk´ame tak, ˇze do t´eto definice dosad´ıme veliˇciny VX a VY (viz v´ yˇse):
F =
χ2ν ν χ2ϕ ϕ
=
VX n−1 VY m−1
2 (n−1) SX σ2
=
n−1 S 2 (m−1) Y σ2
=
SX2 ∼ Fn−1,m−1 . SY2
m−1
Zjistili jsme tedy, ˇze pod´ıl dvou nez´avisl´ ych v´ ybˇerov´ ych rozptyl˚ u m´a rozdˇelen´ı F. Testov´a statistika bude m´ıt proto nezvykle jednoduch´ y tvar SX2 F = 2 ∼ Fn−1,m−1 SY Pro stanoven´ı p-hodnoty bychom tedy vyuˇzili F rozdˇelen´ı s n − 1 a m − 1 stupni volnosti (poˇrad´ı stupˇ n˚ u volnosti nejde zamˇenit, prvn´ı hodnota vˇzdy patˇr´ı k ˇcitateli a druh´a ke jmenovateli). Kritick´ y obor pro oboustrannou alternativu m´a tvar W = (0, F α2 (n−1,m−1) ] ∪ [F1− α2 (n−1,m−1) , ∞). Pro F test se bˇeˇznˇe neuv´ad´ı ˇza´dn´ y ukazatel m´ıry u ´ˇcinku. D˚ uvodem m˚ uˇze b´ yt to, ˇze tento test samostatnˇe vyuˇz´ıv´ame jen zˇr´ıdka – ke slovu ˇcastˇeji pˇrich´az´ı pˇri pr´aci s line´arn´ımi modely, kter´e maj´ı vlastn´ı m´ıry u ´ˇcinku. Pokud nutnˇe nˇejak´ y ukazatel m´ıry u ´ˇcinku potˇrebujeme, m˚ uˇzeme pouˇz´ıt samotnou statistuku F (tzn. pomˇer rozptyl˚ u) nebo jej´ı odmocninu (pomˇer smˇerodatn´ ych odchylek), coˇz je pro ˇclovˇeka zˇrejmˇe intuitivnˇejˇs´ı varianta. V ˇradˇe text˚ u najdeme doporuˇcen´ı pouˇz´ıvat F test pˇri rozhodov´an´ı mezi t-testem pro dva nez´avisl´e v´ ybˇery a Welchov´ ym testem. Logika by byla takov´a, ˇze kdyˇz pomoc´ı F testu zam´ıtneme hypot´ezu o shodˇe rozptyl˚ u, s´ahneme po Welchovˇe testu, pokud k zam´ıtnut´ı nedojde, pouˇzijeme t-test. Navzdory tradici tento postup nelze ˇcten´aˇri pauˇsa´lnˇe doporuˇcit, a to hned ze dvou d˚ uvod˚ u. Prvn´ı je ten, ˇze F test je mimoˇr´adnˇe n´achyln´ y na poruˇsen´ı pˇredpokladu norm´aln´ıho rozdˇelen´ı (vzpomeˇ nme, jak citlivˇe reaguje rozptyl na pˇr´ıtomnost outlier˚ u). Tento probl´em by bylo moˇzn´e pˇrekonat pomoc´ı o pozn´an´ı robustnˇejˇs´ıho Leveneova testu (viz 5.4.5). Z´avaˇznˇejˇs´ı je vˇsak n´amitka pramen´ıc´ı ze samotn´e logiky testov´an´ı nulov´ ych hypot´ez. F test n´am d´a odpovˇed’ bud’ existuje rozd´ıl v rozptylech“ nebo ” nev´ıme“. Odpovˇed’ nev´ıme“ bychom tedy ch´apali jako d˚ ukaz o shodˇe rozptyl˚ u, kter´ y ” ” ospravedlˇ nuje pouˇzit´ı t-testu. Jak moc se tento postup pˇr´ıˇc´ı logice, nech´ame na posouzen´ı samotn´eho ˇcten´aˇre, pravdou vˇsak je, ˇze ˇrada simulaˇcn´ıch studi´ı doch´az´ı k z´avˇeru, ˇze v pˇr´ıpadˇe nejistoty je nejlepˇs´ı cestou neprov´adˇet F test, ale s´ahnout rovnou po Welchovˇe testu. 110
5.4.4
Testy korelaˇ cn´ıho koeficientu
V´ yzkumn´e hypot´ezy se ˇcasto t´ ykaj´ı nejen rozd´ıl˚ u mezi skupinami, ale i souvislost´ı mezi sledovan´ ymi veliˇcinami. M˚ uˇzeme tˇreba zkoumat, jestli s poˇctem ujet´ ych kilometr˚ u vol´ı ˇridiˇc bezpeˇcnˇejˇs´ı styl j´ızdy, jestli se vˇetˇs´ı emoˇcn´ı stabilita prom´ıtne na polygrafu niˇzˇs´ı tˇelesnou reakc´ı na stresor, nebo jestli dˇeti, kter´e konzumuj´ı v´ıce cukru, maj´ı vˇetˇs´ı probl´emy udrˇzet pozornost. M´ıru z´avislosti mezi dvˇema kvantitativn´ımi znaky jsme se v kapitole (3.7.2) nauˇcili vyˇc´ıslit pomoc´ı Pearsonova korelaˇcn´ıho koeficientu. Budeme-li mˇeˇren´ı opakovat, zjist´ıme, ˇze odhad korelaˇcn´ıho koeficientu n´ahodnˇe kol´ıs´a, a bezesporu tedy jde o n´ahodnou veliˇcinu, kter´a m´a urˇcit´e rozdˇelen´ı pravdˇepodobnosti. Toto rozdˇelen´ı nepatˇr´ı mezi ˇza´dn´e z n´am d˚ uvˇernˇe zn´am´ ych rozdˇelen´ı, existuj´ı vˇsak hned dva zp˚ usoby, jak jej na zn´am´e rozdˇelen´ı transformovat. Prvn´ı a nejˇcastˇeji pouˇz´ıvanou metodou je test korelaˇ cn´ıho koeficientu pomoc´ı t distribuce. Mˇejme nulovou hypot´ezu H0 : ρ = 0 a alternativu HA : ρ 6= 0, kde ρ pˇredstavuje skuteˇcnou hodnotu korelaˇcn´ıho koeficientu n´ahodn´ ych veliˇcin. Za platnosti nulov´e hypot´ezy a pˇredpokladu norm´aln´ıho rozdˇelen´ı sledovan´ ych veliˇcin plat´ı vztah √ R n − 2 ∼ tn−2 . T =√ 1 − R2 Pearson˚ uv korelaˇcn´ı koeficient namˇeˇren´ y na n p´arech hodnot m˚ uˇzeme tedy pˇrev´est na statistiku T , kter´a m´a Studentovo t rozdˇelen´ı s n − 2 stupni volnosti. Toto tvrzen´ı bohuˇzel s naˇsimi znalostmi neum´ıme dok´azat. Vˇsimnˇete si, ˇze k v´ ypoˇctu p-hodnoty staˇc´ı (kromˇe tabulek) jen znalost Pearsonova korelaˇcn´ıho koeficientu r a rozsahu souboru n. D´ıky tomu bychom mohli rovnou tabelovat kritick´e hodnoty pro hodnotu r pˇri dan´em rozsahu souboru, ˇcehoˇz se pˇred n´astupem poˇc´ıtaˇc˚ u hojnˇe vyuˇz´ıvalo. Kritick´ y obor pro dvoustrannou hypot´ezu m˚ uˇzeme stanovit jako W = (−∞, t α2 (n − 2)] ∪ [t1− α2 (n − 2), ∞). Pearson˚ uv korelaˇcn´ı koeficient s´am o sobˇe splˇ nuje poˇzadavky pro m´ıru u ´ˇcinku. Pˇr´ıpadnˇe jej m˚ uˇzeme pˇrev´est na takzvan´ y koeficient determinance, kter´ y vypoˇc´ıt´ame jako druhou mocninu korelaˇcn´ıho koeficientu, tedy r2 . Tento ukazatel m´a pomˇernˇe elegantn´ı definici – znaˇc´ı procento rozptylu, kter´e spolu korelovan´e veliˇciny sd´ıl´ı. Jeho hodnota m˚ uˇze pochopitelnˇe kol´ısat od 0 do 1. V´ yˇse uveden´e poznatky plat´ı beze zmˇeny i pro bodovˇe-biseri´aln´ı korelaˇcn´ı koeficient, kter´ y poˇc´ıt´ame na jedn´e dichotomick´e a jedn´e metrick´e promˇenn´e. Na stejn´ y probl´em se tak m˚ uˇzeme d´ıvat ze dvou u ´hl˚ u – jako na rozd´ıl mezi dvˇema skupinami nebo jako na souvislost mezi dvˇema promˇenn´ ymi. Stejnou hypot´ezu tedy m˚ uˇzeme ovˇeˇrovat pomoc´ı dvou statistick´ ych test˚ u vyuˇz´ıvaj´ıc´ıch rozdˇelen´ı t – t-testu pro dva nez´avisl´e v´ ybˇery a 111
testu Pearsonova korelaˇcn´ıho koeficientu. Hodnota t i z n´ı odvozen´a p-hodnota bude pro oba pˇr´ıpady stejn´a. Z toho plyne zaj´ımav´ y postˇreh a to, ˇze t, r a Cohenovo d m˚ uˇzeme mezi sebou volnˇe pˇrev´adˇet24 . Prezentujeme-li v´ ysledky testu Pearsonova korelaˇcn´ıho koeficientu pomoc´ı statistiky T , obvykle uv´ad´ıme jen hodnotu r, stupnˇe volnosti a p-hodnotu. Napˇr.: Obˇe vedlejˇs´ı ˇsk´aly dotazn´ıku jsou silnˇe korelovan´e, r(48) = 0.71, p < 0.001. Druh´a metoda testov´an´ı v´ yznamnosti Pearsonova korelaˇcn´ıho koeficientu vyuˇz´ıv´a Fisherovu transformaci r na z (angl. r-to-z transformation). Tato transformace n´am umoˇzn ˇuje pˇrev´est n´ahodnou veliˇcinu R na veliˇcinu Z s norm´aln´ım rozdˇelen´ım dle vztahu 1 1+R 1 1+ρ 1 Z = ln ∼N ln , , 2 1−R 2 1−ρ n−3 kde ln oznaˇcuje pˇrirozen´ y logaritmus. V pˇr´ıpadˇe, ˇze plat´ı nulov´a hypot´eza (tedy ρ0 = 0), pak m´a veliˇcina r rozdˇelen´ı Z ∼ N 0,
1 . n−3
Z tohoto vztahu snadno odvod´ıme testovou statistiku U : Z U=q
√ = Z n − 3 ∼ N (0, 1),
1 n−3
z n´ıˇz z´ısk´ame p-hodnotu pomoc´ı distribuˇcn´ı funkce normovan´eho norm´aln´ıho rozdˇelen´ı. Test pomoc´ı Fisherovy transformace je jen pˇribliˇzn´ y. N´ahodn´a veliˇcina Z nem´a zcela pˇresnˇe norm´aln´ı rozdˇelen´ı, s rostouc´ım rozsahem v´ ybˇeru se k nˇemu vˇsak pˇribliˇzuje. Pro mal´e soubory a v pˇr´ıpadech, kdy se korelaˇcn´ı koeficient pˇribliˇzuje k (plus ˇci m´ınus) jedniˇcce, je test pˇr´ıliˇs konzervativn´ı a nedaˇr´ı se mu odhalit poruˇsen´ı nulov´e hypot´ezy. Obvykle proto d´av´ame pˇrednost testu pomoc´ı t distribuce. V´ yjimkou jsou dva pˇr´ıpady. Jedn´ım je situace, kdy nulov´a hypot´eza neoˇcek´av´a nulovou hodnotu korelaˇcn´ıho koeficientu, ale nˇejak´e jin´e ˇc´ıslo (napˇr. H0 : ρ = 0.5, obecnˇe ρ = ρ0 ). Z v´ yˇse uveden´eho snadno odvod´ıme obecn´ y vzorec testov´e statistiky, kter´a m´a za platnosti nulov´e hypot´ezy opˇet normovan´e norm´aln´ı rozdˇelen´ı: √ U = (Z − z0 ) n − 3 ∼ N (0, 1) 0 kde Z je nalezen´ y korelaˇcn´ı koeficient pˇreveden´ y pomoc´ı Z transformace a z0 = 12 · ln 1+ρ . 1−ρ0
24 Z tohoto zjiˇstˇen´ı plyne jeˇstˇe jeden poznatek. Vzpomeˇ nme si, ˇze t-test pro dva v´ ybˇery byl zat´ıˇzen kromˇe pˇredpokladu normality i pˇredpokladem shody rozptyl˚ u mezi skupinami. T´ımto pˇredpokladem je v´ az´ an i test Pearsonova korelaˇcn´ıho koeficientu, aˇc se o tom pˇr´ıliˇs ˇcasto nemluv´ı a obecnˇe tento pˇrepoklad b´ yv´ a pˇrehl´ıˇzen. Jde o takzvan´ y pˇredpoklad homoskedasticity, kter´ y ˇr´ık´a, ˇze s mˇen´ıc´ı se hodnotou jedn´e korelovan´e promˇenn´e se nesm´ı mˇenit rozptyl druh´e promˇenn´e.
112
Druh´ ym pˇr´ıpadem je srovn´ an´ı dvou korelaˇ cn´ıch koeficient˚ u z´ıskan´ ych ze dvou nez´avisl´ ych n´ahodn´ ych v´ ybˇer˚ u o rozsaz´ıch n a m. Postup je takov´ y, ˇze oba koeficienty pˇrevedeme na n´ahodn´e veliˇciny Z1 a Z2 pomoc´ı Fisherovy transformace. Jelikoˇz veliˇciny jsou nez´avisl´e a poch´az´ı z norm´aln´ıch rozdˇelen´ı se zn´am´ ymi rozptyly a (za platnosti nulov´e hypot´ezy) shodn´ ymi stˇredn´ımi hodnotami, pak pro testovou statistiku U plat´ı25 U=q
Z1 − Z2 1 n−3
+
∼ N (0, 1).
1 m−3
Velkou slabinou t´eto metody je jej´ı mal´a s´ıla. Pˇredstavme si situaci, kdy m´ame dvˇe skupiny ˇ o rozsaz´ıch 20 a 15 mˇeˇren´ı, u kter´ ych jsme pozorovali korelaˇcn´ı koeficienty 0.2 a 0.7. Rekli bychom, ˇze se jedn´a o pomˇernˇe velk´ y rozd´ıl nalezen´ y na souborech o nezanedbateln´ ych rozsaz´ıch. Po pˇreveden´ı na statistiky Z (Z1 = 0.20, Z2 = 0.87) a dosazen´ı do vzorce pro v´ ypoˇcet testov´e statistiky z´ısk´ame hodnotu U = 1.76 a p = 0.08. Nulovou hypot´ezu tedy nebudeme moci zam´ıtnout. V´ yˇse uveden´e poznatky plat´ı pro Pearson˚ uv korelaˇcn´ı koeficient i pro bodovˇe-biseri´aln´ı korelaˇcn´ı koeficient. V pˇr´ıpadˇe koeficientu φ a Spearmanova korelaˇcn´ıho koeficientu pouˇz´ıv´ame jin´e testov´e statistiky, kter´e budou pˇredstaveny v kapitol´ach (5.6.2) a (5.7.4). 5.4.5
Anal´ yza rozptylu pˇ ri jednoduch´ em tˇ r´ıdˇ en´ı
Vrat’me se k situaci popisovan´e v kapitole o t-testu pro dva nez´avisl´e v´ ybˇery. Srovn´avali jsme nez´avisl´e n´ahodn´e veliˇciny, u kter´ ych jsme pˇredpokl´adali norm´aln´ı rozdˇelen´ı se stejn´ ymi rozptyly σ 2 . Pracovali jsme se dvˇema soubory a sledovanou charakteristiku jsme v jedn´e skupinˇe oznaˇcili X a v druh´e Y . Co kdybychom vˇsak do studie zahrnuli v´ıc (k > 2) skupin a t´azali se, jestli sledovan´e veliˇciny maj´ı r˚ uzn´e stˇredn´ı hodnoty? N´aˇs pˇredpoklad by znˇel X1 ∼ N (µ1 , σ 2 ), X2 ∼ N (µ2 , σ 2 ), . . . , Xk ∼ N (µk , σ 2 ) a nulov´a hypot´eza by se spolu s alternativou zmˇenila do podoby H0 : µ1 = µ2 = · · · = µk , HA : µi 6= µj pro alespoˇ n jednu libovolnou kombinaci r˚ uzn´ ych i a j. T-test pro dva nez´avisl´e v´ ybˇery bychom obvykl´ ym zp˚ usobem vyuˇz´ıt nemohli. ˇ sen´ı, kter´e ˇcten´aˇre pravdˇepodobnˇe okamˇzitˇe napadlo, je prov´est s´erii Reˇ
k 2
t-test˚ u, a
otestovat tak rozd´ıly mezi vˇsemi moˇzn´ ymi dvojicemi skupin. Toto ˇreˇsen´ı skr´ yv´a ve sv´e 25
Nˇekter´e programy napˇr´ıklad STATISTICA odvozuj´ı p-hodnotu z t rozdˇelen´ı s n + m − 4 stupni volnosti, nikoli z norm´ aln´ıho rozdˇelen´ı, aby dos´ahly pˇresnˇejˇs´ı aproximace.
113
jednoduchosti jednu velkou slabinu. Pˇri kaˇzd´em testov´an´ı nulov´e hypot´ezy existuje pravdˇepodobnost (α, vˇetˇsinou 5 %), ˇze zam´ıtneme nulovou hypot´ezu, pˇrestoˇze je ve skuteˇcnosti pravdiv´a. V naˇsem pˇr´ıpadˇe by to znamenalo, ˇze odhal´ıme statisticky v´ yznamn´ y rozd´ıl mezi dvˇema veliˇcinami, kter´e maj´ı ve skuteˇcnosti stejn´e stˇredn´ı hodnoty. Pokud kaˇzd´e srovn´an´ı, co prov´ad´ıme, m´a za platnosti nulov´e hypot´ezy 5% pravdˇepodobnost selh´an´ı, pak naˇsi celkovou hypot´ezu µ1 = µ2 = · · · = µk netestujeme na 5% hladinˇe v´ yznamnosti, ale na mnohem vyˇsˇs´ı hladinˇe. Pˇri mal´em poˇctu srovn´an´ı nen´ı rozd´ıl tak markantn´ı, ale kdybychom srovn´avali 10 skupin, a provedli tedy 10 = 45 statistick´ ych test˚ u, pak by (za pˇredpokladu vz´ajemnˇe 2 . nez´avisl´ ych test˚ u) byla v´ ysledn´a hladina α rovn´a 1 − (1 − 0.05)45 = 0.90, coˇz by bezpˇeˇcnˇe pohˇrbilo vˇerohodnost z´avˇer˚ u naˇs´ı studie. Existuj´ı nejm´enˇe dvˇe cesty, jak tento probl´em ˇreˇsit. Prvn´ı je pouˇzit´ı korekce. Logika by byla takov´a, ˇze pokud v´ıme, jak´a je maxim´aln´ı m´ıra, do kter´e hladina α mohla vzr˚ ust v d˚ usledku mnohon´asobn´eho testov´an´ı, pak by staˇcilo p˚ uvodn´ı hodnotu α vhodn´ ym zp˚ usobem sn´ıˇzit, aby bylo garantov´ano, ˇze nepˇreroste nˇejakou c´ılovou mez (obvykle 5 %). Korekc´ı, kter´e lze pouˇz´ıt, byla v literatuˇre pops´ana ˇrada, nejˇcastˇeji se vˇsak setk´ame s nejtvrdˇs´ı z nich – s Bonferroniho korekc´ı. Bonferroniho korekce spoˇc´ıv´a v tom, ˇze zam´ yˇslenou hladinu α vydˇel´ıme poˇctem d´ılˇc´ıch test˚ u statistick´ ych hypot´ez, kter´e prov´ad´ıme. Pokud bychom tedy chtˇeli na 5% hladinˇe v´ yznamnosti ovˇeˇrit hypot´ezu, jestli se nˇekter´e dvˇe n´ahodn´e veliˇciny vz´ajemnˇe liˇs´ı, pak bychom jednotliv´e testy prov´adˇeli na hladinˇe α = 0.05/ k2 = 0.05/45 = 0.00¯1. Bonferroniho korekci bychom vˇsak mˇeli povaˇzovat za krajn´ı ˇreˇsen´ı. Jej´ım nejvˇetˇs´ım probl´emem je to, ˇze s nar˚ ustaj´ıc´ım poˇctem testovan´ ych hypot´ez neadekv´atnˇe rosta jej´ı s´ıla, takˇze pˇri velk´em mnoˇzstv´ı test˚ u d´ılˇc´ıch nulov´ ych hypot´ez spolehlivˇe zlikviduje ˇsanci kteroukoli z nich zam´ıtnout, tˇrebaˇze neplat´ı. Od urˇcit´eho mnoˇzstv´ı d´ılˇc´ıch test˚ u, se tak st´av´a Bonferroniho korekce nepouˇziteln´a, pokud vztahy, kter´e ovˇeˇrujeme, nejsou skuteˇcnˇe siln´e. I pˇresto je vhodn´e tento n´astroj m´ıt v arzen´alu statistick´ ych metod, jelikoˇz v ˇradˇe situac´ı nenajdeme jinou cestou, neˇz se k t´eto ponˇekud konzervativn´ı korekci uch´ ylit. V´ yhodou Bonferroniho korekce je totiˇz to, ˇze je zcela univerz´aln´ı – nez´aleˇz´ı na tom, z jak´ ych test˚ u jsme p-hodnoty z´ıskali, jde jen o to, kolik jich bylo. Situace, kdy srovn´av´ame stˇredn´ı hodnoty k n´ahodn´ ych veliˇcin, m´a vˇsak za v´ yˇse uveden´ ych pˇredpoklad˚ u jeˇstˇe jedno o mnoho elegantnˇejˇs´ı ˇreˇsen´ı, a t´ım je anal´ yza rozptylu pˇ ri jednoduch´ em tˇ r´ıdˇ en´ı26 (zkr´acenˇe ANOVA z anglick´eho analysis of vari26 Jednoduch´ ym tˇr´ıdˇen´ım se rozum´ı to, ˇze pozorov´an´ı rozdˇelujeme na z´akladˇe jedin´eho faktoru – kvalitativn´ı promˇenn´e. V budoucnu zjist´ıme, ˇze bychom mohli pod hlaviˇckou anal´ yzy rozptylu ovˇeˇrovat mnohem komplexnˇejˇs´ı hypot´ezy, v nichˇz by svou roli hr´alo v´ıce faktor˚ u. S tˇemito postupy se ale sezn´am´ıme aˇz v kontextu obecn´ ych line´ arn´ıch model˚ u.
114
ance). Anal´ yza rozptylu zkoum´a rozd´ıly ve stˇredn´ıch hodnot´ach n´ahodn´ ych veliˇcin, jak n´azev napov´ıd´a, pomoc´ı srovn´an´ı odhad˚ u rozptylu. Pouˇz´ıv´a k tomu n´apadit´ y trik. Hodnotu rozptylu σ 2 totiˇz m˚ uˇzeme odhadnout dvˇema vz´ajemnˇe nez´avisl´ ymi zp˚ usoby. Jednak lze pouˇz´ıt cestu, kterou jiˇz zn´ame z kapitoly o t-testu pro dva nez´avisl´e v´ ybˇery. Vypoˇc´ıt´ame v´ ybˇerov´ y rozptyl pro kaˇzdou skupinu pozorov´an´ı zvl´aˇst’ a tyto hodumˇerujeme pomoc´ı v´aˇzen´eho pr˚ umˇeru, kde jako v´ahy pouˇzijeme noty (S12 , S22 , . . . , Sk2 ) zpr˚ stupnˇe volnosti. Z´ıskan´ y odhad Su2 , kter´ y se tradiˇcnˇe naz´ yv´a chybov´ y rozptyl nebo rozptyl uvnitˇ r skupin, z´ısk´ame jako Su2
nj k k 1 X 1 XX 2 ¯ j )2 . = (nj − 1)Sj = (Xji − X n − k j=1 n − k j=1 i=1
kde ni jsou rozsahy jednotliv´ ych skupin a n je celkov´ y rozsah souboru. K v´ ypoˇctu druh´eho odhadu rozptylu vyuˇzijeme naˇsi znalost toho, ˇze rozptyl pr˚ umˇeru ¯ z n n´ahodn´ X ych veliˇcin je n-kr´at menˇs´ı neˇz rozptyl p˚ uvodn´ı n´ahodn´e veliˇciny X. Pokud by tedy vˇsechny skupiny byly stejnˇe velk´e (nj ), staˇcilo by z k namˇeˇren´ ych pr˚ umˇer˚ u spoˇc´ıtat v´ ybˇerov´ y rozptyl a ten vyn´asobit ˇc´ıslem nj . Opˇet z´ısk´ame nestrann´ y odhad rozptylu 2 . n´ahodn´e veliˇciny X. Tentokr´at jej nazvˇeme rozptyl mezi skupinami a znaˇcme Sm
Pokud skupiny nejsou stejnˇe velk´e, nebudeme rozsahem skupiny n´asobit v´ ysledn´ y rozptyl, ale kaˇzd´ y sˇc´ıtanec zvl´aˇst’: k
2 Sm
1 X ¯ j − X) ¯ 2. = nj (X k − 1 j=1
2 a Su2 . Prvn´ı z nich m´a k −1 M´ame tedy k dispozici dva nez´avisl´e odhady parametru σ 2 : Sm
stupˇ n˚ u volnosti a druh´ y n − k. Mezi obˇema odhady je jeˇstˇe jeden z´asadn´ı rozd´ıl: zat´ımco chybov´ y rozptyl nen´ı z´avisl´ y na platnosti nulov´e hypot´ezy, tak rozptyl mezi skupinami se zvˇetˇsuje s t´ım, jak moc se r˚ uzn´ı hodnoty µj . Dalˇs´ı postup je velmi snadn´ y. Jelikoˇz v´ıme, ˇze oba odhady rozptyl˚ u jsou nez´avisl´e27 , a jelikoˇz zn´ame jejich stupnˇe volnosti, m˚ uˇzeme jejich shodu porovnat pomoc´ı F testu, s n´ımˇz jsme se sezn´amili v kapitole (5.4.3): F =
2 Sm ∼ Fk−1,n−k Su2
Pˇri anal´ yze rozptylu pracujeme vˇzdy s jednostrannou hypot´ezou. N´ızk´e hodnoty testov´e ¯1, X ¯2 , . . . , X ¯ k jsou jeˇstˇe m´enˇe rozmanit´e, neˇz statistiky by totiˇz znamenaly, ˇze pr˚ umˇery X 27
Coˇz mimochodem nen´ı trivi´ aln´ı poznatek, d˚ ukaz tohoto tvrzen´ı vˇsak pˇrekraˇcuje u ´roveˇ n znalost´ı prezentovan´ ych v tomto textu.
115
Tabulka 7: Tabulka pro v´ ypoˇcet anal´ yzy rozptylu Zdroj rozptylu Mezi skupinami Uvnitˇr skupin Celkov´ y
Souˇcet ˇctverc˚ u ˇ (SC) Pk ¯ ¯ 2 j=1 nj (Xj − X) Pk Pnj ¯ 2 i=1 (Xji − Xj ) j=1 Pk Pnj ¯ 2 i=1 (Xji − X) j=1
Stupnˇe volnosti (s.v.)
Stˇredn´ı ˇctverec (S 2 )
F
k−1
ˇm SC s.v.m
2 Sm Su2
n−k
ˇu SC s.v.u
n−1
bychom ˇcekali, coˇz zcela jistˇe nelze interpretovat jako poruˇsen´ı nulov´e hypot´ezy. Kritick´ y obor stanov´ıme jako W = [F1−α (k − 1, n − k), ∞). V´ ypoˇcet anal´ yzy rozptylu se ˇcasto prov´ad´ı pomoc´ı tabulky, do kter´e zapisujeme zvl´aˇst’ ˇ a jejich stupnˇe volnosti a n´aslednˇe jejich pod´ıl, tedy odhad rozptylu, souˇcty ˇctverc˚ u (S C) kter´ y se v terminologii ANOVy nˇekdy naz´ yv´a stˇredn´ı ˇctverec. Kromˇe odhadu uvnitˇr skupin a mezi skupinami, m˚ uˇzeme pracovat s celkov´ym rozptylem, kter´ y bychom z´ıskali jako v´ ybˇerov´ y rozptyl vypoˇc´ıtan´ y ze vˇsech n pozorov´an´ı bez ohledu na skupinu. Celkov´ y rozptyl do v´ ypoˇctu nevstupuje, ale m˚ uˇzeme si s jeho pomoc´ı uˇsetˇrit v´ ypoˇcet jednoho ze zb´ yvaj´ıc´ıch dvou odhad˚ u rozptylu (viz n´ıˇze uveden´e vztahy). Vypoˇcet anal´ yzy rozptylu shrnuje tabulka (7). Index j pojmenov´av´a skupinu a i jednotliv´a mˇeˇren´ı uvnitˇr t´eto skupiny. Pro statistiky v tabulce plat´ı tyto vztahy: S Cˇc = S Cˇm + S Cˇu k
s.v.c = s.v.m + s.v.u
nj
nj X 1 ¯j = X Xi nj i=1
XX ¯= 1 X Xji n j=1 i=1
ANOVA pˇri jednoduch´em tˇr´ıdˇen´ı pˇredstavuje zobecnˇen´ı t-testu pro dva nez´avisl´e v´ ybˇery. Je tedy stejnˇe siln´a a zat´ıˇzen´a stejn´ ymi pˇredpoklady. Problematick´ y m˚ uˇze b´ yt pˇredpoklad stejn´eho rozptylu u vˇsech srovn´avan´ ych n´ahodn´ ych veliˇcin, jelikoˇz jeho platnost ˇcasto nem˚ uˇzeme garantovat a jeho zanedb´an´ı by mohlo v´est k znaˇcn´emu zkreslen´ı v´ ysledk˚ u. Pomoci n´am m˚ uˇze opˇet Welch˚ uv test, kter´ y je moˇzn´e zobecnit na v´ıce nez´avisl´ ych v´ ybˇer˚ u – m˚ uˇzeme jej pak oznaˇcovat jako Welchovu ANOVu. Pro tuto variantu Welchova testu plat´ı tot´eˇz, co jsme o t´eto metodˇe zmiˇ novali v kapitole (5.4.2). Pˇresn´ y postup v´ ypoˇctu Welchova testu pro v´ıce v´ ybˇeru zde nebudeme popisovat, vˇetˇsina statistick´ ych program˚ u jej vˇsak poskytuje. Aˇc nedoporuˇcujeme svˇeˇrit rozhodov´an´ı o tom, jestli je vhodn´e pouˇz´ıt ANOVu nebo jej´ı Welchovu obdobu do rukou jin´eho statistick´eho testu, kter´ y ovˇeˇr´ı hypot´ezu o rozd´ılech 116
rozptyl˚ u mezi skupinami, dvˇe metody, kter´e tuto hypot´ezu testuj´ı, zmiˇ nme. Prvn´ı je zobecnˇen´ım F testu s n´azvem Bartlett˚ uv test homogenity rozptyl˚ u28 . Pˇri dodrˇzen´ı pˇredpokladu norm´aln´ıho rozdˇelen´ı je Bartlett˚ uv test velmi citliv´ y, jiˇz pˇri mal´em poruˇsen´ı pˇredpoklad˚ u vˇsak selh´av´a, nen´ı proto ˇcasto vyuˇz´ıv´an. Ve srovn´an´ı s Bartlettov´ ym testem je o mnoho robustnˇejˇs´ı Levene˚ uv test. Opˇet jde o metodu, kter´e ovˇeˇruje nulovou hypot´ezu o shodˇe rozptyl˚ u v´ıce n´ahodn´ ych veliˇcin (H0 : σ12 = σ22 = ... = σk2 ). Metoda je ve skuteˇcnosti jen chytrou adaptac´ı ANOVy. Pˇred samotn´ ym v´ ypoˇctem od kaˇzd´e namˇeˇren´e hodnoty (Xji ) odeˇcteme pr˚ umˇer skupiny, ¯ j ), a z tohoto rozd´ıl˚ ze kter´e toto mˇeˇren´ı poch´az´ı (X u z´ısk´ame absolutn´ı hodnotu (Zji ). Tedy ¯ j |. Zji = |Xji − X Na takto transformovan´ ych hodnot´ach provedeme anal´ yzu rozptylu (nebo t-test v pˇr´ıpadˇe dvou skupin). Levene˚ uv test je v praxi hojnˇe pouˇz´ıvan´ y kv˚ uli sv´e robustnosti. Z pohledu statistika se vˇsak jedn´a o pomˇernˇe obskurn´ı postup. Zamysl´ıme-li se nad konstrukc´ı testu hloubˇeji, zjist´ıme, ˇze kv˚ uli transformaci, kterou s mˇeˇren´ımi prov´ad´ıme, ztr´ac´ıme nez´avislost jednotliv´ ych hodnot uvnitˇr kaˇzd´e skupiny. Automaticky tak poruˇsujeme jeden z nejz´asadnˇejˇs´ıch pˇredpoklad˚ u statistick´ ych test˚ u. Jak se zd´a, i pˇres tuto vadu na kr´ase metoda poskytuje d˚ uvˇeryhodn´e v´ ysledky. Anal´ yza rozptylu pˇrekon´av´a probl´em zv´ yˇsen´ı hladiny α v d˚ usledku mnohon´asobn´eho testov´an´ı. Pokud vˇsak po proveden´ı ANOVy zam´ıtneme nulovou hypot´ezu, nedostaneme odpovˇed’ na to, kter´e dvojice n´ahodn´ ych veliˇcin se sv´ ymi stˇredn´ımi hodnotami liˇs´ı. Potˇrebovali bychom metodu, kter´a identifikuje statisticky v´ yznamn´e rozd´ıly a z´aroveˇ n citlivˇe koriguje nepˇresnost vzniklou v d˚ usledku mnohon´asobn´eho testov´an´ı. Nejˇcastˇeji k tomu pouˇz´ıv´ame dva testy – Tukeyho test a Scheff´eho test. Obecnˇe tˇemto metod´am ˇr´ık´ame post-hoc testy nebo testy p´arov´eho srovn´an´ı. Princip obou tˇechto metod pˇresahuje rozsah tohoto kurzu. Zmiˇ nme vˇsak hlavn´ı rozd´ıly v jejich uˇzit´ı. Tukeyho HSD test (honest significant difference) byl p˚ uvodnˇe odvozen pouze pro situace, kdy vˇsechny skupiny maj´ı stejn´e rozsahy. V pˇr´ıpadˇe r˚ uzn´ ych rozsah˚ u se pˇri kaˇzd´em p´arov´em srovn´an´ı pouˇz´ıval menˇs´ı rozsah z obou skupin. Statistick´e programy vˇsak obvykle nab´ız´ı i variantu pro nestejn´e rozsahy (nˇekdy pod n´azvem Tukey-Kramer˚ uv test). Tukeyho test je pˇri mal´em poˇctu srovn´avan´ ych skupin velmi siln´ y. S jejich rostouc´ım poˇctem vˇsak svou citlivost ztr´ac´ı a pˇri opravdu velk´em poˇctu skupin jiˇz nepˇrin´aˇs´ı ˇza´dn´ y uˇzitek, jelikoˇz (podobnˇe jako Bonferroniho korekce) nezam´ıtne prakticky ˇza´dnou nulovou hypot´ezu bez 28 Nezamˇen ˇujte s Bartlettov´ ym testem sf´ericity, kter´ y testuje rozd´ıl mezi korelaˇcn´ı matic´ı a jednotkovou matic´ı (tedy ˇctvercovou matic´ı, kter´ a obsahuje kromˇe diagon´aly s jedniˇckami sam´e nuly).
117
ohledu na jej´ı platnost. Scheff´ eho test je slabˇs´ı neˇz test Tukeyho. Jeho korekce vˇsak vych´az´ı z ponˇekud jin´e logiky. Scheff´e dok´azal, ˇze s rostouc´ım poˇctem srovn´avan´ ych skupin (respektive u ´rovn´ı nez´avisle promˇenn´e) je sice nutn´e korigovat nalezen´e v´ ysledky ˇc´ım d´al t´ım pˇr´ısnˇeji, to vˇsak neznamen´a, ˇze pˇri astronomick´em poˇctu srovn´an´ı mus´ıme b´ yt nekoneˇcnˇe pˇr´ısn´ı a nezam´ıtat ˇza´dnou nulovou hypot´ezu. Je zde urˇcit´a hranice, kterou naˇse zpˇr´ısˇ nov´an´ı nikdy nemus´ı pˇres´ahnout. Tuto hranici Scheff´eho test vyuˇz´ıv´a a bez ohledu na poˇcet skupin poˇc´ıt´a s t´ım, ˇze budeme prov´adˇet nekoneˇcno p´arov´ ych srovn´an´ı. Pˇri mal´em poˇctu srovn´avan´ ych skupin je to sp´ıˇs na ˇskodu, ale s jejich rostouc´ım poˇctem Scheff´eho test pˇrekon´a ostatn´ı metody p´arov´eho srovn´an´ı. Pro u ´plnost zmiˇ nme, ˇze Scheff´eho test do sv´eho nekoneˇcna moˇznost´ı, s nimiˇz poˇc´ıt´a, zahrnuje i testy kontrast˚ u, tedy libovoln´ ych kombinac´ı srovn´avan´ ych stˇredn´ıch hodnot. Na rozd´ıl od Tukeyhu n´am tedy d´av´a moˇznost zkoumat hypot´ezy, jako tˇreba µ1 +µ2 = µ3 +µ4 nebo 0.3µ1 + 0.7µ3 = µ2 (zb´ yvaj´ıc´ı nekoneˇcno moˇzn´ ych line´arn´ıch kombinac´ı necht’ si ˇcten´aˇr pˇredstav´ı s´am). Testy tˇechto hypot´ez naz´ yv´ame testy kontrast˚ u, obvykle je vˇsak v praxi nevyuˇzijeme.29 Nepˇr´ıjemnou vlastnost´ı ANOVy a post-hoc test˚ u je to, ˇze se m˚ uˇzeme dostat do situace, kdy ANOVA zam´ıtne nulovou hypot´ezu, post-hoc test vˇsak nenajde signifikantn´ı rozd´ıl v ˇz´adn´em p´arov´em srovn´an´ı. Signifikantn´ı rozd´ıl zde sice existuje, ale pravdˇepodobnˇe je skryt v nˇekter´em z kontrast˚ u. Dobrou zpr´avou je to, ˇze je zcela pˇr´ıpustn´e nejprve prov´est Tukeyho test i Scheff´eho test, a teprve pak si vybrat, v´ ysledky kter´e metody budeme prezentovat. Tento postup ospravedlˇ nuje ANOVA, kterou pˇred pouˇzit´ım posthoc test˚ u mus´ıme prov´est. Pochopitelnˇe opaˇcn´a situace se st´at nem˚ uˇze, jelikoˇz post-hoc testy neprov´ad´ıme, pokud pomoc´ı ANOVy nulovou hypot´ezu nezam´ıtne. 5.4.6
Ovˇ eˇ ren´ı pˇ redpoklad˚ u a testy normality
ˇ ım pˇr´ısnˇejˇs´ımi podm´ınkami test statistick´e v´ C´ yznamnosti sv´aˇzeme, t´ım citlivˇejˇs´ı na poruˇsen´ı nulov´e hypot´ezy se metoda st´av´a. Toto je obecn´a pravda, s jej´ıˇz platnost´ı jsme se mohli sezn´amit v minul´ ych kapitol´ach – napˇr. t-test pro dva nez´avisl´e v´ ybˇery je o nˇeco citlivˇejˇs´ı neˇz Welch˚ uv test, obˇe metody totiˇz odliˇsuje podm´ınka stejn´ ych rozptyl˚ u v obou skupin´ach, kter´e je Welch˚ uv test zproˇstˇen. Jednu podm´ınku maj´ı vˇsechny parametrick´e testy, s nimiˇz jsme se sezn´amili, spoleˇcnou: pˇredpokl´adaj´ı to, ˇze zkouman´e n´ahodn´e veliˇciny maj´ı norm´aln´ı rozdˇelen´ı. 29
Zmiˇ nme jeˇstˇe jeden post-hoc test, kter´ y se ˇcasto objevuje ve statistick´ ych programech, a t´ım je Fisher˚ uv LSD test (least significant difference). Navzdory n´azvu v´ ypoˇcet tohoto testu nezahrnuje konzumaci psychotropn´ıch l´ atek. Jedn´ a se o s´erii dvouv´ ybˇerov´ ych t-test˚ u, jen s t´ım rozd´ılem, ˇze pro odhad smˇerodatn´e odchylky je pouˇzit v´ aˇzen´ y pr˚ umˇer odhad˚ u rozptyl˚ u ze vˇsech skupin, ne jen z tˇech dvou, s nimiˇz je srovn´ an´ı prov´ adˇeno. Probl´em n´ ar˚ ustu hladiny α v d˚ usledku mnohon´asobn´eho testov´an´ı tento test vˇsak nijak neˇreˇs´ı.
118
Podm´ınka normality je ztr´atou a z´aroveˇ n pˇr´ınosem. Parametrick´e testy se d´ıky n´ı m˚ uˇzou chlubit velkou statistickou s´ılou, tedy schopnost´ı citlivˇe detekovat poruˇsen´ı nulov´e hypot´ezy. Na druhou stranu z pˇr´ısnˇe matematick´eho pohledu parametrick´a statistika funguje jen a pouze tehdy, kdyˇz rozdˇelen´ı zkouman´e veliˇciny odpov´ıd´a bez nejmenˇs´ı odchylky tomu, pro kter´e bylo odvozeno. Znamen´a to tedy, ˇze bychom mˇeli zavrhnout postupy parametrick´e statistiky kdykoli nem˚ uˇzeme garantovat nepˇr´ıtomnost byt’ nepatrn´e odchylky od norm´aln´ıho rozdˇelen´ı? V praxi tomu tak nen´ı. M´alokdo by asi prohl´asil, ˇze je neakceptovateln´e pouˇz´ıt t-test, jelikoˇz kv˚ uli tvaru rozdˇelen´ı zkouman´e veliˇciny chybnˇe zam´ıt´a platnou nulovou hypot´ezu v 5.1 % pˇr´ıpad˚ u m´ısto 5 %, kter´e jsme poˇzadovali. Ot´azky, pˇred kter´ ymi stoj´ıme, a kter´e bohuˇzel nemaj´ı jednoznaˇcnou odpovˇed’, zn´ı: Jak velk´e selh´an´ı testu jeˇstˇe m˚ uˇzeme tolerovat? Jak moc se m˚ uˇze rozdˇelen´ı n´ahodn´e veliˇciny liˇsit od normaln´ıho? Jak pozn´am, do jak´e m´ıry se rozdˇelen´ı m´e n´ahodn´e veliˇciny odliˇsuje od norm´aln´ıho rozdˇelen´ı? Nastiˇ nme nˇekolik u ´vah a postup˚ u, kter´e n´am pom˚ uˇzou se v tomto t´ematu zorientovat. Dˇr´ıve, neˇz budeme p´atrat po tom, kolik toho parametrick´ y test snese, pˇripomeˇ nme koncept centr´aln´ıho limitn´ıho teor´emu (viz kapitola 2.7.3), kter´ y je zde kl´ıˇcov´ y. Centr´aln´ı limitn´ı teor´em ˇr´ık´a obecnˇe to, ˇze kdyˇz vezmeme n nez´avisl´ ych n´ahodn´ ych veliˇcin, kter´e m˚ uˇzou m´ıt bezm´ala libovoln´a rozdˇelen´ı pravdˇepodobnosti, pak jejich souˇcet se bude norm´aln´ımu rozdˇelen´ı pˇribliˇzovat o pozn´an´ı v´ıce, neˇz se pˇribliˇzovala rozdˇelen´ı jednotliv´ ych n´ahodn´ ych veliˇcin. S rostouc´ım n tato podobnost poroste a pˇri jeho obrovsk´ ych hodnot´ach bude vznikl´e rozdˇelen´ı pravdˇepodobnosti k nerozezn´an´ı od norm´aln´ıho rozdˇelen´ı. Kdyˇz prolistujeme posledn´ı str´anky skript, zjist´ıme, ˇze testy, kter´e jsme prob´ırali, nepracuj´ı s jednotliv´ ymi mˇeˇren´ımi, ale se statistikami (s pr˚ umˇerem a smˇerodatnou odchylkou), nejsme tedy limitov´ani rozdˇelen´ım p˚ uvodn´ı n´ahodn´e veliˇciny, ale rozdˇelen´ım aritmetick´eho pr˚ umˇeru a v´ ybˇerov´e smˇerodatn´e odchylky. D´ıky p˚ usoben´ı centr´aln´ıho limitn´ıho teor´emu maj´ı oba tyto ukazatele s rostouc´ım rozsahem v´ ybˇeru tendenci chovat se oˇcek´avan´ ym zp˚ usobem bez ohledu na rozdˇelen´ı pravdˇepodobnosti p˚ uvodn´ı n´ahodn´e veliˇciny. M˚ uˇzeme tedy ˇcekat, ˇze pˇri velk´ ych rozsaz´ıch v´ ybˇeru budeme tolerovat vˇetˇs´ı odchylky od norm´aln´ıho rozdˇelen´ı neˇz pˇri pr´aci s mal´ ymi skupinami. Co znamenaj´ı pojmy velk´a ˇci mal´a odchylka m˚ uˇzeme demonstrovat na pˇr´ıkladu s t-testem pro jeden v´ ybˇer. Pˇredstavme si situaci, kdy m´ame n´ahodnou veliˇcinu X, kter´a m´a urˇcit´e rozdˇelen´ı pravdˇepodobnosti se stˇredn´ı hodnotou µ = 0. V´ yzkumn´ık vˇsak nezn´a tvar distribuˇcn´ı funkce a ani nev´ı, ˇze se stˇredn´ı hodnota n´ahodn´e veliˇciny rovn´a nule. N´ahodnˇe si tedy vybere n realizac´ı t´eto veliˇciny a pomoc´ı t-testu pro jeden v´ ybˇer ovˇeˇr´ı na hladinˇe α = 0.05 nulovou hypot´ezu H0 : µ = 0. Jelikoˇz nulov´a hypot´eza plat´ı, test by ji nemˇel zam´ıtnout. Pokud jsme dodrˇzeli vˇsechny pˇredpoklady a n´ahodn´a veliˇcina X m´a norm´aln´ı rozdˇelen´ı, pak je pravdˇepodobnost, ˇze test chybnˇe nulovou hypot´ezu zam´ıtne, rovn´a pˇeti procent˚ um. Nech´ame-li tedy naˇseho v´ yzkumn´ıka, aby test za stejn´ ych podm´ınek zopakoval 10 000 119
kr´at, pokaˇzd´e na n nov´ ych vylosovan´ ych hodnot´ach, pak pˇribliˇznˇe 9 500 kr´at nulovou hypot´ezu nezam´ıtne a 500 kr´at ji zam´ıtne. Z toho pˇribliˇznˇe 250 kr´at dojde k z´avˇeru, ˇze µ > 0 a 250 kr´at, ˇze µ < 0. V´ ysledek bude stejn´ y bez ohledu na rozsah souboru n. Pomoc´ı poˇc´ıtaˇce m˚ uˇzeme tento postup realizovat a nechat naˇseho virtu´aln´ıho v´ yzkumn´ıka prov´est nespoˇcet n´ahodn´ ych v´ ybˇer˚ u a n´asledn´ ych statistick´ ych test˚ u. Kdyˇz si v´ ysledek kaˇzd´eho z nich poznamen´ame, m˚ uˇzeme naˇcrtnout graf hustoty pravdˇepodobnosti statistiky T a zjistit, v kolika pˇr´ıpadech pˇres´ahla kritick´e hodnoty (viz obr´azek 31).
0.4
0.4
0.3 0.1
0.2
0.3 0.2 −6
−4
−2
0
2
4
6
−4
−2
0
2
2.5 %
−4
−2
0
2
4
n = 500
2.5 %
2.5 %
2.5 %
0.0
2.5 %
0.1
0.2
0.3
n = 150
0.0
2.5 %
2.5 %
0.0
2.5 %
0.2
0.2
2.5 %
0.0
0.1
0.1
4
x
2.5 %
0.4
2
n = 30
0.3
0
0.4
−2
0.3
0.4
−4
n = 80
n = 10
0.0
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
0.1
0.0
0.1
0.2
0.3
0.4
Obr´azek 31: Chov´an´ı statistiky T pˇri norm´aln´ım rozdˇelen´ı n´ahodn´e veliˇciny
4
−4
−2
0
2
4
−4
−2
0
2
4
Modr´ a plocha v prvn´ım grafu znaˇc´ı plochu pod kˇrivkou hustoty pravdˇepodobnosti n´ahodn´e veliˇciny X se stˇredn´ı hodnotou µ = 0, ˇcerven´ y obrys odpov´ıd´a hustotˇe pravdˇepodobnosti n´ahodn´e veliˇciny s norm´ aln´ım rozdˇelen´ım. Zb´ yvaj´ıc´ıch pˇet graf˚ u zn´azorˇ nuje hustotu pravdˇepodobnosti testov´e statistiky ˇ t-testu pro hypot´ezu H0 : µ = 0. Cerven´ a barva vymezuje kritick´ y obor. Procenta odpov´ıdaj´ı pravdˇepodobnosti zam´ıtnut´ı nulov´e hypot´ezy. V tomto pˇr´ıpadˇe nen´ı podm´ınka normality poruˇsena a test bez ohledu na rozsah souboru dodrˇzuje stanovenou hladinu α.
Co by se vˇsak stalo, kdyby naˇse n´ahodn´a veliˇcina mˇela sice st´ale stˇredn´ı hodnotu 0, ale tvar jej´ı distribuˇcn´ı funkce se zmˇenil? Obr´azek (32) dokumentuje situaci, kdy m´a n´ahodn´a veliˇcina X n´apadnˇe zeˇsikmen´e rozdˇelen´ı, my to vˇsak ignorujeme a postupujeme, jako by ˇslo o norm´alnˇe rozdˇelenou veliˇcinu.
0.4 0.3 −2
0
2
4
6
n = 150
−2
0
2
4
1.2 %
−4
−2
0
2
4
n = 500
0.2
0.3 −4
4.6 %
0.0 −4
0.4
−6
1.8 %
3%
2.1 %
0.0
3.4 %
0.0
1.6 %
0.1
0.2
0.3 0.2
0.9 %
0.2
0.2
3.7 %
0.0
0.1
0.1
4
x
5.9 %
0.3
2
n = 30
0.1
0
0.4
−2
0.3
0.4
−4
n = 80
n = 10
0.0
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
0.1
0.0
0.1
0.2
0.3
0.4
0.4
Obr´azek 32: Chov´an´ı statistiky T pˇri poruˇsen´ı normality
−4
−2
0
120
2
4
−4
−2
0
2
4
Je patrn´e, ˇze test pˇri mal´em rozsahu souboru (n = 10) nedodrˇzel stanovenou hladinu v´ yznamnosti 5 % a m´ısto toho zam´ıtl nulovou hypot´ezu v 6.8 % pˇr´ıpad˚ u. Pokud jsme zv´ yˇsili poˇcet pozorov´an´ı na 30, chyba klesla na 5.8 %, pˇri n = 80 na 5.3 % a pˇri sto pades´ati mˇeˇren´ıch pˇrekraˇcoval stanovenou hladinu v´ yznamnosti jen o dvˇe desetiny procenta. Je zjevn´e, ˇze t-test je velmi robustn´ı i pˇri mal´ ych rozsaz´ıch souboru. I kdybychom se rozhodli tuto metodu pouˇz´ıt ponˇekud barbarsk´ ym zp˚ usobem a ignorovali n´apadn´e zeˇsikmen´ı dat i velmi mal´ y rozsah n´ahodn´eho v´ ybˇeru, nebudou v´ ysledky zcela nesmysln´e. Samozˇrejmˇe, ˇze tento postup nelze doporuˇcit, ale je uˇziteˇcn´e vˇedˇet, ˇze by nedoˇslo k u ´pln´emu selh´an´ı statistick´eho testu, ale jen poklesu jeho pˇresnosti. Meze t-testu vˇsak nem˚ uˇzeme natahovat do nekoneˇcna. Obr´azek (33) dokumentuje situaci extr´emnˇe zeˇsikmen´eho rozdˇelen´ı pravdˇepodobnosti. Jak je patrn´e, i pˇri mnohasethlav´em n´ahodn´em v´ ybˇeru, zde st´ale z˚ ust´avaj´ı stopy po zeˇsikmen´ı a test m˚ uˇzeme povaˇzovat jen za pˇribliˇzn´ y. Pˇri mal´em rozsahu za zcela nepouˇziteln´ y.
0.4
n = 30
0
2
4
0.2 −5
0
5
10
−4
−2
0
2
4
6
−4
−2
0
2
4
6
n = 500
0.6 %
4.9 %
1.1 %
0.0
6.8 %
0.0 −6
−6
0.2
0.3
n = 150
0.2 0.1
0.2 0.1
0.4 %
0.0
8.2 %
0.2 %
0.0 −10
0.3
0.1
0.1
6
x
0.4
−2
11.6 %
0.3
−4
0.1 %
0.1
0.4
−6
n = 80
16 %
0.0
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
0.4
0.0
0.2
0.4
0.2
0.6
0.3
n = 10
0.3
0.8
0.4
Obr´azek 33: Chov´an´ı statistiky T pˇri poruˇsen´ı normality
−4
−2
0
2
4
−4
−2
0
2
4
Posledn´ı obr´azek (34) dokumentuje jin´ y druh poruˇsen´ı pˇredpokladu. Tentokr´at to nen´ı zeˇsikmen´ı, ale extr´emn´ı m´ıra ˇspiˇcatosti, co tvar hustoty pravdˇepodobnosti sledovan´e n´ahodn´e veliˇciny odliˇsuje od Gaussovy kˇrivky. Test v tomto pˇr´ıpadˇe respektuje stanovenou hladinu v´ yznamnosti bez ohledu na rozsah souboru, ba co v´ıc, st´av´a jeˇstˇe konzervativnˇejˇs´ım. D´a se tedy ˇcekat, ˇze v pˇr´ıpadˇe poruˇsen´ı nulov´e hypot´ezy by nebyla alternativa pˇrij´ım´ana tak ˇcasto, jako kdybychom zvolili vhodnˇejˇs´ı statistick´ y test.
121
0.4 0.3 2
4
−2
0
2
4
1.9 %
−4
−2
0
2
4
n = 500
0.2
0.2 −4
0.1
0.2 0
2.3 %
2.4 %
2.5 %
0.0
2.3 %
0.0
0.1
0.2
2.2 %
0.0
2.2 %
1.9 %
0.0 −2
0.4
−4
n = 150
0.3
x
1.3 %
0.0 4
n = 30
0.3
2
1.3 %
0.1
0
0.4
−2
n = 80
0.3
0.4
0.1
0.2
1.0 0.5 0.0
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
−4
0.1
n = 10
0.3
1.5
0.4
2.0
Obr´azek 34: Chov´an´ı statistiky T pˇri poruˇsen´ı normality
−4
−2
0
2
4
−4
−2
0
2
4
V praxi je situace jeˇstˇe o pozn´an´ı komplikovanˇejˇs´ı. Obvykle nem´ame k dispozici znalost tvaru rozdˇelen´ı n´ahodn´e veliˇciny, ale mus´ıme si vystaˇcit s nˇekolika namˇeˇren´ ymi hodnotami. Mohli bychom zkusit udˇelat rozhodnut´ı o tvaru rozdˇelen´ı pravdˇepodobnosti na z´akladˇe tˇechto hodnot, coˇz je cesta, kterou doporuˇcuje ˇrada uˇcebnic statistiky. M´ame k dispozici hned nˇekolik statistick´ ych test˚ u, kter´e testuj´ı nulovou hypot´ezu H0 : X ∼ N (µ, σ 2 ), tedy ˇze se rozdˇelen´ı n´ahodn´e veliˇciny neliˇs´ı od norm´aln´ıho rozdˇelen´ı. Statistick´e programy obvykle nab´ız´ı Kolmogor˚ uv-Smirnov˚ uv test, jeho adaptaci zn´amou jako Liliefors˚ uv test a Shapir˚ uv-Wilk˚ uv test. Kaˇzd´ y z tˇechto test˚ u ovˇeˇruje nulovou hypot´ezu z troˇsku jin´eho u ´hlu, testy se proto nemus´ı sv´ ymi v´ ysledky shodovat. Posledn´ı jmenovan´ y je vˇsak povaˇzov´an za nejsilnˇejˇs´ı, pˇrijmeme jej proto za test prvn´ı volby pro dan´ y probl´em. ˇ Casto se setk´ame s lidmi, kteˇr´ı pedanticky lp´ı na testov´an´ı normality, a pot´e, co nezam´ıtnou nulovou hypot´ezu, postupuj´ı, jakoby mˇeli d˚ ukazy o jej´ı platnosti. Tento postup vˇsak nelze pauˇsa´lnˇe doporuˇcit hned ze dvou d˚ uvod˚ u. Jednak zde nar´aˇz´ıme na logickou chybu, na kterou jsme upozorˇ novali jiˇz v pˇr´ıpadˇe F testu a jeho uˇzit´ı pˇri rozhodov´an´ı mezi t-testem a Welchov´ ych testem. Jednoduˇse kdyˇz nenajdeme d˚ ukazy o tom, ˇze je poruˇsen pˇredpoklad normality, nem˚ uˇzeme nic ˇr´ıct o tom, jestli zde je skuteˇcnˇe norm´aln´ı rozdˇelen´ı pˇr´ıtomno. Pˇredstavme si napˇr´ıklad, ˇze pracujeme se silnˇe zeˇsikmenou n´ahodnou veliˇcinou z obr´azku (33). M´am-li soubor o mal´em rozsahu, m˚ uˇze se pomˇernˇe snadno st´at, ˇze vˇsechna pozorov´an´ı padnou do oblasti vlevo od nuly (kde se skuteˇcnˇe veliˇcina obvykle realizuje). Pokud do m´eho souboru n´ahodou pronikne jedno ˇci dvˇe pozorov´an´ı z dlouh´eho prav´eho chvostu, oznaˇc´ım je jako odlehlou hodnotu a dost moˇzn´a nerozv´aˇznˇe ze souboru vyˇrad´ım. Takto z´ıskan´ y soubor neponese nejmenˇs´ı stopu poruˇsen´ı pˇredpokladu normality a ˇza´dn´ y test jej nebude schopen odhalit. Druh´a slabina test˚ u normality je jeˇstˇe bolestivˇejˇs´ı. Statistick´e testy jsou obecnˇe konstruov´any tak, ˇze s rostouc´ım rozsahem v´ ybˇeru citlivˇeji reaguj´ı na poruˇsen´ı platnosti nulov´e hypot´ezy. To plat´ı i pro testy normality, takˇze pˇri pr´aci s mal´ ym souborem test vcelku benevolentnˇe toleruje i velk´a poruˇsen´ı tohoto pˇredpokladu, zat´ımco pˇri rozsaz´ıch 122
souboru o nˇekolika tis´ıc´ıch mˇeˇren´ı nulovou hypot´ezu zam´ıtne jiˇz pˇri nepatrn´em n´aznaku deformace. To je ale v pˇr´ım´em rozporu se vztahem robustnosti a rozsahu souboru u parametrick´ ych test˚ u: kdyˇz m´ame mal´ y rozsah souboru, mˇeli bychom si d´avat pozor i na mal´e deformace rozdˇelen´ı. U velk´eho souboru m˚ uˇzeme b´ yt o pozn´an´ı tolerantnˇejˇs´ı. Pˇri velk´ ych rozsaz´ıch v´ ybˇeru proto v´ ysledky testu normality nepˇrin´aˇs´ı ˇza´dn´ y uˇzitek. Jakou cestu tedy zvolit? Prvn´ım krokem, kter´ y bychom mˇeli udˇelat, je zobrazit si data pomoc´ı histogramu, v pˇr´ıpadˇe mal´eho souboru jej pro orientaci m˚ uˇzeme doplit v´ ysledkem Shapirova-Wilkova testu. T´ım se vˇsak nevyhneme naˇs´ı prvn´ı n´amitce, ˇze omezen´ y rozsah souboru obecnˇe negarantuje zahrnut´ı i extr´emn´ıch hodnot, kter´e v populaci m˚ uˇzou existovat. Pˇri v´ ybˇeru testu bychom proto mˇeli pouˇz´ıvat pˇredevˇs´ım zdrav´ y rozum. U kaˇzd´e promˇenn´e obvykle v´ıme, co mˇeˇr´ı a jak se chov´a ona charakteristika, kterou promˇenn´a kvantifikuje. Pokud je promˇennou napˇr´ıklad poˇcet bod˚ u z´ıskan´ ych v testu inteligence, m˚ uˇzu na prvn´ı pohled vylouˇcit existenci lid´ı, kteˇr´ı maj´ı IQ napˇr. 500 nebo -80 (nejen proto, ˇze neexistuj´ı, ale namˇeˇren´ı takov´ ych hodnot br´an´ı i samotn´a konstrukce testu). Naopak, pokud by mˇe zaj´ımalo, kolik pr˚ umˇern´ y ˇclovˇek dok´aˇze udˇelat klik˚ u v ˇradˇe bez pˇrest´avky, nemus´ım vidˇet ˇz´adn´a data, a pˇresto m˚ uˇzu tuˇsit distribuci pˇripom´ınaj´ıc´ı obr´azek (33). Vˇetˇsina lid´ı neudˇel´a ani deset klik˚ u. Lid´e, co jsou v kondici, se nejsp´ıˇs vejdou do pades´ati. V populaci je vˇsak i hrstka extr´emn´ıch jedinc˚ u, u kter´ ych bychom opakov´an´ı tohoto cviku poˇc´ıtali na stovky, nemluvˇe o svˇetov´ ych ˇsampionech, kteˇr´ı udˇelaj´ı tis´ıce klik˚ u v ˇradˇe (svˇetov´ y rekordman Minoru Yoshida jich pr´ y udˇelal 10 507). Pokud histogram zobrazuje tvar, kter´ y nepˇripom´ın´a norm´aln´ı rozdˇelen´ı nebo n´as znalosti n´ahodn´e veliˇciny vedou k podezˇren´ı, ˇze zde m˚ uˇzou existovat odlehl´e hodnoty, mˇeli bychom se zamyslet nad t´ım, jestli m´ame dost rozs´ahl´ y soubor, aby test tyto odchylky snesl a poskytl smyslupln´e p-hodnoty. Pokud m´ame pochybnosti, mˇeli bychom opustit parametrickou statistiku a hledat n´ahradu mezi robustnˇejˇs´ımi testy.30 Ve skuteˇcnosti nen´ı podm´ınka normality ta jedin´a, kter´a svazuje parametrick´e testy. Pˇrejdeme-li u ´plnˇe fundament´aln´ı podm´ınku pouˇzit´ı jak´ehokoli testu, a to, aby jednotliv´a mˇeˇren´ı byla na sobˇe nez´avisl´a, poˇzadujeme, aby sledovan´a promˇenn´a byla metrick´e (kvantitativn´ı) povahy. Samozˇrejmˇe, ˇze m˚ uˇzeme prov´est t-test i na poˇradov´ ych hodnot´ach, jeho v´ ysledek se vˇsak uˇz net´ yk´a toho rysu, kter´ y poˇradov´e hodnoty zastupovaly, ale jen samotn´eho poˇrad´ı. T´ımto t´ematem se u ´zce dot´ yk´ame psychometrie. To, ˇze nˇekdo z´ısk´a v psychologick´em testu 10 bod˚ u, nˇekdo jin´ y 20 a nˇekdo dalˇs´ı 30, nemus´ı nutnˇe znamenat, ˇze jsou rozd´ıly mezi dvojicemi 10-20 a 20-30 stejn´e. Duˇsevn´ı rysy nikdo na vlastn´ı oˇci nevidˇel a pomoc´ı prav´ıtka je zmˇeˇrit nem˚ uˇzeme. Tvrzen´ı o metrick´e povaze v´ ysledk˚ u psychologick´ ych test˚ u proto nejde uspokojivˇe prok´azat. Obecnˇe je vˇsak povaˇzujeme za pravdiv´e i pˇres v´ yhrady nˇekter´ ych psychometrik˚ u. 30
Jeˇstˇe jednou alternativou by bylo vedle parametrick´eho testu pouˇz´ıt i neparametrick´ y, a kdyˇz z´ısk´ame t´emˇeˇr shodn´e p-hodnoty, m˚ uˇzeme tuˇsit, ˇze k ˇz´adn´emu selh´an´ı nedoˇslo.
123
5.5
Anal´ yza s´ıly testu
Testy nulov´ ych hypot´ez nejsou neomyln´e. Kdyˇz zam´ıtneme nulovou hypot´ezu, nem´ame jistotu, ˇze skuteˇcnˇe neplat´ı, ani kdyˇz jsme dodrˇzeli vˇsechny podm´ınky statistick´eho testu. Opaˇcn´a situace, kdyˇz nulovou hypot´ezu nezam´ıtneme, n´am obvykle pˇrin´aˇs´ı jeˇstˇe menˇs´ı jistotou o tom, jak´a je situace ve skuteˇcnosti. Kdyˇz provedeme test nulov´e hypot´ezy, m˚ uˇze doj´ıt hned k dvˇema druh˚ um chyb. Prvn´ı z nich nast´av´a tehdy, kdyˇz nulov´a hypot´eza plat´ı, a my ji pˇresto zam´ıtneme. T´eto chybˇe ˇr´ık´ame chyba prvn´ıho druhu a sezn´amili jsme se s n´ı v pˇredeˇsl´ ych kapitol´ach. Pravdˇepodobnost chyby prvn´ıho druhu si urˇcujeme sami prostˇrednictv´ım hladiny v´ yznamnosti α. Zvol´ıme-li tedy pˇetiprocentn´ı hladinu v´ yznamnosti, pak v pˇr´ıpadˇe, ˇze plat´ı nulov´a hypot´eza, m´ame 5 % pravdˇepodobnost, ˇze se chyby prvn´ıho druhu dopust´ıme. Chyba druh´ eho druhu nast´av´a tehdy, kdyˇz nulov´a hypot´eza neplat´ı, my vˇsak jej´ı poruˇsen´ı nejsme schopni odhalit a nezam´ıtneme ji. Vˇzdy jsme vystaveni riziku jedin´e z tˇechto dvou chyb (nev´ıme vˇsak kter´e), coˇz zn´azorˇ nuje tabulka (8). Pravdˇepodobnost toho, ˇze nastane chyba druh´eho druhu, znaˇc´ıme p´ısmenem β. Jej´ı velikost nen´ı pevnˇe d´ana, ale z´avis´ı hned na nˇekolika faktorech. Jsou to • hladina v´ yznamnosti α (ˇc´ım vyˇsˇs´ı α, t´ım niˇzˇs´ı β), • skuteˇcn´a m´ıra u ´ˇcinku (silnˇejˇs´ı efekty maj´ı niˇzˇs´ı pravdˇepodobnost β), • rozsah souboru (ˇc´ım vyˇsˇs´ı n, t´ım niˇzˇs´ı β), • s´ıla statistick´eho testu (citlivˇejˇs´ı testy maj´ı niˇzˇs´ı pravdˇepodobnost β). Prvn´ı dva zmiˇ novan´e faktory jsou obvykle pevnˇe d´any (α je tradiˇcnˇe 5 %, velikost efektu ovlivnit nedok´aˇzeme). Dˇr´ıve neˇz prozkoum´ame roli velikosti v´ ybˇeru, seznamme se podrobnˇeji se silou testu. Pˇredstavme si situaci, kdy chceme ovˇeˇrit nulovou hypot´ezu o jedn´e n´ahodn´e veliˇcinˇe ˇ by napˇr´ıklad o H0 : µ = µ0 a okolnosti n´am umoˇzn ˇuj´ı vyuˇz´ıt t-test pro jeden v´ ybˇer. Slo situaci, z pˇredeˇsl´ ych kapitol, kdy jsme zkoumali u ´ˇcinnost n´ami navrˇzen´e metody v´ yuky Tabulka 8: Chyba prvn´ıho a druh´eho druhu Skuteˇcnost
Naˇse Zam´ıt´ame rozhodnut´ı H0 Nezam´ıt´ame H0
124
Plat´ı H0
Neplat´ı H0
Chyba I. druhu
Spr´avn´e rozhodnut´ı
Spr´avn´e rozhodnut´ı
Chyba II. druhu
Obr´azek 35: Silofunkce statistick´eho testu
Zobrazen´ a silofunkce patˇr´ı t-testu pro dva nez´avisl´e v´ ybˇery o rozsaz´ıch n = m = 10. Osa x ud´av´a m´ıru poruˇsen´ı nulov´e hypot´ezy, tedy rozd´ıl mezi skupinami ve smˇerodatn´ ych odchylk´ach (tzv. Cohenovo d). ˇ ım je poruˇsen´ı H0 vˇetˇs´ı, t´ım se sniˇzuje pravdˇepodobnost chyby druh´eho druhu a roste s´ıla testu (tedy C´ pravdˇepodobnost zam´ıtnut´ı H0 ). V souladu s logikou statistick´ ych test˚ u, pokud je nulov´a m´ıra poruˇsen´ı H0 , test ji zam´ıt´a s pravdˇepodobnost´ı α.
matematiky na stˇredn´ı ˇskole. Mˇejme pevnˇe danou hladinu α jako 5 % a ˇrekneme, ˇze n´am rozpoˇcet umoˇzn ˇuje otestovat jen n student˚ u. Nakonec pˇredpokl´adejme, ˇze m´ıra u ´ˇcinku δ = 0.8 (ˇreck´e p´ısmeno bylo zvoleno m´ısto klasick´eho d pro zd˚ uraznˇen´ı faktu, ˇze nejde o odhad, ale o skuteˇcnou hodnotu, tedy parametr). Tyto u ´daje n´am umoˇzn ˇuj´ı z´ıskat pˇresnou hodnotu pravdˇepodobnosti β, tedy toho, ˇze nastane situace, kdy nulovou hypot´ezu nezam´ıtneme, pˇrestoˇze metoda m´a nenulov´ y efekt (δ 6= 0). Doplnˇek t´eto pravdˇepodobnosti, tedy 1 − β, se naz´ yv´a s´ıla testu. S´ıla testu je pravdˇepodobnost, ˇze pˇri dan´ ych hodnot´ach α, n a δ test zam´ıtne nulovou hypot´ezu. Pochopitelnˇe, pokud je δ = 0, pak o s´ılu nejde, protoˇze zam´ıtnut´ı nulov´e hypot´ezy by bylo chybou. Zde vˇsak nar´aˇz´ıme na probl´em. Skuteˇcnou velikost efektu δ nezn´ame a vzhledem k tomu, ˇze se anal´ yzou s´ıly testu obvykle zab´ yv´ame pˇred proveden´ım samotn´eho v´ yzkumu, nem´ame k dispozici ani data, kter´a by n´am pomohla udˇelat jej´ı odhad. M˚ uˇzeme z´ıskat hodnotu s´ıly testu pro libovolnou hodnotu δ, a vytvoˇrit tak kˇrivku z´avislosti β na δ, pro dan´ y test pˇri pevn´em n. T´eto kˇrivce ˇr´ık´ame silofunkce a ilustruje ji obr´azek (35). Kdybychom nakreslili do t´ehoˇz grafu pˇres sebe silofunkce v´ıce statistick´ ych test˚ u, vˇsimli bychom si urˇcit´ ych podobnost´ı a rozd´ıl˚ u. Vˇsechny testy by mˇely spoleˇcn´e to, ˇze pro δ = 0 je jejich pravdˇepodobnost zam´ıtnout nulovou hypot´ezu α, jelikoˇz takto testy konstruujeme.31 Pro vˇsechny testy by tak´e platilo to, ˇze pro hodnoty δ velmi vzd´alen´e od nuly je jejich s´ıla bl´ızk´a 100 %. Coˇz intuitivnˇe d´av´a smysl – obrovsk´ y efekt t´emˇeˇr jistˇe 31 Toto tvrzen´ı nen´ı zcela pˇresn´e – existuj´ı testy, kter´e pracuj´ı s disktr´etn´ımi rozdˇelen´ımi a v bodˇe δ = 0 je jejich pravdˇepodobnost zam´ıtnut´ı nulov´e hypot´eza menˇs´ı neˇz α.
125
ˇ ım je odhal´ıme. Rozd´ıl mezi testy je v tom, jak strmˇe kˇrivka smˇerem od nuly roste. C´ n´ar˚ ust strmˇejˇs´ı, t´ım test povaˇzujeme za silnˇejˇs´ı, jelikoˇz jiˇz pˇri mal´e hodnotˇe δ m´a test nezanedbatelnou ˇsanci, ˇze nulovou hypot´ezu zam´ıtne. V pˇr´ıpadˇe, ˇze pracujeme s norm´alnˇe rozdˇelen´ ymi n´ahodn´ ymi veliˇcinami, nenaˇsli bychom silnˇejˇs´ı test neˇz ty, co jsme jiˇz probrali, tedy parametrick´e testy. Z toho d˚ uvodu, kdyˇz hovoˇr´ıme o s´ıle testu, pouˇz´ıv´ame nˇekdy takzvanou relativn´ı eficienci32 , kter´a poskytuje srovn´an´ı dan´eho testu s ekvivalentn´ım parametrick´ ym testem. Relativn´ı eficienci m˚ uˇzeme interpretovat jako hodnotu kolikr´at m´enˇe (nebo v´ıce) mˇeˇren´ı by potˇreboval parametrick´ y test, aby dos´ahl stejn´e s´ıly jako test, kter´ y s n´ım srovn´av´ame. V praxi n´am tyto znalosti sice pom˚ uˇzou vybrat nejsilnˇejˇs´ı moˇzn´ y test, nepom˚ uˇzou n´am vˇsak pˇrekonat probl´em nezn´am´e hodnoty δ, bez kter´e nezjist´ıme pravdˇepodobnost chyby druh´eho druhu β. Zde se mus´ıme spolehnout na sv´e zkuˇsenosti s psychologick´ ym v´ yzkumem. Nemus´ı j´ıt jen o zkuˇsenosti z prvn´ı ruky (aˇc ty jsou nejhodnotnˇejˇs´ı), ale pom˚ uˇze m´ıt otevˇren´e oˇci pˇri ˇcten´ı odborn´ ych ˇcl´ank˚ u. Nejuˇziteˇcnˇejˇs´ı je znalost pˇredeˇsl´ ych v´ yzkum˚ u, kter´e se pokouˇsely odpovˇedˇet na podobnou ot´azku, jako chystan´ y projekt. M´ame-li tyto zkuˇsenosti, dok´aˇzeme intuitivnˇe odhadnout, jak´a je m´ıra u ´ˇcinku zkouman´eho jevu. N´aˇs odhad samozˇrejmˇe nebude zcela pˇresn´ y, ale nejsp´ıˇs se naˇse progn´oza diametr´alnˇe neodch´ yl´ı od skuteˇcnosti. Velikost efektu jsme zvykl´ı v psychologii popisovat slovnˇe jako mal´y/slab´y, stˇredn´ı a velk´y/siln´y efekt. V pˇr´ıpadˇe, ˇze hovoˇr´ıme o korelaˇcn´ım koeficientu, odpov´ıdaly by tyto stupnˇe dle Cohena hodnot´am nad 0.1, nad 0.3 a nad 0.5. Pro Cohenovo d byly navrˇzeny hranice 0.2, 0.5 a 0.8.33 Z tˇechto slovn´ıch oznaˇcen´ı m˚ uˇzeme vyj´ıt. Velk´e rozd´ıly jsou doopravdy velk´e – tedy pozorovateln´e na prvn´ı pohled. Velk´y rozd´ıl je tˇreba ve v´ yˇsce muˇz˚ ua ˇzen (δ je pˇribliˇznˇe 1.5). Abychom odpovˇedˇeli na ot´azku, jestli jsou v pr˚ umˇeru muˇzi vyˇsˇs´ı neˇz ˇzeny, nemus´ıme nic poˇc´ıtat, rozd´ıl vid´ı kaˇzd´ y na vlastn´ı oˇci. Na podobn´e u ´rovni je koˇ tyto dva konstrukty relaˇcn´ı koeficient mezi neuroticismem a sebehodnocen´ım (ρ ≈ 0.7). Ze jsou tˇesnˇe sv´az´any, zjist´ı i laik, kdyˇz mu jejich v´ yznam vysvˇetl´ıme. Budeme-li tedy testovat nˇeco, co vid´ıme“, ˇze je pravdiv´e i bez testu, m˚ uˇzeme poˇc´ıtat s velk´ym efektem. Do kate” gorie stˇrednˇe velk´ych efekt˚ u by patˇrily ty vztahy, kter´e nerozezn´ame na prvn´ı pohled, ale spolehlivˇe si jich vˇsimneme tehdy, pokud se budeme dan´ ym t´ematem delˇs´ı dobu zab´ yvat, a je vcelku jist´e, ˇze se na jejich existenci shodneme s dalˇs´ımi lidmi, kteˇr´ı maj´ı s dan´ ym jevem zkuˇsenosti. Stˇrednˇe siln´y vztah bychom mohli oˇcek´avat tˇreba tehdy, kdyˇz bychom porovn´avali sklony ke sbˇeratelstv´ı u muˇz˚ u a ˇzen (s ohledem na pouˇzitou metodologii by 32 ˇ Ci sp´ıˇse asymptotickou relativn´ı eficienci. Relativn´ı eficience nemus´ı b´ yt pˇresnˇe stejn´a pro vˇsechny rozsahy souboru. Asymptotick´ a relativn´ı eficience popisuje pˇr´ıpad, kdy se n bl´ıˇz´ı nekoneˇcnu. 33 Tyto dvˇe sady prahov´ ych hodnot si ve skuteˇcnosti neodpov´ıdaj´ı. Pokud bychom chtˇeli b´ yt velmi striktn´ı, mohli bychom vyuˇz´ıt to, ˇze r a d m˚ uˇzeme vz´ajemnˇe pˇrev´adˇet (lze k tomu pouˇz´ıt testov´a statistika t, kter´ a je obˇema druh˚ um z´ avislosti/rozd´ılu spoleˇcn´a). Hodnot´am r 0.1, 0.3, 0.5 by odpov´ıdaly hodnoty 2r . d 0.20, 0.63, 1.15. K pˇrevodu byl pouˇzit vztah d = √1−r 2
126
tento vztah vˇsak mohl pˇrech´azet aˇz do siln´eho). Nakonec slab´e vztahy jsou ty, kter´e bez vhodn´ ych n´astroj˚ u nerozezn´ame a jejich existenci sp´ıˇs tuˇs´ıme, neˇz pˇr´ımo pozorujeme. I kdyˇz se dan´ ym jevem odbornˇe zab´ yv´ame, existenc´ı slab´eho vztahu si nem˚ uˇzeme b´ yt zcela jisti a naraz´ıme na nˇej sp´ıˇs v podobˇe stereotyp˚ u. Napˇr´ıklad na poznatek, ˇze zrzav´ı lid´e sn´aˇs´ı h˚ uˇre bolest, naraz´ıme nejsp´ıˇs jen v lidov´ ych moudrech anesteziolog˚ u, neˇz abychom si jej sami vˇsimli. Pˇri vhodn´e metodologii bychom jej vˇsak mohli skuteˇcnˇe zachytit. Do podobn´e kategorie by patˇril rozd´ıl v extraverzi mezi psychology a matematiky. Pravdou je, ˇze vˇetˇsina efekt˚ u, kter´e se studenti snaˇz´ı ve sv´ ych pracech zmapovat, jsou slab´e. Plyne to mimo jin´e z toho, ˇze v touze po origin´aln´ıch t´ematech se studenti pokouˇs´ı ovˇeˇrit vztahy, kter´e jeˇstˇe nikdo neovˇeˇroval (nejsp´ıˇs proto, ˇze si jich nikdo nevˇsiml), a taky z toho, ˇze jsme ˇcasto vybaveni jen nepˇresn´ ymi n´astroji, jak dan´ y konstrukt zmˇeˇrit, coˇz pozorovanou s´ılu efektu sniˇzuje. Vyd´ame-li se touto cestou, je anal´ yza s´ıly testu skoro nezbytn´a. Bˇeˇznˇe se setk´av´ame s t´ım, kdy m´a nezkuˇsen´ y v´ yzkumn´ık ambice ovˇeˇrit existenci efektu tohoto druhu na souboru nˇekolika des´ıtek pozorov´an´ı. 5.5.1
*V´ ypoˇ cet s´ıly testu*
Se znalost´ı m´ıry u ´ˇcinku jiˇz m´ame vˇsechny ingredience, abychom spoˇc´ıtali pravdˇepodobnost chyby druh´eho druhu β. V´ ypoˇcet za n´as obvykle zajiˇst’uje statistick´ y program, na uk´azku uved’me postup zjiˇstˇen´ı s´ıly pro t-test (jednov´ ybˇerov´ y i dvouv´ ybˇerov´ y) a test Pearsonova korelaˇcn´ıho koeficientu. Pˇredstavme si situaci, kdy srovn´av´ame dvˇe n´ahodn´e veliˇciny se stˇredn´ımi hodnotami µ1 a µ2 a testujeme platnost nulov´e hypot´ezy H0 : µ1 = µ2 pomoc´ı t-testu pro dva nez´avisl´e v´ ybˇery. Pokud by nulov´a hypot´eza platila, v´ıme zcela pˇresnˇe, jak se chov´a testov´a statistika – m´a Studentovo rozdˇelen´ı s m + n − 2 stupni volnosti. Tuto znalost pouˇz´ıv´ame k tomu, abychom stanovili kritick´ y obor, tedy takov´ y interval, aby pravdˇepodobnost, ˇze do nˇej za platnosti H0 padne hodnota testov´e statistiky, byla rovna α. Pokud by tˇreba n = m = 10 a α = 0.05, pak by vˇsechny hodnoty testov´e statistiky, co opust´ı interval t α2 (n + m − 2), t1− α2 (n + m − 2) , tedy (−2.10, 2.10), n´as povedou k zam´ıtnut´ı nulov´e hypot´ezy. Jestli se tak dˇeje za platnosti H0 v 5 % pˇr´ıpad˚ u, jak ˇcasto se tak bude d´ıt, kdyˇz H0 neplat´ı a srovn´avan´e stˇredn´ı hodnoty se liˇs´ı o δ smˇerodatn´ ych odchylek? Abychom to mohli zjistit, museli bychom zn´at rozdˇelen´ı pravdˇepodobnosti testov´e statistiky pˇri dan´e hodnotˇe δ. Tady se probl´em st´av´a komplikovanˇejˇs´ım. Intuitivnˇe si pˇredstav´ıme, ˇze se graf hustoty pravdˇepodobnosti statistiky t v˚ uˇci sv´e p˚ uvodn´ı poloze posune. Pravda vˇsak je, ˇze pˇri tomto posunut´ı Studentovo rozdˇelen´ı nezmˇen´ı jenom svou polohu, ale i tvar – kˇrivka hustoty se zaˇcne nepatrnˇe deformovat. K popisu t´eto zmˇeny polohy i tvaru pouˇz´ıvaj´ı statistikov´e takzvan´e necentr´aln´ı Studentovo rozdˇelen´ı. Jak pˇresnˇe toto rozdˇelen´ı vypad´a a jak´e m´a vlastnosti, pro n´as ted’ nen´ı zaj´ımav´e. D˚ uleˇzit´e je to, ˇze 127
Obr´azek 36: Chov´an´ı testov´e statistiky za platnosti H0 a HA
Graf zn´ azorˇ nuje stejnou situaci jako obr´ azek (35), jde tedy o t-test pro dva nez´avisl´e v´ ybˇery o rozsaz´ıch n = m = 10. Hustota pravdˇepodobnosti vlevo odpov´ıd´a Studentovu t-rozdˇelen´ı s 18ti stupni volnosti. Popisuje tedy chov´ an´ı testov´e statistiky v pˇr´ıpadˇe, ˇze δ = 0. Hustota pravdˇepodobnosti vpravo odpov´ıd´ a chov´ an´ı testov´e statistiky pˇri δ = 1.3 (tedy za platnosti HA ).
jsme schopni (pomoc´ı statistick´eho programu) zjistit hodnoty jeho distribuˇcn´ı funkce a hustoty pravdˇepodobnosti. M˚ uˇzeme pak odpovˇedˇet na naˇsi ot´azku Kdyˇz budu zam´ıtat ” H0 , kdykoli hodnota t opust´ı interval (−2.10, 2.10), jak ˇcasto k tomu bude doch´azet, pokud se stˇredn´ı hodnoty sledovan´ych n´ahodn´ych veliˇcin µ1 a µ2 liˇs´ı o δ smˇerodatn´ych odchylek? “ Odpovˇed´ı je hledan´a s´ıla testu a zn´azorˇ nuje ji obr´azek (36). Pˇreved’me tuto u ´vahu do matematick´ ych vzorc˚ u. Vezmˇeme distribuˇcn´ı funkci n´ahodn´e veliˇciny s necentr´aln´ım Studentov´ ym rozdˇelen´ım s n+m−2 stupni volnosti, kde parametr necentrality (znaˇcme jej ∆) odpov´ıd´a tomu, o kolik jednotek bude graf hustoty posunut´ y. V pˇr´ıpadˇe t-testu pro dva nez´avisl´e v´ ybˇery bude hodnota tohoto parametru rovn´a v´ yrazu34 ∆= q
δ 1 n
+
. 1 m
Tuto distribuˇcn´ı funkci necentr´aln´ıho rozdˇelen´ı znaˇcme F∆,n+m−2 . Pravdˇepodobnost, ˇze se testov´a statistika bude realizovat s hodnotou vyˇsˇs´ı neˇz 2.26 (obecnˇe neˇz t1−α/2 (n + m − 2)) je 1 − F∆,n+m−2 t1−α/2 (n + m − 2) = 1 − F2.91, 18 (2.26). Abychom z´ıskali zcela pˇresn´ y v´ ysledek, mus´ıme pˇripoˇc´ıst i pravdˇepodobnost toho, ˇze se testov´a statistika bude realizovat s hodnotou menˇs´ı neˇz −2.26. Jak je vidˇet z grafu (36), tato pravdˇepodobnost je v naˇsem pˇr´ıpadˇe prakticky nulov´a. Obecnˇe ji vyj´adˇr´ıme jako F∆,n+m−2 tα/2 (n + m − 2) . Celkovˇe bychom tedy s´ılu testu z´ıskali ze vztahu 1 − β = 1 − F∆,n+m−2 t1−α/2 (n + m − 2) + F∆,n+m−2 tα/2 (n + m − 2) . 34
Proˇc tomu tak je, m˚ uˇze b´ ytq ˇcten´ aˇri zˇrejmˇejˇs´ı, kdyˇz pˇripomeneme vztah mezi hodnotou testov´e sta1 1 tistiky t a m´ırou u ´ˇcinku: d = t · n + m .
128
Zcela stejnou logiku bude m´ıt v´ ypoˇcet s´ıly testu pro jednov´ ybˇerov´ y t-test. Jedinou zmˇenou bude to, ˇze zde m´ısto n + m − 2 bude vystupovat n − 1 stupˇ n˚ u volnosti a ˇze parametr q √ necentrality stanov´ıme jako ∆ = δ/ n1 = δ n. Anal´ yza s´ıly testu Pearsonova korelaˇcn´ıho koeficientu pouˇz´ıv´a stejn´ y princip. Testujme hypot´ezu H0 : ρ = 0. V´ ypoˇcet bychom mohli prov´adˇet nˇekolika zp˚ usoby; nejjednoduˇsˇs´ı je vyuˇzit´ı Fisherovy Z transformace, pomoc´ı kter´e m˚ uˇzeme pˇrev´est korelaˇcn´ı koeficient R na testovou statistiku U s norm´aln´ım rozdˇelen´ım a tu na statistiku Z, kter´a m´a za platnosti H0 normovan´e norm´aln´ı rozdˇelen´ı (viz kapitola 5.4.4). V´ yhoda pr´ace s norm´aln´ım rozdˇelen´ım je takov´a, ˇze zde nemus´ıme pracovat s parametrem necentrality, jelikoˇz toto rozdˇelen´ı se pˇri posunut´ı nedeformuje. Velikost jeho posunut´ı odpov´ıd´a skuteˇcn´e hodnotˇe korelaˇcn´ıho koeficientu ρ transformovan´e pomoc´ı Fisherovy transformace: √ 1 1+ρ z = · ln · n − 3. 2 1−ρ Hodnotu s´ıly testu pak stanov´ıme pomoc´ı distribuˇcn´ı funkce normovan´eho norm´aln´ıho rozdˇelen´ı (znaˇcme ji F ): 1 − β = 1 − F Φ1− α2 − z + F Φ α2 − z , kde Φ je kvantil normovan´eho norm´aln´ıho rozdˇelen´ı. Jeden ze sˇc´ıtanc˚ u bude opˇet ve vˇetˇsinˇe pˇr´ıpad˚ u bl´ızk´ y nule, mohl by b´ yt proto zanedb´an. 5.5.2
Stanoven´ı rozsahu souboru
ˇ aˇr˚ Cten´ um, kteˇr´ı si nelibuj´ı v pronik´an´ı do taj˚ u statistick´e anal´ yzy dat, se moˇzn´a pˇri ˇcten´ı pˇredchoz´ıch str´anek zmocnily pochybnosti, zdali je nezbytn´e zn´at pravdˇepodobnost chyby druh´eho druhu. Je opravdu tento poznatek tak d˚ uleˇzit´ y, abychom kv˚ uli nˇemu zav´adˇeli tolik nov´ ych pojm˚ u a koncept˚ u? Aˇc chybu druh´eho druhu obvykle nikde neuv´ad´ıme, schopnost stanovit jej´ı velikost n´am pˇrin´aˇs´ı obrovsk´ y uˇzitek. S jej´ı pomoc´ı m˚ uˇzeme zjistit, jak velk´ y v´ yzkumn´ y soubor pro n´aˇs projekt potˇrebujeme. Pˇredstavme si, ˇze chceme prozkoumat kontroverzn´ı discipl´ınu jm´enem grafometrie. Je to metoda, kter´a hled´a souvislost mezi rukopisem jedince a jeho duˇsevn´ımi vlastnostmi. Pouˇzijeme n´asleduj´ıc´ı v´ yzkumn´ y design. Skupinu dobrovoln´ık˚ u nech´ame napsat vlastn´ı rukou text a d´ale je vyˇsetˇr´ıme pomoc´ı Rorschachova testu. Text zanalyzujeme a kvantifikujeme pozorovan´e ukazatele (napˇr´ıklad velikost p´ısma, jeho sklon, nav´az´an´ı p´ısmen atd.) Pokus´ıme se ovˇeˇrit hypot´ezu, jestli velikost p´ısma koreluje s m´ırou u ´zkostlivosti, kterou 129
jsme z´ıskali z Rorschachova testu. Jelikoˇz se jedn´a o v´ yzkum v r´amci naˇs´ı bakal´aˇrsk´e pr´ace, nem´ame velk´ y rozpoˇcet, takˇze 10 aˇz 20 pokusn´ ych osob je maximum, co jsme schopni vyˇsetˇrit. Pˇri velk´e snaze, moˇzn´a aˇz 30 jedinc˚ u. Ot´azka zn´ı, jestli to je adekv´atn´ı rozsah souboru? Na prvn´ı pohled by zde nemˇel b´ yt probl´em – pokud nem´ame ambice zobecˇ novat naˇse v´ ysledky na celou populaci, reprezentativnost zajist´ı i mal´ y homogenn´ı soubor. Anal´ yza s´ıly testu vˇsak na chystan´ y projekt vrhne u ´plnˇe jin´e svˇetlo. V prv´e ˇradˇe zkusme odhadnout s´ılu vztahu zkouman´ ych n´ahodn´ ych veliˇcin. I kdyˇz pˇripust´ıme pˇredpoklad, ˇze u ´zkostn´ı lid´e p´ıˇsou menˇs´ım p´ısmem, zˇrejmˇe nebudeme oˇcek´avat hodnoty korelaˇcn´ıho koeficientu vyˇsˇs´ı neˇz 0.2 nebo 0.3. S´ıla z´avislosti je nav´ıc zasaˇzena t´ım, ˇze u ´zkostlivost mˇeˇr´ıme ponˇekud nepˇresnˇe pomoc´ı projektivn´ı metody. Nakonec si poloˇzme ot´azku, jakou pravdˇepodobnost chyby druh´eho druhu jsme ochotni tolerovat. Rozumn´e se m˚ uˇzou zd´at hodnoty mezi 0.1 aˇz 0.2. Jelikoˇz nejde o z´avaˇzn´ y projekt, spokoj´ıme se s ˇc´ıslem 0.25, tedy se silou testu 0.75. Z´ıskan´e hodnoty dosad´ıme do vzorce (respektive je zad´ame statistick´emu programu) a zjist´ıme, ˇze pro n = 10 a ρ = 0.3 je pravdˇepodobnost odhalen´ı vztahu rovna 0.13. Tedy pravdˇepodobnost toho, ˇze nulovou hypot´ezu nezam´ıtne, pˇrestoˇze neplat´ı (β), je pˇribliˇznˇe 87 %. Zvˇetˇs´ıme-li rozsah souboru na 20 jedinc˚ u, najdeme podobnˇe neuspokojivou hodnotu 0.25. Kdyˇz s nasazen´ım vˇsech sil z´ısk´ame data od 30 respondent˚ u, st´ale bude s´ıla testu jen 0.36. Zdaleka se tedy nebl´ıˇz´ıme n´ami stanoven´e hodnotˇe 0.75. Abychom na ni dos´ahli, potˇrebujeme vyˇsetˇrit nejm´enˇe 76 jedinc˚ u. Pˇred pl´anov´an´ım v´ yzkumu je rozumn´e vˇenovat anal´ yze s´ıly testu sv˚ uj ˇcas. Zjist´ıme tak, ˇze nˇekter´e projekty jsou pˇredem odsouzeny k nezdaru. Ba co v´ıc, i kdybychom dos´ahli v´ yˇse uveden´e hodnoty 0.75, znamen´a to, ˇze je zde st´ale 25% pravdˇepodobnost, ˇze pˇrestoˇze je naˇse hypot´eza spr´avn´a, test selˇze a signifikantn´ı vztah neodhal´ı. N´akladn´e v´ yzkumy, kde je u ´spˇech d˚ uleˇzit´ y, by nemˇely operovat se silou testu niˇzˇs´ı neˇz 0.9. Doplˇ nme jeˇstˇe nˇekolik technick´ ych pozn´amek k dan´emu postupu. Funkci, kter´a by n´am poskytla poˇzadovan´ y poˇcet jedinc˚ u, nem´ame – jednoduˇse zkouˇs´ıme r˚ uzn´e rozsahy souboru od nejmenˇs´ıho po vˇetˇs´ı, neˇz dos´ahneme poˇzadovan´e s´ıly testu. S pomoc´ı poˇc´ıtaˇce je to ot´azka okamˇziku. Statistick´e programy umoˇzn ˇuj´ı analyzovat s´ılu testu pro rozmanit´e testy. M˚ uˇzeme vˇsak narazit na situaci, kdy test, kter´ y chceme prov´est, v nab´ıdce sch´az´ı (typicky jde o neparametrick´e metody). Obvykle postupujeme tak, ˇze zjist´ıme poˇzadovan´ y poˇcet mˇeˇren´ı, kter´e by vyˇzadovala ekvivalentn´ı parametrick´a metoda a v´ ysledek budeme br´at jako spodn´ı odhad.
130
5.6
Testy dobr´ e shody a dalˇ s´ı testy ˇ cetnost´ı
V t´eto kapitole se sezn´am´ıme s nˇekolika testy, kter´e m˚ uˇzeme uplatnit pˇri pr´aci s ˇcetnostmi. Testy dobr´e shody leˇz´ı na rozhran´ı test˚ u parametrick´ ych a neparametrick´ ych. S neparametrick´ ymi testy maj´ı spoleˇcn´e to, ˇze nekladou pˇr´ısn´e podm´ınky na sledovan´e veliˇciny. S parametrick´ ymi to, ˇze nijak neredukuj´ı sledovan´e veliˇciny a vyuˇz´ıvaj´ı celou informaci, kter´a je obsaˇzena v datech. Pro testy dobr´e shody je typick´e, ˇze pracuj´ı s asymptoticky norm´aln´ım rozdˇelen´ım. Zaˇcnˇeme tedy vysvˇetlen´ım, jak se pomoc´ı asymptotiky m˚ uˇzeme k norm´aln´ımu rozdˇelen´ı dostat. Pˇredstavme si jednoduchou situaci, kdy m´ame n pozorov´an´ı veliˇciny X, kter´a m´a alternativn´ı rozdˇelen´ı s parametrem p. Mohlo by tˇreba j´ıt o soubor z´aznam˚ u pacient˚ u, kter´ ym byla diagnostikov´ana porucha pˇr´ıjmu potravy. Obecnˇe se uv´ad´ı, ˇze z 90 % tˇemito poruchami trp´ı ˇzeny a z 10 % muˇzi. Tuto hypot´ezu chceme ovˇeˇrit – tedy H0 : p = 0.1. K dispozici m´ame 1000 z´aznam˚ u a napoˇc´ıtali jsme mezi nimi 80 muˇz˚ u a zbytek ˇzen. Jedna cesta, jak naˇsi hypot´ezu ovˇeˇrit, by vyuˇz´ıvala binomick´eho rozdˇelen´ı. To, ˇze jsme z´ıskali 1000 z´aznam˚ u a spoˇc´ıtali, kolik z nich patˇr´ı muˇz˚ um, lze pˇri platnosti H0 na jednu stranu povaˇzovat za 1000 nez´avisl´ ych realizac´ı n´ahodn´e veliˇciny X ∼ Alt(0.1). Na situaci se ale m˚ uˇzeme pod´ıvat t´eˇz jako na jedinou realizaci n´ahodn´e veliˇciny poˇcet muˇz˚ u (znaˇcme Y ), kter´a m´a za platnosti nulov´e hypot´ezy rozdˇelen´ı Bi(1000, 0.1). (Pokud se v´am zd´a tato u ´vaha nejasn´a, pˇreˇctˇete si znovu kapitoly 2.6.1 a 2.6.2). Pomoc´ı pravdˇepodobnostn´ı funkce binomick´eho rozdˇelen´ı um´ıme vyˇc´ıslit pravdˇepodobnost toho, ˇze se veliˇcina Y bude realizovat s libovolnou hodnotou. Naˇsemu v´ ysledku 80 by odpov´ıdala pravdˇepodobnost P (Y = 80) = 0.0043. Abychom z´ıskali p-hodnotu, museli bychom seˇc´ıst pravdˇepodobnosti vˇsech v´ ysledk˚ u, kter´e jsou jeˇstˇe extr´emnˇejˇs´ı (ve smyslu m´enˇe pravdˇepodobn´e) neˇz n´aˇs v´ ysledek. Pro jednostrannou hypot´ezu by ˇslo o pravdˇepodobnosti P (Y = 0), P (Y = 1), . . . ,P (Y = 80), jejichˇz souˇcet je 0.0176. Pro oboustrannou p-hodnotu bychom museli naj´ıt i stejnˇe nebo v´ıce extr´emn´ı vysok´e hodnoty. Ty budou zaˇc´ınat nˇekde u P (Y = 120), ne vˇsak pˇresnˇe, jelikoˇz binomick´e rozdˇelen´ı je symetrick´e pouze pokud je oˇcek´avan´a pravdˇepodobnost u ´spˇechu 50 %. Oboustrann´a p-hodnota je rovna ˇc´ıslu 0.0349. Tato cesta sice garantuje nalezen´ı pˇresn´e p-hodnoty, je ale pomˇernˇe pracn´a a neumoˇzn ˇuje nˇekter´e uˇziteˇcn´e transformace veliˇciny Y . Je zde vˇsak druh´a cesta, kter´a vyuˇz´ıv´a asymptotiky. Dosahuje-li parametr n vyˇsˇs´ı hodnoty a parametr p nen´ı pˇr´ıliˇs bl´ızko k nule nebo jedniˇcce, podob´a se graf pravdˇepodobnostn´ı funkce veliˇciny s binomick´ ym rozdˇelen´ım ˇ ım je hodnota parametru n grafu hustoty n´ahodn´e veliˇciny s norm´aln´ım rozdˇelen´ım. C´ vyˇsˇs´ı, t´ım je podobnost zˇretelnˇejˇs´ı a pˇri nekoneˇcn´em rozsahu souboru jsou obˇe rozdˇelen´ı identick´a. M˚ uˇzeme proto ˇr´ıct, ˇze takto vznikl´a n´ahodn´a veliˇcina m´a asymptoticky norm´aln´ı rozdˇelen´ı. (Nepˇripad´a-li v´am tento poznatek intuitivn´ı, osvˇeˇzte si znalosti centr´aln´ıho li131
mitn´ıho teor´emu z kapitoly 2.7.3.) S norm´aln´ım rozdˇelen´ım dok´aˇzeme pracovat. T´ım, ˇze od nˇej odeˇcteme jeho stˇredn´ı hodnotu a vydˇel´ıme smˇerodatnou odchylkou, jej pˇrevedeme na normovan´e norm´aln´ı rozdˇelen´ı, jehoˇz distribuˇcn´ı funkce je tabelovan´a. Snadno dohled´ame, ˇze stˇredn´ı hodnota n´ahodn´e veliˇciny s binomick´ ym rozdˇelen´ım je np a jej´ı rozptyl np(1 − p). Plat´ı tedy, ˇze Y − np p ∼ N (0, 1). np(1 − p) Po dosazen´ı u ´daj˚ u z naˇseho pˇr´ıkladu z´ısk´ame hodnotu −2.11 a z n´ı dvoustrannou phodnotu 0.0350. Aˇc se jednalo o pˇribliˇznou aproximaci, jej´ı pˇresnost je postaˇcuj´ıc´ı. Abychom mohli udˇelat dalˇs´ı krok, pˇripomeˇ nme definici rozdˇelen´ı χ2 . N´ahodn´a veliˇcina m´a rozdˇelen´ı χ2 s ν stupni volnosti, kdyˇz vznik´a jako souˇcet druh´ ych mocnin ν nez´avisl´ ych n´ahodn´ ych veliˇcin, z nichˇz m´a kaˇzd´a normovan´e norm´aln´ı rozdˇelen´ı. Vezmeme-li tedy n´ami vytvoˇrenou veliˇcinu s normovan´ ym norm´aln´ım rozdˇelen´ım a umocn´ıme ji na druhou, z´ısk´ame n´ahodnou veliˇcinu Z s rozdˇelen´ım χ2 s jedn´ım stupnˇem volnosti. Pro kontrolu (−2.11)2 = 4.44. V tabulk´ach m˚ uˇzeme zjistit, ˇze distribuˇcn´ı funkce n´ahodn´e veliˇciny s t´ımto rozdˇelen´ım m´a v bodˇe 4.44 hodnotu 0.9650, coˇz je po odeˇcten´ı od jedniˇcky opˇet 0.0350. Plat´ı tedy vztah Z=
Y − np p np(1 − p)
2
(Y − np)2 = ∼ χ2 (1). np(1 − p)
To vˇsak nen´ı posledn´ı krok naˇs´ı u ´vahy. N´ahodnou veliˇcinu Z m˚ uˇzeme ekvivalentnˇe pˇrepsat do jin´e podoby: Z=
(n1 –np1 )2 (n2 –np2 )2 (Y − np)2 = + ∼ χ2 (1), np(1 − p) np1 np2
kde p1 odpov´ıd´a p˚ uvodn´ımu p (v naˇsem pˇr´ıpadˇe relativn´ı ˇcetnosti muˇz˚ u za platnosti H0 ) a p2 je jeho doplnˇek (relativn´ı ˇcetnost ˇzen za platnosti H0 ). Analogicky veliˇciny n1 a n2 oznaˇcuj´ı absolutn´ı ˇcetnosti muˇz˚ u a ˇzen (Y = n1 ). Jednotliv´e ˇcleny v uveden´em vztahu jsou intuitivnˇe interpretovateln´e. Hodnoty n1 a n2 jsou pozorovan´e ˇcetnosti a np1 a np2 jsou ˇcetnosti, kter´e bychom oˇcek´avali za platnosti nulov´e hypot´ezy. Posledn´ı krok, kter´ y pˇrin´aˇs´ı fascinuj´ıc´ı zjiˇstˇen´ı, bohuˇzel dok´azat neum´ıme. Pokud bychom nepracovali jen s dvˇema u ´rovnˇemi sledovan´e promˇenn´e (s muˇzi a ˇzenami), ale obecnˇe s k u ´rovnˇemi, mohli bychom v´ yˇse uveden´ y vzorec pouˇz´ıt tak´e, jen bychom za kaˇzdou u ´roveˇ n sledovan´e veliˇciny pˇridali jeden sˇc´ıtanec s vlastn´ı oˇcek´avanou a pozorova132
Obr´azek 37: Stanoven´ı p-hodonty pomoc´ı statistiky s rozdˇelen´ım χ2 u test˚ u dobr´e shody
nou ˇcetnost´ı npj a nj . V´ ysledn´a veliˇcina by pak mˇela rozdˇelen´ı χ2 s k −1 stupni volnosti.35 Obecnˇe pˇri testech dobr´e shody tedy budeme pracovat se statistikou k X (pozorovan´a ˇcetnostj − oˇcek´avan´a ˇcetnostj )2 , Z= oˇ c ek´ a van´ a ˇ c etnost j j=1
ˇ kter´a bude m´ıt vˇzdy rozdˇelen´ı χ2 . Casto se proto testy dobr´e shody oznaˇcuj´ı jako testy ch´ı kvadr´at, aˇc takov´eto pojmenov´an´ı nen´ı zcela pˇresn´e.36 Co se t´ yˇce stanovov´an´ı p-hodnoty ze z´ıskan´e hodnoty testov´e statistiky, mˇeli bychom si uvˇedomit jeden z´asadn´ı rozd´ıl mezi rozdˇelen´ım χ2 a norm´aln´ım rozdˇelen´ım. Pokud jsme pracovali s normovan´ ym norm´aln´ım rozdˇelen´ım, nasvˇedˇcovaly poruˇsen´ı nulov´e hypot´ezy jak vysok´e tak n´ızk´e (z´aporn´e) hodnoty testov´e statistiky (pokud ˇslo o dvoustrannou hypot´ezu). Pˇri v´ ypoˇctu test˚ u dobr´e shody se ale norm´aln´ı rozdˇelen´ı umocˇ nuje na druhou, a testov´a statistika tak ztr´ac´ı z´aporn´e znam´enko. Tedy vˇsechny hodnoty, co naznaˇcovaly poruˇsen´ı nulov´e hypot´ezy at’ uˇz v kladn´em nebo z´aporn´em smˇeru, se pˇreklop´ı do vysok´ ych kladn´ ych hodnot. Mluv´ıme-li tedy o testech dobr´e shody, kter´e pouˇz´ıvaj´ı testovou statistiku s rozdˇelen´ım χ2 , vˇzdy testujeme pravostrannou hypot´ezu a p-hodnotu z´ısk´ame z prav´eho chvostu rozdˇelen´ı. Kritick´ y obor bychom tedy stanovili jako W = [χ21−α (ν), ∞), kde ν je pˇr´ısluˇsn´ y poˇcet stupˇ n˚ u volnosti. Ilustruje to obr´azek (37). 35
Aˇc toto tvrzen´ı neum´ıme odvodit, zd´ a se intuitivnˇe pravdiv´e. Poˇcty pozorov´an´ı, kter´a maj´ı danou u ´roveˇ n sledovan´e vlastnosti, maj´ı binomick´a rozdˇelen´ı. Pokud vˇsak v´ıme, kolik pozorov´an´ı pˇripad´a na prvn´ıch k − 1 u ´rovn´ı, pak posledn´ı u ´roveˇ n je dan´a, nikoli n´ahodn´a – z´akonitˇe do n´ı mus´ı spadat zbytek pozorov´ an´ı. Situaci tedy lze popsat pomoc´ı k − 1 binomick´ ych rozdˇelen´ı. 36 Obecnˇe nen´ı pojmenov´ an´ı test˚ u ch´ı kvadr´ at moc pˇrehledn´e. Pod t´ımto n´azvem (nˇekdy t´eˇz Pearson˚ uv ch´ı kvadr´ at) se skr´ yvaj´ı pˇrinejmenˇs´ım tˇri testy: test dobr´e shody (pro jeden v´ ybˇer), test nez´avislosti a test homogenity. V tomto textu vˇsechny tyto testy budeme obecnˇe naz´ yvat testy dobr´e shody, aˇc se toto oznaˇcen´ı nejˇcastˇeji pouˇz´ıv´ a v pˇr´ıpadˇe prvn´ıho jmenovan´eho testu. Logika tohoto oznaˇcen´ı je ta, ˇze testujeme shodu mezi oˇcek´ avan´ ymi ˇcetnostmi a ˇcetnostmi pozorovan´ ymi.
133
5.6.1
Test dobr´ e shody pro jeden v´ ybˇ er
Test dobr´e shody pro jeden v´ ybˇer pouˇzijeme v situaci, kdy m´ame nomin´aln´ı n´ahodnou veliˇcinu X o k u ´rovn´ıch a ovˇeˇrujeme nulovou hypot´ezu, kter´a stanovuje pravdˇepodobnosti v´ yskytu jednotliv´ ych u ´rovn´ı. Tedy H0 : p1 = p01 , p2 = p02 , . . . , pk = p0k , kde pj = P (X = j). Pˇri ˇreˇsen´ı nejprve spoˇc´ıt´ame absolutn´ı ˇcetnosti jednotliv´ ych u ´rovn´ı n´ahodn´e veliˇciny X a pojmenujeme je n1 aˇz nk . D´ale stanov´ıme oˇcek´avan´e absolutn´ı ˇcetnosti. Ty z´ısk´ame tak, ˇze vyn´asob´ıme poˇcet pozorov´an´ı pravdˇepodobnost´ı, kterou stanovuje nulov´a hypot´eza, tedy np0j . Pokud se ˇcten´aˇri nedaˇr´ı pˇredstavit si, jak by takov´a nulov´a hypot´eza mohla zn´ıt, bylo by to napˇr´ıklad: Vˇekov´a struktura obyvatel Olomouce ˇ (zde by se pˇredpokl´adalo rozdˇelen´ı spojit´e promˇenn´e vˇek odpov´ıd´a vˇekov´e struktuˇre CR ˇ se neliˇs´ı napˇr´ıˇc dny do nˇekolika vˇekov´ ych kategori´ı) nebo Pr˚ umˇern´y poˇcet sebevraˇzd v CR v t´ydnu (pokud bychom chtˇeli ovˇeˇrovat Frankl˚ uv koncept nedˇeln´ıch neur´oz). V druh´em pˇr´ıpadˇe by zˇrejmˇe bylo k = 7 a pravdˇepodobnosti p01 aˇz p07 by se rovnaly 17 . Hodnoty n1 aˇz n7 by zachycovaly poˇcty sebevraˇzd v jednotliv´e dny v t´ ydnu. Druhou moˇznost´ı by bylo rozdˇelit dny v t´ ydnu pouze na dvˇe kategorie (nen´ı v´ıkend / je v´ıkend) a stanovit jim pravdˇepodobnosti
5 7
a 27 . Pro testovou statistiku Z pak plat´ı k X (nj − np0j )2 Z= ∼ χ2 (k − 1). np 0j j=1
Test dobr´e shody m´a jedin´e omezen´ı. V pˇr´ıpadˇe, ˇze nˇekter´a z oˇcek´avan´ ych ˇcetnost´ı je velmi mal´a (tradiˇcnˇe se uv´ad´ı menˇs´ı neˇz 5), nen´ı asymptotika jeˇstˇe dostateˇcnˇe siln´a, ˇ sen´ım pak je aby zajistila pˇresnou aproximaci, a test se st´av´a pˇr´ıliˇs konzervativn´ım. Reˇ slouˇcit tuto m´alo zastoupenou kategorii s nˇejakou jinou kategori´ı. V pˇr´ıpadˇe, ˇze m´ame velk´e mnoˇzstv´ı kategori´ı, lze tolerovat v´ yskyt nˇekolika oˇcek´avan´ ych ˇcetnost´ı menˇs´ıch neˇz 5, celkovˇe jich vˇsak nesm´ı b´ yt v´ıce neˇz
1 4
a ˇza´dn´a z nich se nesm´ı rovnat nebo tˇesnˇe bl´ıˇzit
nule. U test˚ u dobr´e shody obvykle neuv´ad´ıme ˇza´dn´ y ukazatel m´ıry u ´ˇcinku. Metoda nav´ıc neposkytuje ani podrobnou informaci o tom, kter´e u ´rovnˇe sledovan´e promˇenn´e se v´ yraznˇe vymykaj´ı naˇsemu oˇcek´av´an´ı, a pˇrispˇely tak nejvˇetˇs´ı vahou k zam´ıtnut´ı nulov´e hypot´ezy. Tuto informaci vˇsak m˚ uˇzeme z´ıskat tak, ˇze srovn´ame hodnoty jednotliv´ ych sˇc´ıtanc˚ u, kter´e se skl´adaj´ı do testov´e statistiky Z. V textu reportujeme v´ ysledky testu dobr´e shody napˇr´ıklad takto: Pˇrestoˇze na nedˇeli pˇripad´a nejv´ıce sebevraˇzd (16 %), je jejich rozprostˇren´ı v pr˚ ubˇehu t´ydne rovnomˇern´e, χ2 (6, n = 594) = 4.28, p = 0.64. 134
5.6.2
Kontingenˇ cn´ı tabulky a jejich testov´ an´ı
Ovˇeˇrujeme-li vztah dvou nomin´aln´ıch promˇenn´ ych, pˇrijde n´am vhod test nez´avislosti. Dˇr´ıve, neˇz pop´ıˇseme jeho princip, seznamme se s kontingenˇcn´ımi tabulkami, kter´e pˇri pr´aci s v´ıce nomin´aln´ımi promˇenn´ ymi pouˇz´ıv´ame. Kontingenˇcn´ı tabulka zachycuje rozdˇelen´ı n pozorov´an´ı, u kter´ ych sledujeme hodnoty dvou kvalitativn´ıch znak˚ u, kter´e odpov´ıdaj´ı n´ahodn´ ym veliˇcin´am X a Y 37 . N´ahodn´a veliˇcina X nab´ yv´a r u ´rovn´ı a Y m´a u ´rovn´ı s. Kontingenˇcn´ı tabulka pak bude m´ıt r ˇra´dk˚ u a s sloupc˚ u a kaˇzd´a buˇ nka bude pˇredstavovat jednu kombinaci u ´rovn´ı n´ahodn´ ych veliˇcin X a Y . Hodnoty v buˇ nk´ach (znaˇcme je nij , kde i identifikuje ˇr´adek a j sloupec) oznaˇcuj´ı poˇcty pozorov´an´ı, kter´a maj´ı danou kombinaci hodnot promˇenn´ ych X a Y . Na obvod kontingenˇcn´ı tabulky doplˇ nujeme sloupcov´e a ˇr´adkov´e souˇcty, kter´e oznaˇcujeme jako margin´ aln´ı ˇ cetnosti. Margin´aln´ı ˇcetnosti jsou tedy poˇcty pozorov´an´ı, kter´a maj´ı danou hodnotu jedn´e promˇenn´e bez ohledu na hodnotu promˇenn´e druh´e. Oznaˇcujeme je pomoc´ı punt´ık˚ u (viz tabulka 9a). V pˇr´ıpadˇe, ˇze jsme kontingenˇcn´ı tabulku vytvoˇrili z dvou promˇenn´ ych, kter´e maj´ı alternativn´ı rozdˇelen´ı, a obsahuje tedy ˇctyˇri hodnoty, pak ji oznaˇcujeme jako ˇ ctyˇ rpoln´ı tabulku. Kontingenˇcn´ı tabulku bychom pouˇzili napˇr´ıklad tehdy, kdyˇz bychom zkoumali, zdali si (zdrav´ı) lid´e, kteˇr´ı se rozhodli vstoupit do psychoterapie, vyb´ıraj´ı psychoterapeuta urˇcit´eho smˇeru (napˇr. psychoanal´ yza, KBT, PCT, logoterapie) dle druhu probl´emu, se kter´ ym se chtˇej´ı vypoˇr´adat. Oslovili bychom ˇradu jedinc˚ u zvaˇzuj´ıc´ıch n´avˇstˇevu psychoterapeuta, pomoc´ı kr´atk´eho dotazn´ıku bychom zjistili jejich pot´ıˇze a ty rozdˇelili do kategori´ı (partnersk´e vztahy, traumatick´a ud´alost,. . . ). Po ˇcase bychom respondenty znovu kontaktovali a zjistili, jestli nalezli psychologa, kter´ y jim vyhovoval a u nˇejˇz pokraˇcuj´ı ˇci jiˇz dokonˇcili terapii. ˇ Reknˇ eme, ˇze jsme dostateˇcnˇe vysok´e ˇcetnosti pro zaˇrazen´ı do v´ yzkumu pozorovali u tˇr´ı psychologick´ ych ˇskol a ˇctyˇr druh˚ u probl´em˚ u. Pozorovan´e ˇcetnosti shrnuje tabulka (9b). Nulov´a hypot´eza, kterou budeme testovat, zn´ı sledovan´e n´ahodn´e veliˇciny jsou nez´avisl´e, v naˇsem pˇr´ıpadˇe tedy volba terapeuta nesouvis´ı s druhem klientova probl´emu. Test opˇet provedeme srovn´an´ım pozorovan´ ych a oˇcek´avan´ ych ˇcetnost´ı. Mus´ıme vˇsak nejdˇr´ıv zjistit, jak´e ˇcetnosti bychom za platnosti nulov´e hypot´ezy oˇcek´avali. Vzpomeˇ nme si na princip nez´avislosti dvou n´ahodn´ ych jev˚ u: jevy A a B jsou nez´avisl´e, pokud P (A ∩ B) = P (A) · P (B). V naˇsem pˇr´ıpadˇe by tedy muselo platit to, ˇze pravdˇepodobnost situace, kdy ˇ m´a klient Probl´em 1 a z´aroveˇ n si vybere terapeuta ze Skoly A, se mus´ı rovnat pravdˇepodobnosti, ˇze klient m´a Probl´em 1, kr´at pravdˇepodobnost toho, ˇze si vybere terapeuta ze 37
Nebyl by probl´em zobecnit kontingenˇcn´ı tabulku i na v´ıce nomin´aln´ıch promˇenn´ ych, bylo by vˇsak obt´ıˇzn´e ji pˇrehlednˇe nakreslit a museli bychom ji napl´atkovat“ do v´ıce tabulek. ”
135
Tabulka 9: Kontingenˇcn´ı tabulka a v´ ypoˇcet testu nez´avislosti a) Oznaˇcen´ı bunˇek: Y =1
Y =2
...
Y =s
P
X=1
n11
n12
...
n1s
n1•
X=2 .. .
n21 .. .
n22 .. .
... ...
n2s .. .
n2• .. .
X=r P
nr1
nr2
...
nrs
nr•
n•1
n•2
...
n•s
n
b) Pozorovan´e ˇcetnosti: Probl´em 1
Probl´em 2
Probl´em 3
Probl´em 4
P
32
15
4
7
58
20
22
5
5
52
12
8
16
4
40
64
45
25
16
150
Probl´em 1
Probl´em 2
Probl´em 3
Probl´em 4
P
ˇ Skola A ˇ Skola B
24.75
17.40
9.67
6.19
58
22.19
15.60
8.67
5.55
52
Skola C P
17.07
12.00
6.67
4.27
40
64
45
25
16
150
ˇ Skola A ˇ Skola B ˇ Skola C P c) Oˇcek´avan´e ˇcetnosti:
d) D´ılˇc´ı hodnoty sumy: Probl´em 1
Probl´em 2
Probl´em 3
Probl´em 4
ˇ Skola A ˇ Skola B
2.13
0.33
3.32
0.11
0.22
2.63
1.55
0.05
Skola C
1.50
1.33
13.07
0.02
136
ˇ ˇ ˇ Skoly A. Zapiˇsme jako P (Probl´em = 1 ∩ Skola = A) = P (Probl´em = 1) · P (Skola = A). Analogicky m˚ uˇzeme popsat vˇsech 12 moˇznost´ı. Pro v´ ypoˇcet pravdˇepodobnost´ı, kter´e by odpov´ıdaly jednotliv´ ym kombinac´ım u ´rovn´ı sledovan´ ych promˇenn´ ych, potˇrebujeme zn´at d´ılˇc´ı pravdˇepodobnosti P (Probl´em = 1), ˇ ˇ P (Probl´em = 2). . . a P (Skola = A), P (Skola = B) atd. Ty zjist´ıme snadno pomoc´ı margin´aln´ıch ˇcetnost´ı. Pokud v´ıme, ˇze ze 150 klient˚ u jich 45 mˇelo Probl´em 2, pak odhadneme, ˇze P (Probl´em = 2) = n•j . n
45 150
= 0.3. Obecnˇe P (X = i) =
ni• n
a P (Y = j) =
Dosad´ıme-li do naˇs´ı pˇredchoz´ı u ´vahy, pak zjist´ıme, ˇze za platnosti nulov´e hypot´ezy
P (X = i ∩ Y = j) =
ni• n•j n n
=
ni• n•j . n2
Z´ıskali jsme tedy pravdˇepodobnost toho, ˇze n´ahodnˇe
vybran´e pozorov´an´ı za platnosti nulov´e hypot´ezy padne do buˇ nky se souˇradnicemi i a j. Abychom vˇsak z´ıskali oˇcek´avanou (absolutn´ı) ˇcetnost, vyn´asob´ıme tuto pravdˇepodobnost celkov´ ym rozsahem souboru n a z´ısk´ame tak vztah oˇcek´avan´a ˇcetnostij =
ni• n•j . n
Slovnˇe pops´ano: oˇ cek´ avanou ˇ cetnost z´ısk´ ame jako souˇ cin pˇ r´ısluˇ sn´ ych margin´ aln´ıch ˇ cetnost´ı vydˇ elen´ y rozsahem souboru. Oˇcek´avan´e ˇcetnosti k naˇsemu pˇr´ıkladu m˚ uˇzete vidˇet v tabulce (9c). Napˇr´ıklad oˇcek´avan´a ˇcetnost jedinc˚ u, kteˇr´ı maj´ı Probl´em 1 ˇ a navˇst´ıv´ı terapeuta ze Skoly C, je 40·64 = 17.07. 150
Testovou statistiku Z z´ısk´ame opˇet v´ ypoˇctem dobr´e shody mezi oˇcek´avan´ ymi a pozorovan´ ymi ˇcetnostmi. Jelikoˇz m´a tabulka dvˇe dimenze, budou ve vzorci vystupovat dvˇe sumy: r X s n n 2 X nij − i•n •j ∼ χ2 (r − 1)(s − 1). Z= ni• n•j i=1 j=1
n
Vˇsimnˇete si, jak´ ym zp˚ usobem jsou stanoveny stupnˇe volnosti. Jde o poˇcet ˇra´dk˚ u tabulky m´ınus jeden kr´at poˇcet sloupc˚ u tabulky m´ınus jeden. Pro ˇctyˇrpoln´ı tabulky by tedy test mˇel jedin´ y stupeˇ n volnosti. Po dosazen´ı do vzorce v naˇsem pˇr´ıkladu najdeme hodnotu z = 26.25, coˇz pˇri (4 − 1)(3 − 1) = 6 stupn´ıch volnosti odpov´ıd´a p-hodnotˇe 0.0002. Mezi sledovan´ ymi veliˇcinami tedy existuje z´avislost. Test nez´avislosti (a obecnˇe testy dobr´e shody) b´ yv´a nˇekdy kritizov´an za to, ˇze poskytuje velmi v´agn´ı odpovˇed’. To, ˇze si klienti vyb´ıraj´ı terapeuta dle druhu sv´ ych probl´em˚ u, je sice zaj´ımav´a informace, neobjasn´ı n´am vˇsak, s jak´ ym druhem probl´emu p˚ ujdeme za k´ ym. M˚ uˇzeme si pomoci t´ım, ˇze prozkoum´ame jednotliv´e sˇc´ıtance celkov´e sumy. Pˇrehlednˇe je zn´azorˇ nuje tabulka (9d). Jak je patrn´e, v naˇsem pˇr´ıkladu n´apadnˇe vyˇcn´ıv´a hodnota buˇ nky 3-3. Mohli bychom tedy popsat v´ ysledek naˇseho experimentu: Pozorovali jsme signifikantn´ı souvislost mezi druhem klientova probl´emu a jeho v´ybˇerem terapeuta, χ2 (6, n = 137
150) = 26.25, p < 0.001. Souvislost je patrn´a zejm´ena u klient˚ u s probl´emy z kategorie 3, kteˇr´ı si n´apadnˇe ˇcasto vyb´ıraj´ı terapeuty s teoretick´ym zamˇeˇren´ım C. Stejnˇe jako ostatn´ı testy dobr´e shody, je test nez´avislosti asymptotick´ ym testem. Jeho v´ ysledky m˚ uˇzou b´ yt pˇri mal´ ych ˇcetnostech nepˇresn´e. Nen´ı proto doporuˇceno pouˇz´ıvat test ˇ adn´a by vˇsak nez´avislosti, pokud je v´ıce neˇz ˇctvrtina oˇcek´avan´ ych ˇcetnost´ı niˇzˇs´ı neˇz 5. Z´ nemˇela b´ yt menˇs´ı neˇz 1. Nˇekteˇr´ı autoˇri tak´e upozorˇ nuj´ı na to, ˇze test nez´avislosti nerespektuje zcela pˇresnˇe stanovenou hladinu α a zam´ıt´a nulovou hypot´ezu o nˇeco ˇcastˇeji, neˇz poˇzadujeme. Toto zkreslen´ı lze ˇreˇsit takzvanou Yatesovou korekc´ı, kterou provedeme odeˇcten´ım
1 2
od
velikosti kaˇzd´eho rozd´ılu mezi oˇcek´avanou a pozorovanou ˇcetnost´ı: Z=
r X s X |nij − i=1 j=1
ni• n•j | n ni• n•j n
2 − 0.5
.
Yatesova korekce je o nˇeco pˇr´ısnˇejˇs´ı, neˇz je potˇreba, a test se tak po jej´ım pouˇzit´ı st´av´a naopak pˇr´ıliˇs konzervativn´ım. S jej´ı pomoc´ı se vˇsak zejm´ena pˇri pr´aci s mal´ ymi oˇcek´avan´ ymi ˇcetnostmi odhad p-hodnoty v´ yraznˇe zpˇresn´ı, takˇze vyjma situac´ı, kdy pracujeme s velk´ ymi rozsahy, bychom jej´ı uˇzit´ı mˇeli br´at za samozˇrejm´e. Testu nez´avislosti je na prvn´ı pohled velmi podobn´ y test homogenity. Opˇet bychom pracovali se dvˇema kvalitativn´ımi promˇenn´ ymi, rozd´ıl by vˇsak byl v tom, ˇze jedna z nich by nebyla n´ahodnou veliˇcinou, ale jej´ı hodnota by byla pˇredem d´ana. Kdybychom napˇr´ıklad zmˇenili design v´ yˇse popsan´eho v´ yzkumu a oslovili 50 klient˚ u, kteˇr´ı podstupuj´ı terapii u psychologa se zamˇeˇren´ım A, 50 se zamˇeˇren´ım B a 50 se zamˇeˇren´ım C, pak by promˇenn´a zamˇeˇren´ı terapeuta nebyla n´ahodnou veliˇcinou, jelikoˇz jej´ı hodnoty neurˇcila n´ahoda, ale pevnˇe jsme je stanovili my. V kontingenˇcn´ı tabulce by se tato zmˇena projevila fixnˇe dan´ ymi ˇra´dkov´ ymi margin´aln´ımi ˇcetnostmi. N´aˇs test by neovˇeˇroval nez´avislost dvou veliˇcin, ale to, jestli jsou pravdˇepodobnosti vˇsech u ´rovn´ı n´ahodn´e veliˇciny Y stejn´e pro vˇsechny populace. Ponˇekud pˇrekvapivˇe by se kromˇe v´ yˇse uveden´ ych rozd´ıl˚ u na testu nic nezmˇenilo. Testov´a statistika bude m´ıt pˇresnˇe stejnou podobu a za platnosti nulov´e hypot´ezy bude m´ıt opˇet rozdˇelen´ı χ2 s (r − 1)(s − 1) stupni volnosti. Stejn´a bude tak´e podm´ınka minim´aln´ıch ˇcetnost´ı a moˇznost vyuˇzit´ı Yatesovy korekce. Oba testy si jsou navenek tak moc podobn´e, ˇze si ˇrada v´ yzkumn´ık˚ u v˚ ubec neuvˇedomuje, ˇze jde o dvˇe rozd´ıln´e metody vych´azej´ıc´ı z odliˇsn´eho teoretick´eho v´ ychodiska. U test˚ u nez´avislosti a testu homogenity vˇetˇsina autor˚ u ˇz´adn´ y ukazatel m´ıry u ´ˇcinku neuv´ad´ı. Pˇritom bychom naˇsli celou ˇradu ukazatel˚ u, kter´e tento u ´kol dok´aˇzou splnit. V kapitole (3.7.3) jsme mluvili o koeficientu φ (znaˇcili jsme jej rφ a poˇc´ıtali jako Pearson˚ uv korelaˇcn´ı koeficient dvou alternativnˇe rozdˇelen´ ych n´ahodn´ ych veliˇcin). Jelikoˇz jeho velikost 138
nen´ı z´avisl´a na velikosti souboru ani na ˇsk´ale mˇeˇren´ı, splˇ nuje vˇsechny poˇzadavky, kter´e klademe na ukazatele m´ıry u ´ˇcinku. Nav´ıc jej m˚ uˇzeme snadno z´ıskat z v´ yˇse popsan´e testov´e statistiky Z pomoc´ı vztahu: r z φ= n Hodnota, kterou najdeme, pˇresnˇe odpov´ıd´a vzorci, kter´ y jsme uv´adˇeli v kapitole (3.7.3), ovˇsem aˇz na znam´enko – pˇri v´ ypoˇctu z testov´e statistiky bude koeficient vˇzdy kladn´ y. Tento zp˚ usob v´ ypoˇctu pˇrin´aˇs´ı jednu v´ yhodu – nemus´ıme se omezovat jen na ˇctyˇrpoln´ı tabulky, ale m˚ uˇzeme kvantifikovat s´ılu vztahu mezi nomin´aln´ımi promˇenn´ ymi s libovoln´ ym poˇctem u ´rovn´ı.38 5.6.3
Fisher˚ uv faktori´ alov´ y test
Pro vˇsechny testy dobr´e shody plat´ı, ˇze jsou asymptotick´e, nem˚ uˇzeme je tedy pouˇz´ıt, pokud pracujeme s mal´ ymi ˇcetnostmi. Naˇstˇest´ı se t´eto nepˇr´ıjemnosti m˚ uˇzeme vyhnout s pomoc´ı kombinatorick´ ych test˚ u, kter´e testy dobr´e shody doplˇ nuj´ı. Nejzn´amˇejˇs´ı z nich je Fisher˚ uv faktori´alov´ y test (t´eˇz Fisher˚ uv exaktn´ı test), kter´ y nahrazuje test dobr´e shody a test homogenity pro ˇctyˇrpoln´ı tabulku. Jak napov´ıd´a n´azev, v´ ypoˇcet p-hodnoty lze pˇrev´est na kombinatorickou u ´lohu, na coˇz jako prvn´ı pouk´azal Ronald Fisher. Ke vzniku testu se v´aˇze ud´alost z jeho ˇzivota. V l´etˇe roku 1920 v Cambridgi pop´ıjel ˇcaj se sv´ ymi pˇra´teli, mezi kter´ ymi byla i Muriel Bristol, mlad´a doktorka biologie. Ta prohl´asila, ˇze ˇcaj m´a jinou chut’ v z´avislosti na tom, jestli do ˇsa´lku nalijeme nejdˇr´ıv ml´eko, a aˇz pak ˇcaj, nebo naopak budeme-li l´ıt ml´eko do ˇcaje. Toto tvrzen´ı vzbudilo mezi u ´ˇcastn´ıky ned˚ uvˇeru, a tak Ronald Fisher navrhl a realizoval jednouch´ y experiment. Nechal pˇripravit 8 ˇsa´lk˚ u ˇcaje, pˇriˇcemˇz 4 byly pˇripraveny tak, ˇze sluˇzebn´a nalila do ˇsa´lku nejdˇr´ıv ml´eko a u zb´ yvaj´ıc´ıch ˇctyˇr zvolila opaˇcn´e poˇrad´ı. Muriel Bristol, kter´a nevˇedˇela, jak byl kter´ y ˇs´alek pˇripraven, pak mˇela za u ´kol ze vˇsech ochutnat a spr´avnˇe vybrat ty 4, kter´e byly pˇripraveny jedn´ım zp˚ usobem. V´ ysledek experimentu si m˚ uˇzeme pˇredstavit jako ˇctyˇrpoln´ı tabulku (10). Margin´aln´ı ˇcetnosti jsou dan´e – 4 ˇsa´lky jsou pˇripraveny metodou ml´eko dˇr´ıv a 4 metodou ˇcaj dˇr´ıv (n•1 = n•0 = 4). Jelikoˇz hodnotitelka v´ı, ˇze v kaˇzd´e skupinˇe jsou 4 ˇsa´lky, tak v´ ysledek jej´ıho odhadu pˇridˇel´ı r˚ uzn´e metody pˇr´ıpravy dvˇema ˇctveˇric´ım ˇsa´lk˚ u (n1• = n0• = 4). Pokud 38
Podobn´e vyuˇzit´ı m´ a i nˇekolik dalˇs´ıch koeficient˚ u. Napˇr´ıklad kontingenˇcn´ı koeficient
q
z n+z .
Ten se
chov´ qa podobnˇe jako koeficient φ. Nejvˇetˇs´ım rozd´ılem je to, ˇze nikdy nedosahuje hodnoty 1 – jeho maximum je q−1 s´ı hodnota z poˇctu ˇr´ adk˚ u a poˇctu sloupc˚ u tabulky, tedy min(r, s). D´ale se setk´av´ame q , kde q je menˇ q z s koeficientem jm´enem Cram´erovo V, kter´ y poˇc´ıt´ame jako n·(q−1) . P´ısmeno q opˇet znaˇc´ı min(r, s). Je patrn´e, ˇze pokud m´ a kontingenˇcn´ı tabulka 2 ˇr´adky nebo 2 sloupce, pak Cram´erovo V pˇresnˇe odpov´ıd´ a koeficientu φ.
139
Tabulka 10: Tabulka k Fisherovu faktori´alov´emu testu Metoda pˇr´ıparvy
Rozhodnut´ı
ˇ dˇr´ıv Caj
Ml´eko dˇr´ıv
ˇ dˇr´ıv Caj
3
1
Ml´eko dˇr´ıv
1
3
by metodu pˇr´ıpravy nebylo moˇzn´e ochutn´an´ım rozeznat, ˇra´dky i sloupce kontingenˇcn´ı tabulky by byly nez´avisl´e. Nulov´a hypot´eza tedy ˇr´ık´a, ˇze to, jak je ˇs´alek pˇripraven, a jak bude oznaˇcen, je na sobˇe vz´ajemnˇe nez´avisl´e. Uvˇedomme si, ˇze ˇctyˇrpoln´ı tabulka m´a jedin´ y stupeˇ n volnosti – pokud tedy pˇri pevnˇe dan´ ych margin´aln´ıch ˇcetnostech zn´ame hodnotu jedin´e buˇ nky, zn´ame i hodnoty zb´ yvaj´ıc´ıch tˇr´ı. Pokud by tedy hodnotitelka udˇelala jedinou chybu a jednomu ˇsa´lku ml´eko dˇr´ıv “ dala ” oznaˇcen´ı ˇcaj dˇr´ıv “, pak v´ıme, ˇze je ˇspatnˇe urˇcen jeˇstˇe jeden ˇsa´lek a ˇze spr´avnˇe urˇcen´ ych ” je 3 a 3 ˇs´alk˚ u (viz kontingenˇcn´ı tabulka 10). Je tedy zcela postaˇcuj´ıc´ı zkoumat chov´an´ı jedin´e buˇ nky. V tomto pˇr´ıkladu si vyberme buˇ nku n21 . Jak´a je pravdˇepodobnost, ˇze jen jedin´ y ˇs´alek pˇripraven´ y metodou ˇcaj dˇr´ıv “ dostane ” oznaˇcen´ı ml´eko dˇr´ıv “, pokud hodnotitelka jen h´ad´a? Pravdˇepodobnost m˚ uˇzeme odvodit ” s pomoc´ı nˇekolika kombinaˇcn´ıch ˇc´ısel39 a n´aslednˇe upravit do tohoto tvaru:
p =
n11 +n12 n11
+
n21 +n22 n21
n n11 +n21
=
(n11 + n12 )! · (n21 + n22 )! · (n11 + n21 )! · (n12 + n22 )! . n11 ! · n12 ! · n21 ! · n22 ! · n!
Po dosazen´ı bychom z´ıskali hodnotu 0.229. Tato pravdˇepodobnost ale nen´ı hledan´a phodnota. Potˇrebujeme vypoˇc´ıtat pravdˇepodobnosti vˇsech kontingenˇcn´ıch tabulek, kter´e pˇri dan´ ych margin´aln´ıch ˇcetnostech poruˇsuj´ı nulovou hypot´ezu stejnˇe ˇci jeˇstˇe v´ yraznˇeji, neˇz ta, kterou jsme pozorovali. Pokud byla alternativa jednostrann´a, tak m˚ uˇze nastat jeˇstˇe jedna extr´emnˇejˇs´ı situace – ta, kdy by bylo vˇsech 8 ˇsa´lk˚ u zaˇrazeno spr´avnˇe. Vytvoˇr´ıme-li takovouto tabulku a spoˇc´ıt´ame-li jej´ı pravdˇepodobnost, dostaneme hodnotu 0.014. Jednostrann´a p-hodnota pak bude souˇcet obou ˇc´ısel, tedy 0.243. Pokud chceme zn´at oboustrannou p-hodnotu, m˚ uˇzeme nalezen´e ˇc´ıslo vyn´asobit dvˇema. V pˇr´ıpadˇe nevyv´aˇzen´ ych margin´aln´ıch ˇcetnost´ı tento postup vˇsak nemus´ı v´est k pˇresn´emu v´ ysledku. Spr´avnˇejˇs´ı postup by bylo vypoˇc´ıtat pravdˇepodobnosti vˇsech moˇzn´ ych kontingenˇcn´ıch tabulek a seˇc´ıst pravdˇepodobnosti tˇech, co jsou stejnˇe nebo m´enˇe pravdˇepodobn´e neˇz ta, kterou jsme pozorovali. V naˇsem pˇr´ıpadˇe oba postupy vedou k p-hodnotˇe 0.486, tedy jiˇz jedin´a chyba z osmi pozorov´an´ı vede k nezam´ıtnut´ı nulov´e hypot´ezy. 39 Pro pochopen´ı uveden´eho vzorce by byla uˇziteˇcn´a znalost hypergeometrick´eho rozdˇelen´ı, kter´e v tˇechto skriptech neprob´ır´ ame. Jeho znˇen´ı jsme si vˇsak nevˇedomky odvodili v pˇr´ıkladu (20) v pˇr´ıloze tˇechto skript, kde si klademe analogickou ot´azku.
140
Faktori´alov´ y test nem´a ˇza´dnou testovou statistiku – jednoduˇse poskytuje (pˇri dan´ ych margin´aln´ıch ˇcetnostech) pˇresnou p-hodnotu. Faktori´alov´ y test nen´ı sv´az´an ˇz´adnou podm´ınkou a pracuje s libovoln´ ymi ˇcetnostmi. Pravdou vˇsak je, ˇze pˇri vˇetˇs´ıch rozsaz´ıch souboru jeho v´ ypoˇcetn´ı n´aroˇcnost strmˇe roste, coˇz vˇsak nen´ı probl´em, jelikoˇz pˇri vyˇsˇs´ıch rozsaz´ıch v´ ybˇeru n´am spolehlivˇe poskytnou p-hodnotu testy dobr´e shody. Jedno slab´e m´ısto pˇrece jen kombinatorick´e testy maj´ı – vˇsimnˇete si, ˇze pˇri designu, kter´ y jsme pouˇzili, nikdy neprov´ad´ıme test na hladinˇe α = 5 %. Pˇri vˇsech margin´aln´ıch ˇcetnostech rovn´ ych 4 nem˚ uˇzeme z´ıskat jin´e oboustrann´e p-hodnoty neˇz 0.029, 0.457 a 1.00. Z´akonitˇe n´as tedy test povede k vˇetˇs´ı pˇr´ısnosti, neˇz poˇzadujeme.40 Faktori´alov´ y test je moˇzn´e zobecnit i na vˇetˇs´ı tabulky neˇz jen 2 × 2. Tato zobecnˇen´ı opˇet funguj´ı na principu proch´azen´ı nejm´enˇe pravdˇepodobn´ ych tabulek a stanovov´an´ı jejich pravdˇepodobnost´ı, pˇr´ıpadnˇe pouˇz´ıvaj´ı Monte Carlo simulace. Na z´avˇer dodejme, ˇze dle z´aznam˚ u toho odpoledne Muriel Bristol spr´avnˇe urˇcila postup pˇr´ıpravy u vˇsech osmi ˇs´alk˚ u ˇcaje. 5.6.4
McNemar˚ uv test a test symetrie podle Bowkera
Naˇse pov´ıd´an´ı o testech, kter´e pracuj´ı s nomin´aln´ımi promˇenn´ ymi, uzavˇreme p´arov´ ymi testy. S designem, kde prov´ad´ıme dvˇe z´avisl´a mˇeˇren´ı (napˇr. pretest a posttest, prav´a a lev´a ruka, manˇzel manˇzelka) jsme se setkali jiˇz u p´arov´eho t-testu. Co kdyˇz vˇsak v´ ysledkem tˇechto dvou mˇeˇren´ı nebude kvantitativn´ı promˇenn´a, ale jen dichotomie? Tuto situaci ˇreˇs´ı McNemar˚ uv test. Sv´a data opˇet uspoˇr´ad´ame do kontingenˇcn´ı tabulky – v pˇr´ıpadˇe McNemarova to bude ˇctyˇrpoln´ı tabulka. Tentokr´at si vˇsak nebudeme pokl´adat ot´azku, jestli je prvn´ı a druh´e mˇeˇren´ı nez´avisl´e (to by ovˇeˇroval test nez´avislosti a Fisher˚ uv faktori´alov´ y test), ale to, jestli je v souboru v´ıc pozorov´an´ı, kter´a mˇela pˇri prvn´ım mˇeˇren´ı hodnotu 0 a pˇri druh´em 1, neˇz tˇech, co mˇela pˇri prvn´ım mˇeˇren´ı 1 a pˇri druh´em 0. Pˇredstavme si tˇreba, ˇze zkoum´ame, jestli imaginaˇcn´ı cviˇcen´ı pom´ah´a sportovc˚ um, kteˇr´ı dˇelaj´ı parkour, v lepˇs´ım v´ ykonu. Jako v´ yzkumn´ y soubor pouˇzijeme u ´ˇcastn´ıky soutˇeˇze v t´eto discipl´ınˇe. Vybereme n dvojic sportovc˚ u tak, aby si z´avodn´ıci ve dvojici pˇribliˇznˇe odpov´ıdali pˇredchoz´ımi u ´spˇechy, zkuˇsenostmi, st´aˇr´ım a dalˇs´ımi charakteristikami. Z kaˇzd´e dvojice pak vylosujeme jednoho z´avodn´ıka, kter´ y bude kromˇe obvykl´eho tr´eninku podstupovat imaginaˇcn´ı cviˇcen´ı. Druh´ y z´avodn´ık bude beze zmˇeny tr´enovat obvykl´ ym zp˚ usobem. Nakonec budeme sledovat v´ ysledky soutˇeˇze a zaznamen´ame, jestli se v r´amci kaˇzd´e dvojice 40
Vˇs´ımav´ y ˇcten´ aˇr moˇzn´ a zpozoroval jeˇstˇe jednu vadu na kr´ase t´eto metody. Ve vˇetˇsinˇe design˚ u nejsou margin´ aln´ı ˇcetnosti pˇredem d´ any, ale m˚ uˇzou mezi experimenty n´ahodnˇe kol´ısat, s ˇc´ımˇz Fisher˚ uv faktori´ alov´ y test nepoˇc´ıt´ a, a pˇripravuje se tak o ˇc´ast sv´e s´ıly. Tento nedostatek je obvykle ignorov´an a nepˇredstavuje nijak z´ avaˇzn´ y probl´em. Zmiˇ nme vˇsak, ˇze existuje Barnard˚ uv test, kter´ y s touto vlastnost´ı margin´ aln´ıch ˇcetnost´ı poˇc´ıt´ a, a je d´ıky tomu nepatrnˇe silnˇejˇs´ı.
141
Tabulka 11: Tabulka k McNemarovu testu Imaginace
Kontrola
Uspˇel
Neuspˇel
Uspˇel
2
4
Neuspˇel
7
5
kvalifikoval pro postup na vyˇsˇs´ı stupeˇ n soutˇeˇze ten z´avodn´ık, co podstupoval imaginaˇcn´ı cviˇcen´ı, nebo naopak ten, co je nepodstupoval, nebo oba z´avodn´ıci nebo ani jeden z nich. Tabulka (11) zobrazuje v´ ysledky 18 p´ar˚ u z´avodn´ık˚ u. Zamysleme se nad t´ım, jak´ y pro n´as maj´ı jednotliv´a pol´ıˇcka tabulky v´ yznam. Hodnoty ˇ ıkaj´ı, ˇze oba z´avodn´ıci uspˇeli/neuspˇeli n11 a n22 n´am neposkytuj´ı ˇz´adn´ y zaj´ımav´ yu ´daj. R´ ˇ by tedy bez ohledu na to, jestli zde bylo provedeno imaginaˇcn´ı cviˇcen´ı nebo ne. Slo napˇr´ıklad o p´ary nezkuˇsen´ ych z´avodn´ık˚ u, kteˇr´ı bez ohledu na jakoukoli intervenci nemohli uspˇet nebo naopak p´ary jasn´ ych favorit˚ u, kter´e nemohly selhat, at’ uˇz zde byla pˇr´ıtomna urˇcit´a intervence nebo ne. To, co n´as zaj´ım´a, jsou ty p´ary, kde jeden z´avodn´ık uspˇel a druh´ y ne. Pokud tedy plat´ı nulov´a hypot´eza a imaginaˇcn´ı cviˇcen´ı nem´a ˇza´dn´ y vliv, pak by v r´amci t´eto skupiny poˇcet p´ar˚ u, kde uspˇel ten z´avodn´ık, kter´ y imaginoval, mˇel b´ yt pˇribliˇznˇe stejn´ y jako poˇcet p´ar˚ u, kde ten z´avodn´ık, co imaginaci prov´adˇel, neuspˇel. Ze ˇctyˇrpoln´ı tabulky tedy pouˇzijeme jen dvˇe pol´ıˇcka: n12 a n21 . Ostatn´ı do v´ ypoˇctu ˇ aˇr zˇrejmˇe jiˇz rozeznal zn´am´ nezahrneme. Cten´ y probl´em. Nulov´a hypot´eza pˇredpokl´ad´a, ˇze pravdˇepodobnost toho, ˇze dan´ y p´ar padne do buˇ nky n12 je stejn´a, jako ˇze padne do n21 , tedy 12 . Mohli bychom spoˇc´ıtat pˇresnou p-hodnotu pomoc´ı pravdˇepodobnostn´ı funkce binomick´eho rozdˇelen´ı. Nebo bychom mohli toto rozdˇelen´ı aproximovat norm´aln´ım rozdˇelen´ım. U McNemarova testu se vˇsak tradiˇcnˇe vol´ı aproximace pomoc´ı rozdˇelen´ı χ2 s jedn´ım stupnˇem volnosti (coˇz je tot´eˇz jako aproximace norm´aln´ım rozdˇelen´ım poˇc´ıtan´a v druh´e mocninˇe). D˚ uvodem t´eto volby je zˇrejmˇe mimoˇra´dn´a jednoduchost testov´e statistiky, kterou tak odvod´ıme41 : Z=
(n12 − n21 )2 . n12 + n21
Pochopitelnˇe jde o asymptotick´ y test, takˇze hodnoty z´ıskan´e pˇri mal´ ych ˇcetnostech nejsou pˇresn´e. Asmyptotika vˇsak lze urychlit pouˇzit´ım korekce na kontinuitu, kter´a mˇen´ı testovou statistiku do t´eto podoby: Z=
(|n12 − n21 | − 1)2 . n12 + n21
41
V nˇekter´ ych textech se pol´ıˇcka ˇctyˇrpoln´ı tabulky pojmenov´avaj´ı po ˇr´adc´ıch a, b, c, d. Vzorec pak 2 z´ısk´ a elegantn´ı formu Z = (b−c) b+c .
142
Tabulka 12: Tabulka k testu symetrie podle Bowkera Po \ Pˇred
Pozitivn´ı Negativn´ı Nevyhranˇen´ı vztah vztah
Pozitivn´ı vztah
18
20
5
Nevyhranˇen´ı
7
4
8
Negativn´ı vztah
6
10
8
Test pak m˚ uˇzeme povaˇzovat za spolehliv´ y jiˇz pˇri hodnot´ach n12 + n21 ≥ 8. V naˇsem pˇr´ıpadˇe je hodnota testov´e statistiky bez korekce rovna 0.82, ˇcemuˇz odpov´ıd´a p-hodnota 0.366. Pˇresn´a p-hodnota z´ıskan´a z binomick´eho rozdˇelen´ı by vˇsak byla 0.549, je tedy zjevn´e, ˇze bez korekce na spojitost se asymptotika jeˇstˇe dostateˇcnˇe neprojevila. Pokud pouˇzijeme korekci na spojitost, zmˇen´ı se hodnota testov´e statistiky na 0.36 a p-hodnota se pˇrekvapivˇe zpˇresn´ı: 0.547. Sv˚ uj p´arov´ y test maj´ı i nomin´aln´ı promˇenn´e. Jedn´a se o zobecnˇen´ı McNemarova testu zn´am´e pod n´azvem Bowker˚ uv test symetrie (nebo Bowker˚ uv-McNemar˚ uv test). Vyuˇzijeme jej skuteˇcnˇe vz´acnˇe, je vˇsak uˇziteˇcn´e jej m´ıt v arzen´alu statistick´ ych postup˚ u. Tentokr´at nebudeme pracovat s ˇctyˇrpoln´ı tabulkou, ale obecnˇe ˇctvercovou kontingenˇcn´ı tabulkou k × k, kde k je poˇcet u ´rovn´ı sledovan´e n´ahodn´e veliˇciny (a ten je pochopitelnˇe pˇri obou p´arov´ ych mˇeˇren´ıch stejn´ y). Mohli bychom tˇreba zkoumat postoj student˚ u psychologie ke statistice pˇred t´ım, neˇz absolvovali kurz, kde se s t´ımto oborem bl´ıˇze sezn´am´ı, a po tom, co jej absolvuj´ı. Postoje jsme hodnotili pomoc´ı tˇr´ı kategori´ı pozitivn´ı postoj “, nevyhranˇen´y / nev´ı“ a negativn´ı ” ” ” postoj “. Bowker˚ uv test symetrie ovˇeˇruje nulovou hypot´ezu, kter´a ˇr´ık´a, ˇze pro kaˇzdou dvojici u ´rovn´ı sledovan´e promˇenn´e (oznaˇcme je Ii a Ij ), plat´ı, ˇze poˇcet pozorov´an´ı, kter´e se mezi prvn´ım a druh´ ym mˇeˇren´ım pˇresunula z Ii do Ij je stejn´ y jako poˇcet pozorov´an´ı, kter´a se pˇresunula z Ij do Ii . Alternativa pak ˇr´ık´a, ˇze existuje alespoˇ n jedna dvojice u ´rovn´ı, kde toto neplat´ı. V naˇsem pˇr´ıkladu by tedy nulov´a hypot´eza pˇredpokl´adala, ˇze poˇcet student˚ u, kteˇr´ı mˇeli ke statistice negativn´ı postoj, ale bˇehem kurzu jej pˇrehodnotili a zmˇenili na pozitivn´ı, je stejn´ y jako poˇcet student˚ u, kteˇr´ı ch´apali statistiku pozitivnˇe, ale v pr˚ ubˇehu studia se jim zprotivila. Stejnˇe vyv´aˇzen´ y posun by pˇredpokl´adala mezi vˇsemi dalˇs´ımi dvojicemi u ´rovn´ı. V´ ysledky naˇseho pozorov´an´ı u 86 student˚ u shrnuje tabulka (12). Pokud by nulov´a hypot´eza platila, matice (tabulka) by byla symetrick´a podle diagon´aly zleva shora doprava dol˚ u. Testov´a statistika podobnˇe jako McNemar˚ uv test nepracuje s diagon´aln´ımi prvky, ale srovn´av´a jen protilehl´e dvojice bunˇek. Testov´a statistika m´a
143
rozdˇelen´ı χ2 s poˇctem stupˇ n˚ u volnosti odpov´ıdaj´ıc´ı poˇctu srovn´an´ı, tedy
Z=
k(k−1) : 2
k−1 X k X (nij − nji )2 ∼ χ2 (k(k − 1)/2). n + n ij ji i=1 j=i+1
Test je opˇet asymptotick´ y a ˇz´adn´ y ze souˇct˚ u nij + nji by nemˇel obsahovat m´enˇe neˇz 8 pozorov´an´ı; s rostouc´ım poˇctem srovn´avan´ ych kategori´ı tato podm´ınka sl´abne, podobnˇe jako u test˚ u dobr´e shody. V naˇsem pˇr´ıpadˇe bychom doˇsli k z´avˇeru, ˇze kurz statistiky v´ yznamnˇe nezmˇenil postoj student˚ u k tomuto oboru, aˇc zde urˇcit´ y trend patrn´ y je: testov´a statistika Z = 6.57, coˇz odpov´ıd´a p-hodnotˇe 0.087. Tu jsme zjistili z disribuˇcn´ı funkce n´ahodn´e veliˇciny s rozdˇelen´ım χ2 se tˇremi stupni volnosti. V pˇr´ıpadˇe zam´ıtnut´ı nulov´e hypot´ezy, by n´am pˇresnˇejˇs´ı intepretaci usnadnilo vypsat si ˇci nakreslit, kam se studenti z jednotliv´ ych skupin pˇresouvali. Pokud chceme pouˇz´ıt Bowker˚ uv test, je dobr´e si uvˇedomit, kter´e zmˇeny je schopen detekovat a kter´e ne. Citlivˇe by zaznamenal napˇr´ıklad tyto ud´alosti: • Sv˚ uj postoj zmˇenili jen studenti, kteˇr´ı statistiku nemˇeli r´adi. Po absolvov´an´ı kurzu ji r´adi maj´ı. • Sv˚ uj postoj zmˇenili jen nevyhranˇen´ı studenti – polovina z nich si statistiku obl´ıbila a polovina zprotivila. • Studenti si vymˇenili kategorie t´ımto zp˚ usobem: nevyhranˇen´ı si ji obl´ıbili;, ti, co mˇeli negativn´ı vztah se stali nevyhranˇen´ ymi, a ti, co ji mˇeli r´adi, si ji zprotivili. Naopak test by neodhalil tuto ud´alost: • Studenti, kteˇr´ı statistiku mˇeli r´adi, si ji zprotivili, a ti, co ji nemˇeli r´adi, si ji obl´ıbili.
5.7
Neparametrick´ e testy
Doposud jsme pˇredpokl´adali, ˇze n´ahodn´e veliˇciny, se kter´ ymi pracujeme, maj´ı distribuˇcn´ı funkci, kter´a poch´az´ı z nˇejak´e zn´am´e rodiny. Nejˇcastˇeji z rodiny norm´aln´ıch rozdˇelen´ı. Tento pˇredpoklad znaˇcnˇe zjednoduˇsuje vˇsechny v´ ypoˇcty – pokud m´ame nˇejakou zn´amou rodinu distribuˇcn´ıch funkc´ı, sch´az´ı n´am jiˇz jen znalost jednoho ˇci nˇekolika parametr˚ u, abychom vˇedˇeli o chov´an´ı zkouman´e n´ahodn´e veliˇciny vˇse. Se znalost´ı statistick´ ych odhad˚ u se tak cel´a problematika testov´an´ı nulov´ ych hypot´ez n´apadnˇe zjednoduˇsila. Psychologick´ y v´ yzkum n´as ˇcasto pˇriv´ad´ı do situac´ı, kde jsme nuceni pracovat s n´ahodn´ ymi veliˇcinami, kter´e se ani zdaleka ˇz´adn´emu zn´am´emu rozdˇelen´ı nepˇribliˇzuj´ı. Pokud bychom jejich rozdˇelen´ı chtˇeli popsat, nevystaˇcili bychom si s jedn´ım nebo dvˇema parametry, jak jsme zvykl´ı, ale jejich poˇcet by byl neurˇcit´ y a nejsp´ıˇs i nekoneˇcn´ y. V takov´em 144
pˇr´ıpadˇe m´ame dvˇe moˇznosti. M˚ uˇzeme se spol´ehat na to, ˇze rozdˇelen´ı n´ahodn´e veliˇciny alespoˇ n pˇripom´ın´a n´am zn´am´e rozdˇelen´ı a ˇze vhledem k p˚ usoben´ı centr´aln´ıho limitn´ıho teor´emu poskytuj´ı metody parametrick´e statistiky dostateˇcnˇe spolehliv´e v´ ysledky. Tato cesta se d´a nˇekdy obh´ajit, jindy vˇsak o jej´ı smysluplnosti m˚ uˇzeme m´ıt opr´avnˇen´e pochyby. Tehdy vol´ıme druhou cestu a stanovenou hypot´ezu budeme testovat nˇekterou z metod, kter´a se nev´aˇze na popis rozdˇelen´ı pomoc´ı jeho parametr˚ u, ale zcela se tˇechto pˇredpoklad˚ u vzd´av´a. Hovoˇr´ıme pak o neparametrick´ ych metod´ach. Neparametrick´e metody jsou ˇsirok´a a rozmanit´a skupina postup˚ u, kter´e ˇcasto zahrnuj´ı v´ ypoˇcetnˇe n´aroˇcn´e procedury, kter´e nelze prov´adˇet bez poˇc´ıtaˇce a pochopit bez hlubok´ ych znalost´ı statistiky. V tomto textu se sezn´am´ıme jen s u ´zk´ ym okruhem nejjednoduˇsˇs´ıch neparametrick´ ych metod. Vˇsechny z nich budou m´ıt spoleˇcn´e to, ˇze k vyˇreˇsen´ı probl´emu pouˇz´ıvaj´ı jednoduch´ y trik: nepracuj´ı s p˚ uvodn´ımi daty, ale namˇeˇren´e hodnoty transformuj´ı na promˇennou niˇzˇs´ıho typu (nejˇcastˇeji ordin´aln´ı nebo alternativn´ı) a na ni uplatn´ı u ´vahy, kter´e se neliˇs´ı od tˇech, co zn´ame z minul´ ych kapitol. Vyjma znam´enkov´eho testu p˚ ujde vˇzdy o pˇrevod metrick´ ych hodnot na poˇrad´ı. Budeme tedy hovoˇrit o poˇradov´ ych statistik´ach. 5.7.1
Znam´ enkov´ y test
Znam´enkov´ y test je zˇrejmˇe nejjednoduˇsˇs´ı metoda neparametrick´e statistiky a pozorn´ y ˇcten´aˇr nejsp´ıˇs zjist´ı, ˇze jeho princip jsme si v minul´ ych kapitol´ach uˇz nˇekolikr´at popsali, aˇc jsme jej doposud nepojmenovali. Znam´enkov´ y test tradiˇcnˇe pouˇz´ıv´ame ve dvou situac´ıch – bud’ jako jednov´ ybˇ erov´ y znam´ enkov´ y test nebo jako p´ arov´ y znam´ enkov´ y test (vzpomeˇ nme si na to, ˇze jednov´ ybˇerov´e a p´arov´e testy jsou de facto tot´eˇz). Pˇribliˇzme si jeho logiku na pˇr´ıpadu jednov´ ybˇerov´eho testu. Vrat’me se jeˇstˇe jednou k probl´emu, se kter´ ym jsme otevˇreli kapitolu o testov´an´ı statistick´ ych hypot´ez: k ovˇeˇren´ı u ´ˇcinnosti metody v´ yuky matematiky na stˇredn´ı ˇskole. Ptali jsme se, jestli studenti, na kter´e naˇsi metodu uplatn´ıme, z´ıskaj´ı u p´ısemn´e maturity z matematiky v´ıc neˇz 20 bod˚ u, coˇz je pr˚ umˇern´ y v´ ysledek ostatn´ıch student˚ u. Skupina dev´ıti student˚ u, kter´e jsme naˇsemu postupu podrobili, z´ıskala tyto poˇcty bod˚ u: 15, 25, 22, 19, 22, 29, 35, 22, 27. V kapitole (5.2.1) jsme pˇredpokl´adali, ˇze n´ahodn´a veliˇcina poˇcet bod˚ u, kter´e u maturity z´ısk´a student vzdˇel´avan´y naˇs´ı metodou (znaˇcili jsme X) m´a norm´aln´ı rozdˇelen´ı, coˇz n´as dovedlo k oboustrann´e p-hodnotˇe 0.0445 (Z-test), pˇr´ıpadnˇe 0.0745 (jednov´ ybˇerov´ y t-test). Co kdyˇz se n´as vˇsak zmocn´ı pochyby nad naˇs´ım pˇredpokladem a my pˇripust´ıme, ˇze sledovan´a veliˇcina m˚ uˇze m´ıt bezm´ala jak´ekoli rozdˇelen´ı pravdˇepodobnosti? Tehdy n´am m˚ uˇze pomoci znam´enkov´ y test. Dˇr´ıve neˇz provedeme znam´enkov´ y test, mus´ıme vˇsak pozmˇenit testovanou hypot´ezu. P˚ uvodn´ı nulov´a hypot´eza znˇela H0 : µ = 20. Hodnota µ je vˇsak parametr norm´aln´ıho 145
rozdˇelen´ı, kter´ y zastupuje jeho stˇredn´ı hodnotu, a s parametry norm´aln´ıho rozdˇelen´ı v t´eto kapitole pracovat nebudeme. M´ısto toho svou pozornost obr´at´ıme k medi´anu n´ahodn´e veliˇciny Mdn(X), a budeme pˇredpokl´adat, ˇze studenti, na kter´e aplikujeme naˇsi v´ yukovou metou, maj´ı jin´ y medi´an poˇctu bod˚ u, neˇz je bˇeˇzn´e. Dejme tomu, ˇze medi´anov´a hodnota je u student˚ u vzdˇel´avan´ ych obvykl´ ym zp˚ usobem shodn´a se stˇredn´ı hodnotou, tedy 20 bod˚ u. Nulov´a hypot´eza, ovˇeˇrovan´a znam´enkov´ ym testem, pak bude zn´ıt: H0 : Mdn(X) = 20. Pˇri v´ ypoˇctu znam´enkov´eho testu srovn´ame v´ ysledek kaˇzd´eho z naˇsich pozorov´an´ı (dev´ıti student˚ u) s hodnotou, kterou oˇcek´av´a nulov´a hypot´eza. Mohli bychom si to pˇredstavit tak, ˇze v datov´e tabulce vytvoˇr´ıme nov´ y sloupec s hodnotami Xi − 20. V naˇsem pˇr´ıpadˇe by obsahoval ˇc´ısla −5, 5, 2, −1, 2, 9, 15, 2, 7. Pak spoˇc´ıt´ame, kolik z tˇechto hodnot je kladn´ ych (jejich poˇcet znaˇcme S + ) a kolik z´aporn´ ych (S − ). V naˇsem pˇr´ıpadˇe s+ = 7 a s− = 2. Jelikoˇz oba tyto souˇcty obsahuj´ı stejnou informaci, vybereme si pro dalˇs´ı u ´vahy jeden z nich (tradiˇcnˇe ten menˇs´ı). Obecnˇe jej znaˇcme S. V naˇsem pˇr´ıpadˇe to je souˇcet z´aporn´ ych znam´enek (s = 2). Vˇsimnˇete si, ˇze ty hodnoty, kter´e by pˇresnˇe odpov´ıdaly medi´anu, nejsou zahrnuty v ˇza´dn´em souˇctu, S + ani S − . Znam´enkov´ y test z nich nedok´aˇze z´ıskat ˇz´adnou informaci, proto je z v´ ypoˇctu vyˇrazujeme a rozsah souboru sn´ıˇz´ıme na n = s+ + s− . Abychom mohli naˇsi u ´vahu dokonˇcit, staˇc´ı si uvˇedomit, jak´e m´a n´ahodn´a veliˇcina S za platnosti nulov´e hypot´ezy rozdˇelen´ı pravdˇepodobnosti. Pokud m´e n´ahodn´a veliˇcina X medi´an roven 20, pak m´a kaˇzd´a jej´ı realizace pravdˇepodobnost 50 %, ˇze padne nad tuto hodnotu, a stejnou pravdˇepodobnost, ˇze padne pod tuto hodnotu (nerozhodn´e pˇr´ıpady jsme vyˇradili). Vˇsech n pˇr´ıpad˚ u je nezavisl´ ych, m˚ uˇzeme proto ˇr´ıct: 1 S ∼ Bi n, . 2 Tato informace jiˇz postaˇcuje k tomu, abychom stanovili jednostrannou p-hodnotu. Jednoduˇse vyˇc´ısl´ıme pravdˇepodobnost P (S = 2) + P (S = 1) + P (S = 0) (nev´ıte-li jak, nalistujte kapitolu 2.6.2), tedy pravdˇepodobnost, ˇze ze sedmi znam´enek budou dvˇe a m´enˇe z´aporn´a. Jelikoˇz m´a n´ahodn´a veliˇcina S symetrick´e rozdˇelen´ı, oboustrannou p-hodnotu z´ısk´ame jako dvojn´asobek jednostrann´e. V naˇsem pˇr´ıpadˇe by to bylo (0.002 + 0.018 + 0.070) · 2 = 0.180. Oboustrann´a p-hodnota je tedy pˇribliˇznˇe 18 %. Pouˇzit´ı binomick´eho rozdˇelen´ı je pˇri vˇetˇs´ıch rozsaz´ıch souboru v´ ypoˇcetnˇe n´aroˇcnˇejˇs´ı, pouˇz´ıv´ame proto ˇcasto trik, kter´ y zn´ame z kapitoly o testech dobr´e shody. Binomick´e rozdˇelen´ı aproximujeme norm´aln´ım rozdˇelen´ım se stˇredn´ı hodnotou n2 a rozptylem n4 (vzpomeˇ nme, ˇze n´ahodn´a veliˇcina s rozdˇelen´ım Bi(n, p) m´a stˇredn´ı hodnotu np a rozptyl np(1 − p)). Odeˇcten´ım stˇredn´ı hodnoty a vydˇelen´ım smˇerodatnou odchylkou z´ısk´ame 146
testovou statistiku Z s asymptoticky normovan´ ym norm´aln´ım rozdˇelen´ım: S−n 2S − n Z = p n2 = √ ∼ N (0, 1), n 4 z n´ıˇz snadno vypoˇcteme p-hodnotu. V naˇsem pˇr´ıpadˇe z =
2·2−9 √ 9
= 1.¯6, coˇz odpov´ıd´a p-
hodnotˇe 0.0956. Je zjevn´e, ˇze v naˇsem souboru o dev´ıti pozorov´an´ıch asymptotika jeˇstˇe nefunguje pˇr´ıliˇs spolehlivˇe a bylo by proto vhodn´e z˚ ustat u binomick´eho rozdˇelen´ı. Obecnˇe bychom jej mˇeli opouˇstˇet, aˇz pˇri velk´ ych rozsaz´ıch souboru (pˇribliˇznˇe n > 20).42 Pouˇzit´ı znam´enkov´eho testu, jako p´arov´eho testu je analogick´e. Jak uˇz jsme u p´arov´ ych test˚ u zvykl´ı, pracovali bychom se sloupcem (promˇennou) rozd´ıl˚ u prvn´ıho a druh´eho mˇeˇren´ı. Pokud se tato nov´a promˇenn´a nepˇribliˇzuje norm´aln´ımu rozdˇelen´ı, m˚ uˇzeme pouˇz´ıt znam´enkov´ y test. Jednoduˇse bychom na tuto promˇennou aplikovali jednov´ ybˇerov´ y znam´enkov´ y test a ovˇeˇrili nulovou hypot´ezu: H0 : Mdn(Xdruh´e mˇeˇren´ı − Xprvn´ı mˇeˇren´ı) = 0. Opˇet tedy testujeme medi´anovou hodnotu, coˇz si lze pˇredstavit napˇr´ıklad jako hypot´ezu o tom, jestli je poˇcet pacient˚ u, jejichˇz stav se zhorˇsil, stejn´ y jako poˇcet pacient˚ u, kteˇr´ı se zlepˇsili. Nesm´ıme zapomenout na to, ˇze pozorov´an´ı s hodnotami rovn´ ymi medi´anu z v´ ypoˇctu vyˇrazujeme. V tomto pˇr´ıpadˇe ty jedince, kteˇr´ı se ani nezlepˇsili ani nezhorˇsili. Rozhodneme-li se pouˇz´ıt znam´enkov´ y test, mˇeli bychom zn´at jeho siln´e a slab´e str´anky. Silnou str´ankou je zjevnˇe to, ˇze metoda nen´ı sv´az´ana ˇza´dn´ ymi pˇredpoklady. Jedin´e co, potˇrebujeme b´ yt schopni urˇcit, je to, jestli dan´e pozorov´an´ı leˇz´ı nad nebo pod medi´anem. Znam´enkov´ y test proto m˚ uˇzeme pouˇz´ıt i na poˇradov´e promˇenn´e, jelikoˇz i u tˇech m˚ uˇzeme stanovit medi´an a srovn´avat s n´ım jednotliv´a pozorov´an´ı. Za tuto obrovskou v´ yhodu vˇsak znam´enkov´ y test plat´ı svou silou – ve vˇetˇsinˇe pˇr´ıpad˚ u se jedn´a o v˚ ubec nejslabˇs´ı test, kter´ y m´ame k dispozici. Pouˇzijeme-li jej na promˇennou s norm´aln´ım rozdˇelen´ım, m´a ve srovn´an´ı s jednov´ ybˇerov´em t-testem asymptotickou relativn´ı eficienci
2 π
= 0.64. Tedy tam, kde t-testu staˇc´ı 64 pozorov´an´ı k zam´ıtnut´ı nulov´e hypot´ezy,
jich znam´enkov´ y test potˇrebuje 100.43 42 Asymptotiku opˇet m˚ uˇzeme urychlit korekc´ı na kontinuitu, kterou zn´ame z kapitoly o McNemarovˇe testu. Jedn´ a se ostatnˇe o identick´e testy, jen s t´ım rozd´ılem, ˇze jsme hodnoty s+ a s− nahradili hodnotami n1,0 a n0,1 a v´ ypoˇcet prov´ adˇeli v druh´e mocninˇe, coˇz zmˇenilo norm´aln´ı rozdˇelen´ı na rozdˇelen´ı χ2 (1). 43 Dodejme, ˇze nejen za pˇredpokladu norm´aln´ıho rozdˇelen´ı, ale i ve vˇetˇsinˇe dalˇs´ıch pˇr´ıpad˚ u bude t-test silnˇejˇs´ı neˇz znam´enkov´ y test. Existuj´ı nicm´enˇe i takov´e tvary rozdˇelen´ı, kde jsou oba testy stejnˇe siln´e, a ba co v´ıc, u nˇekter´ ych rozdˇelen´ı by znam´enkov´ y test dos´ahl vˇetˇs´ı s´ıly neˇz t-test.
147
5.7.2
Wilcoxon˚ uv jednov´ ybˇ erov´ y test a Wilcoxon˚ uv p´ arov´ y test
Ve srovn´an´ı se znam´enkov´ ym testem ˇreˇs´ı stejn´ y probl´em ponˇekud sofistikovanˇeji Wilcoxon˚ uv test pro jeden v´ ybˇer, respektive Wilcoxon˚ uv p´arov´ y test (Wilcoxon signed-rank test). Opˇet plat´ı to, ˇze p´arov´ y test je identick´ y s jednov´ ybˇerov´ ym testem aplikovan´ ym na sloupeˇcek rozd´ıl˚ u p´arov´ ych mˇeˇren´ı. Wilcoxon˚ uv test, podobnˇe jako znam´enkov´ y test, se vyrovn´av´a s probl´emem nezn´am´eho tvaru distribuˇcn´ı funkce t´ım, ˇze nepracuje s p˚ uvodn´ımi namˇeˇren´ ymi hodnotami, ale opˇet nˇejak redukuje informaci obsaˇzenou ve zkouman´e promˇenn´e. Tentokr´at nejde o redukci tak drastickou, jako v pˇredeˇsl´em pˇr´ıpadˇe. Pˇri v´ ypoˇctu totiˇz namˇeˇren´e hodnoty zkouman´e promˇenn´e pˇrev´ad´ıme na poˇrad´ı. Wilcoxon˚ uv test proto patˇr´ı mezi takzvan´e poˇ radov´ e testy. Pomoc´ı Wilcoxonova testu m˚ uˇzeme ovˇeˇrit platnost nulov´e hypot´ezy, kter´a tvrd´ı, ˇze sledovan´a n´ahodn´a veliˇcina je symetricky rozdˇelena kolem nˇejak´e dan´e hodnoty. V naˇsem pˇr´ıkladu z minul´e podkapitoly by tou hodnotou bylo 20 bod˚ u. Wilcoxon˚ uv test tedy podobnˇe jako znam´enkov´ y test pracuje s medi´anem nikoli pr˚ umˇerem. Na rozd´ıl od znam´enkov´eho testu je vˇsak zat´ıˇzen pˇredpokladem toho, ˇze hustota pravdˇepodobnosti sledovan´e n´ahodn´e veliˇciny je kolem sv´eho medi´anu symetrick´a. V praxi n´as tato podm´ınka obvykle pˇr´ıliˇs neomezuje, pˇri pr´aci s v´ yraznˇe zeˇsikmen´ ymi distribucemi na tento pˇredpoklad vˇsak mus´ıme br´at ohled. Co se t´ yˇce povahy zkouman´e promˇenn´e, m˚ uˇze j´ıt jak o metrick´e, tak o poˇradov´e promˇenn´e. Pˇri v´ ypoˇctu Wilcoxonova testu budeme postupovat v n´asleduj´ıc´ıch kroc´ıch. Od jednotliv´ ych hodnot n´ahodn´e veliˇciny X odeˇcteme oˇcek´avanou hodnotu medi´anu (tedy tu hodnotu, kterou pˇredpokl´ad´a nulov´a hypot´eza). Pokud jde o p´arov´ y test, n´ahodn´a veliˇcina X je rozd´ıl obou mˇeˇren´ı a oˇcek´avanou hodnotou obvykle nula (jelikoˇz nulov´a hypot´eza obvykle ˇr´ık´a, ˇze nedoˇslo k ˇza´dn´e zmˇenˇe). Pokud se nˇekter´e pozorov´an´ı neliˇs´ı od oˇcek´avan´e hodnoty, z v´ ypoˇctu jej vyˇrad´ıme. Vypoˇc´ıt´ame absolutn´ı hodnoty tˇechto rozd´ıl˚ u a pˇrevedeme je na poˇrad´ı (znaˇcme Ri ) tak, aby nejvˇetˇs´ı rozd´ıl dostal nejvyˇsˇs´ı poˇradov´e ˇc´ıslo. Pokud m´a v´ıce rozd´ıl˚ u stejn´e absolutn´ı hodnoty, spoˇc´ıtejme pro nˇe pr˚ umˇern´a poˇrad´ı. Seˇctˇeme ty poˇradov´e hodnoty, kter´e patˇrily k rozd´ıl˚ um s kladn´ ym znam´enkem (souˇcet znaˇcme S + ) a ty, kter´e patˇrily k rozd´ıl˚ um se z´aporn´ ym znam´enkem (S − ). Menˇs´ı z obou hodnot je statistika T . V´ yˇse popsan´e kroky jsou n´azornˇe zobrazeny v tabulce (13). Za platnosti nulov´e hypot´ezy m´a statistika T asymptoticky norm´aln´ı rozdˇelen´ı s n´asleduj´ıc´ımi parametry: T ∼N
1 1 n (n + 1) , n (n + 1) (2n + 1) . 4 24
Nezapomeˇ nme, ˇze do rozsahu souboru n nezahrnujeme vyˇrazen´a pozorov´an´ı, kter´a se rovnala oˇcek´avan´e hodnotˇe. Podobnˇe jako u dˇr´ıve zm´ınˇen´ ych test˚ u, testovou statistiku T 148
Tabulka 13: Tabulka pro v´ ypoˇcet Wilcoxonova jednov´ ybˇerov´eho testu xi
xi − 20 |xi − 20| znam´enko
15 25 22 19 22 29 35 22 27
-5 5 2 -1 2 9 15 2 7
5 5 2 1 2 9 15 2 7
+ + + + + + +
ri 5,5 5,5 3 1 3 8 9 3 7
Nalezen´e hodnoty statistk s− = 6.5 a s+ = 38.5.
pˇrevedeme na testovou statistiku Z, kter´a m´a normovan´e norm´aln´ı rozdˇelen´ı, odeˇcten´ım stˇredn´ı hodnoty a vydˇelen´ım smˇerodatnou odchylkou: Z=q
T − 41 n(n + 1) 1 n(n 24
∼ N (0, 1).
+ 1)(2n + 1)
V naˇsem pˇr´ıkladu by testov´a statistika Z nab´ yvala hodnoty
6.5−22.5 8.44
= −1.90 a z toho od-
vozen´a p-hodnota 0.058. Nulovou hypot´ezu bychom tedy nemohli na pˇetiprocentn´ı hladinˇe v´ yznamnosti zam´ıtnout. Pro u ´plnost uved’me, ˇze existuj´ı nejm´enˇe dva postupy v´ ypoˇctu tohoto testu. V druh´em bychom m´ısto testov´e statistiky T pracovali se statistikou W , kterou bychom z´ıskali ze vztahu W = S + − S − . Ta m´a pak asymptoticky norm´aln´ı rozdˇelen´ı s tˇemito parametry: +
−
W =S −S ∼N
1 0, n (n + 1) (2n + 1) 6
a lze ji pˇrev´est na n´ahodnou veliˇcinu Z uˇzit´ım vztahu Z=q
W 1 n(n 6
∼ N (0, 1).
+ 1)(2n + 1)
Z t´e snadno z´ısk´ame pˇr´ısluˇsnou p-hodnotu. Oba postupy vedou k identick´ ym v´ ysledk˚ um. V´ yˇse popsan´e vztahy jsou asymptotick´e a pro mal´e rozsahy souboru tedy zat´ıˇzen´e znaˇcnou chybou. Obecnˇe bychom popsan´ y potup nemˇeli pouˇz´ıvat, pokud je rozsah naˇseho souboru (respektive poˇcet p´ar˚ u) menˇs´ı neˇz 15. Pokud se t´eto situaci nem˚ uˇzeme vyhnout, 149
je ˇreˇsen´ım kombinatorick´ y v´ ypoˇcet. Pˇri rozsahu souboru n v´ıme, ˇze statistika S − (a tedy i S + ) m˚ uˇze nab´ yvat pouze takov´ ych hodnot, kter´e vzniknou jako souˇcet nˇekter´ ych (0 aˇz n) ˇc´ısel z mnoˇziny 1, 2, . . . , n, jin´ y v´ ysledek dostat nem˚ uˇzeme. Pokud bychom vˇsechny moˇzn´e v´ ysledky vypsali a seˇradili od t´e nejmenˇs´ı hodnoty rozd´ılu po nejvˇetˇs´ı, m˚ uˇzeme urˇcit pˇresnou p-hodnotu. Staˇcilo by spoˇc´ıtat hodnoty, kter´e jsou menˇs´ı nebo rovny hodnotˇe nalezen´e statistiky T a vydˇelit jejich poˇcet celkov´ ym poˇctem hodnot a vyn´asobit dvˇema (jelikoˇz jde o dvoustrannou hypot´ezu.) Je zjevn´e, ˇze krok vypsat vˇsechny moˇzn´e ” v´ ysledky“ se s rostouc´ım rozsahem souboru st´av´a v´ ypoˇcetnˇe velmi n´aroˇcn´ ym. Postup m˚ uˇzeme pouˇz´ıt bez ohledu na pˇr´ıtomnost shodn´ ych mˇeˇren´ı v datech, mus´ıme vˇsak tomu pˇrizp˚ usobit mnoˇzinu v´ ysledk˚ u, coˇz situaci jeˇstˇe v´ıce komplikuje a ˇrada program˚ u v pˇr´ıpadˇe shod kombinatorick´ y v´ ypoˇcet nenab´ız´ı. Shody v hodnot´ach rozd´ıl˚ u pˇredstavuj´ı obecnˇe probl´em bez ohledu na to, jak´ y postup v´ ypoˇctu zvol´ıme. Asymptotick´ y test se v pˇr´ıpadˇe v´ yskytu shod st´av´a konzervativnˇejˇs´ım. Toto oslaben´ı m˚ uˇzeme korigovat. Postupujeme tak, ˇze vyp´ıˇseme vˇsechny jedineˇcn´e hodnoty velikost´ı rozd´ıl˚ u |xi − 20| (tˇech je obecnˇe r ≤ n) a ke kaˇzd´e nap´ıˇseme, kolikr´at jsme ji mezi mˇeˇren´ımi pozorovali (poˇcty opakov´an´ı oznaˇcme tj ). V naˇsem pˇr´ıkladu by r = 8 a tj = 2, 1, 1, 1, 1, 1, 1, 1, jelikoˇz se zde opakovalo pouze ˇc´ıslo 5, ostatn´ı hodnoty jsme pozorovali jen jednou. Poˇcty shod pouˇzijeme ke zpˇresnˇen´ı odhadu smˇerodatn´e odchylky statistiky T , kterou pˇrev´ad´ıme na statistiku Z pomoc´ı tohoto vzorce: Z=q
T − 41 n(n + 1) ∼ N (0, 1). Pr 1 1 t (t − 1)(t + 1) n(n + 1)(2n + 1) − j j=1 j j 24 2
Aˇc se jedn´a o uˇziteˇcn´ y postup, ˇrada statistick´ ych program˚ u korekci na shody neposkytuje. Kdybychom pouˇzili tuto korekci v naˇsem pˇr´ıkladu, zmˇen´ı se hodnota testovan´e statistiky na −1, 94 a p-hodnota na 0.053, rozd´ıl tedy nebude nijak markantn´ı. Zejm´ena pˇri mal´ ych rozsaz´ıch v´ ybˇeru prov´ad´ıme jeˇstˇe jednu korekci, kterou zn´ame z pˇredeˇsl´ ych asymptotick´ ych test˚ u, a to korekci na spojitost. Ta by v pˇr´ıpadˇe Wilcoxonova testu vypadala tak, ˇze v´ yraz z ˇcitatele zlomku T − 14 n(n + 1) nahrad´ıme v´ yrazem |T − 1 n(n 4
+ 1)| − 12 , a test se tak stane pˇresnˇejˇs´ım a konzervativnˇejˇs´ım.
Doplˇ nme jeˇstˇe kr´atk´e zamyˇslen´ı nad Wilcoxonov´ ym p´arov´ ym testem, pro kter´ y plat´ı vˇse v´ yˇse uveden´e. Nˇekdy se m˚ uˇzeme setkat s n´azorem, ˇze jde o p´arov´ y test pro dvˇe ordin´aln´ı promˇenn´e. To ovˇsem nen´ı pravda. Prvn´ı i druh´e mˇeˇren´ı mus´ı b´ yt metrick´e povahy, ordin´aln´ı povahy m˚ uˇze b´ yt aˇz jejich rozd´ıl. Pˇredstavme si napˇr´ıklad, ˇze tr´enujeme tˇri sportovce. M´ısto jejich ˇcasu si zaznamen´ame pouze jejich poˇrad´ı: 2., 1., 3. Po naˇsem tr´eninku se jejich v´ ykony zmˇenily a my opˇet zaznamen´ame pouze poˇrad´ı: 3., 2., 1. Je zjevn´e, ˇze z tˇechto z´aznam˚ u nejsme schopni ani pˇri nejlepˇs´ı v˚ uli vyˇc´ıst, jestli se sportovci zlepˇsili nebo ne. 150
Wilcoxon˚ uv test podobnˇe jako nˇekter´e dalˇs´ı neparametrick´e testy postr´ad´a intuitivnˇe interpretovateln´ y ukazatel m´ıry u ´ˇcinku. Obvykle proto ˇza´dn´ y neprezentujeme, mˇeli bychom vˇsak doplnit medi´anovou hodnotu naˇsich mˇeˇren´ı, at’ si ˇcten´aˇr m˚ uˇze udˇelat alespoˇ n mlhav´ y obr´azek. Wilcoxon˚ uv test m´a u ´ctyhodnou statistickou s´ılu. Ve srovn´an´ı s jednov´ ybˇerov´ ym ttestem je jeho relativn´ı asymptotick´a eficience pro norm´alnˇe rozdˇelen´e promˇenn´e
3 π
=
0.955. Tedy tam, kde tato metoda potˇrebuje 100 pozorov´an´ı k zam´ıtnut´ı nulov´e hypot´ezy, tam t-testu staˇc´ı pˇribliˇznˇe 96. V pˇr´ıpadˇe, ˇze sledovan´a veliˇcina norm´aln´ı rozdˇelen´ı nem´a, Wilcoxon˚ uv test snadno pˇrekon´a metody parametrick´e statistiky. 5.7.3
Mann˚ uv-Whitney˚ uv U-test
V˚ ubec nejˇcastˇeji pouˇz´ıvanou neparametrickou metodou v psychologick´em v´ yzkumu je Mann˚ uv-Whitney˚ uv U test. Jedn´a se o variantu Wilcoxonova testu pro dva nez´avisl´e v´ ybˇery a v literatuˇre na nˇej nar´aˇz´ıme pod n´azvy Mann˚ uv-Whitney˚ uv-Wilcoxon˚ uv test, dvouv´ ybˇerov´ y Wilcoxon˚ uv test ˇci U test. Vˇzdy jde vˇsak o stejnou metodu – rozd´ıly se m˚ uˇzou vyskytovat jen v d´ılˇc´ıch kroc´ıch v´ ypoˇctu. Mann˚ uv-Whitney˚ uv U test ˇreˇs´ı stejnou situaci, ve kter´e obvykle pouˇz´ıv´ame t-test pro dva nez´avisl´e v´ ybˇery. Oproti t´eto metodˇe m´a vˇsak v´ yhodu toho, ˇze nen´ı sv´az´an podm´ınkou norm´aln´ıho rozdˇelen´ı, a dokonce jej lze i pouˇz´ıt pˇri pr´aci s ordin´aln´ı promˇennou. T´aˇzeme se tedy, jestli mˇeˇren´ı z jedn´e skupiny maj´ı tendenci nab´ yvat vyˇsˇs´ıch hodnot neˇz ze skupiny druh´e. Jedn´a se opˇet o poˇradovou statistiku, nelze proto mluvit o srovn´an´ı aritmetick´ ych pr˚ umˇer˚ u. Nˇekteˇr´ı autoˇri proto jednoduˇse prohlaˇsuj´ı, ˇze Mann˚ uv-Whitney˚ uv U test srovn´av´a medi´any, to vˇsak nen´ı obecnˇe pravda. Toto tvrzen´ı by bylo pravdiv´e, kdyby mˇela sledovan´a veliˇcina v obou skupin´ach (znaˇcme ji pro prvn´ı a druhou skupinu X a Y ) stejnou distribuˇcn´ı funkci jen s rozd´ılem posunut´ı. Zcela pˇresn´a nulov´a hypot´eza by znˇela H0 : P (X < Y ) = P (Y < X). Tedy pravdˇepodobnost toho, ˇze n´ahodnˇe vylosovan´ y prvek z jedn´e skupiny m´a vyˇsˇs´ı hodnotu neˇz n´ahodnˇe vylosovan´ y prvek z druh´e skupiny, je pˇresnˇe stejn´a jako pravdˇepodobnost, ˇze tomu bude naopak. Pˇribliˇzme ˇcten´aˇri nejprve p˚ uvodn´ı postup v´ ypoˇctu, kter´ y popsal Frank Wilcoxon v ˇcl´anku z roku (1945). Prvn´ım krokem v´ ypoˇctu by bylo pˇreveden´ı namˇeˇren´ ych hodnot bez ohledu na skupinu na poˇrad´ı. Pokud maj´ı nˇekter´a mˇeˇren´ı stejnou hodnotu, pak jim pˇriˇrad´ıme pr˚ umˇern´a poˇrad´ı. Je-li tedy rozsah prvn´ı skupiny n a druh´e skupiny m, pak jednotliv´ ym mˇeˇren´ım rozd´ame ˇc´ısla od jedniˇcky aˇz po n + m. Tyto poˇradov´e hodnoty v kaˇzd´e skupinˇe zvl´aˇst’ seˇcteme, a z´ısk´ame tak souˇcty SX a SY . Souˇcet SX + SY se pochopitelnˇe mus´ı rovnat souˇctu vˇsech ˇc´ısel od 1 po n + m tedy 12 (n + m)(n + m + 1), a to i v pˇr´ıpadˇe shod.
151
Wilcoxon dok´azal, ˇze za platnosti nulov´e hypot´ezy maj´ı n´ahodn´e veliˇciny SX a SY asymptoticky norm´aln´ı rozdˇelen´ı s parametry SX ∼ N
SY ∼ N
1
n(n + m + 1),
1 nm(n + m + 1) 12
m(n + m + 1),
1 nm(n + m + 1) 12
2
1 2
Asymptotiku m˚ uˇzeme povaˇzovat za uspokojivou, pokud obsahuje kaˇzd´a ze skupin nejm´enˇe 10 pozorov´an´ı. Obˇe nalezen´e hodnoty jsou spolu sv´az´any, prezentujeme proto obvykle jedinou z nich, nejˇcastˇeji tu menˇs´ı, a oznaˇc´ıme ji W (pro menˇs´ı pˇrehlednost ji nˇekteˇr´ı autoˇri znaˇc´ı T ). Pˇri dostateˇcn´em rozsahu v´ ybˇeru pˇrevedeme souˇctovou statistiku na veliˇcinu Z s normovan´ ym norm´aln´ım rozdˇelen´ım, dle jednoho ze vztah˚ u: SX − 21 n(n + m + 1) , Z=q 1 nm(n + m + 1) 12
SY − 21 m(n + m + 1) Z= q . 1 nm(n + m + 1) 12
Z t´e pak snadno odvod´ıme p-hodnotu. V pˇr´ıpadˇe, ˇze se mezi pozorov´an´ımi vyskytovaly shody (bez ohledu na to, jestli to bylo v r´amci t´eˇze nebo r˚ uzn´ ych skupin), bude n´aˇs odhad pˇr´ıliˇs konzervativn´ı a mohli bychom jej korigovat u ´pravou rozptylu. Korekce by opˇet vypadala tak, ˇze identifikujeme r jedineˇcn´ ych hodnot a poznamen´ame si, kolikr´at se kaˇzd´a z nich vyskytovala (oznaˇcme tyto ˇcetnosti t1 , t2 , . . . , tr ). Rozptyl bychom pak P t3j −tj 1 zmenˇsili o hodnotu 12 nm rj (n+m)(n+m−1) . ˇ eji neˇz v´ Castˇ yˇse uveden´ y postup najdeme v literatuˇre jeho u ´pravu zn´amou pod n´azvem Mann˚ uv-Whitney˚ uv U test. Postup by byl pˇresnˇe stejn´ y aˇz do bodu, kdy m´ame dvˇe souˇctov´e statistiky SX a SY . S tˇemi provedeme n´asleduj´ıc´ı u ´pravu, a z´ısk´ame tak statistiky UX a UY : n(n + 1) m(m + 1) UX = SX – UY = SY – 2 2 Tato na prvn´ı pohled zbyteˇcn´a transformace m´a nˇekolik v´ yhod. Obˇe z´ıskan´e n´ahodn´e veliˇciny maj´ı stejn´e rozdˇelen´ı (stˇredn´ı hodnota je rovna
nm 2
a rozptyl odpov´ıd´a rozptylu
statistik S at’ s nebo bez shod v poˇrad´ı), nemus´ıme se proto pˇri dalˇs´ıch u ´prav´ach starat o to, jestli statistika poch´az´ı z prvn´ı nebo druh´e skupiny, ale jednoduˇse vezmeme menˇs´ı z obou hodnot a oznaˇc´ıme ji U . Pro U plat´ı asymptotick´ y vztah U ∼N
nm nm(n + m + 1) , . 2 12 152
Pˇri dostateˇcn´em rozsahu jej proto opˇet m˚ uˇzeme pˇrev´est na statistiku Z dle vztahu Z=q
U−
nm 2
∼ N (0, 1)
nm(n+m+1) 12
a ze statistiky Z odvodit asymptotickou p-hodnotu. Asymptotiku m˚ uˇzeme i v tomto pˇr´ıpadˇe urychlit korekc´ı na spojitost. Ta by v pˇr´ıpadˇe Mannova-Whitneyova U testu mˇela tuto podobu: |U − Z= q
nm | 2
−
1 2
.
nm(n+m+1) 12
Pokud v namˇeˇren´ ych hodnot´ach existuj´ı shody, m˚ uˇzeme upravit odhad rozptylu postupem popsan´ ym v´ yˇse. Korekce se vz´ajemnˇe nevyluˇcuj´ı – test n´as proto m˚ uˇze dov´est ke ˇctyˇrem r˚ uzn´ ym p-hodnot´am. Pouˇzijeme-li obˇe navrˇzen´e korekce, vzorec pro v´ ypoˇcet statistiky Z naroste do n´asleduj´ıc´ıho tvaru: |U −
Z=r nm 12
nm | 2
(n + m + 1) −
− 12 Pr
t3j −tj j (n+m)(n+m−1)
.
Hlavn´ı v´ yhoda statistiky U spoˇc´ıv´a v tom, ˇze ji lze pomˇernˇe pˇr´ımoˇcaˇre interpretovat. Hodnota U oznaˇ cuje poˇ cet dvojic mˇ eˇ ren´ı (vˇ zdy jedno z prvn´ı a jedno z druh´ e skupiny), kde m´ a prvn´ı mˇ eˇ ren´ı vˇ etˇ s´ı hodnotu neˇ z mˇ eˇ ren´ı druh´ e (v pˇr´ıpadˇe shody obou mˇeˇren´ı se poˇc´ıt´a p˚ ul bodu). Kdybychom mˇeli velmi mal´ y soubor pozorov´an´ı, mohli bychom d´ıky tomu spoˇc´ıtat U jednoduˇse tak, ˇze bychom srovnali kaˇzd´e pozorov´an´ı z prvn´ı skupiny s kaˇzd´ ym pozorov´an´ım z druh´e skupiny a spoˇc´ıtali, kolikr´at mˇelo to prvn´ı z nich vyˇsˇs´ı hodnotu (respektive niˇzˇs´ı hodnotu, pak bychom dostali druhou ze statistik U ). P-hodnota z´ıskan´a libovolnou z v´ yˇse uveden´ ych cest odpov´ıd´a skuteˇcn´e p-hodnotˇe pouze pˇri vysok´ ych rozsaz´ıch v´ ybˇeru. Pokud bychom chtˇeli test uplatnit na mal´e rozsahy, mohli bychom pouˇz´ıt podobnˇe jako v pˇr´ıpadˇe jednov´ ybˇerov´eho Wilcoxonova testu kombinatorick´ y pˇr´ıstup. Jeho logika by byla takov´a, ˇze n + m poˇradov´ ych hodnot m˚ uˇzeme rozdˇelit mezi dvˇe skupiny o rozsaz´ıch n a m jen koneˇcn´ ym mnoˇzstv´ım zp˚ usob˚ u – tˇech je n+m . Mohli bychom si vˇsechny tyto zp˚ usoby vypsat a stanovit pro kaˇzd´ y hodnotu stan tistiky U . Potom relativn´ı ˇcetnost tˇech uspoˇra´d´an´ı, kter´e vedou k hodnotˇe U rovn´e nebo menˇs´ı neˇz je ta, kterou jsme namˇeˇrili na naˇsich datech, odpov´ıd´a pˇresn´e p-hodnotˇe (tedy uˇz p´at´emu moˇzn´emu v´ ysledky tohoto testu). Je pochopiteln´e, ˇze pˇri velk´ ych rozsaz´ıch se tento postup st´av´a nesm´ırnˇe v´ ypoˇcetnˇe n´aroˇcn´ ym. Vzhledem k oblibˇe Mannova-Whitneyova U testu, existuje hned nˇekolik ukazatel˚ u m´ıry u ´ˇcinku, kter´e m˚ uˇzeme spolu s v´ ysledky tohoto testu prezentovat. Pravdou vˇsak 153
je, ˇze vˇetˇsina ˇcten´aˇr˚ u s nimi pravdˇepodobnˇe nebude sezn´amena, na rozd´ıl od bˇeˇzn´ ych ukazatel˚ u, jako je Cohenovo d. Prvn´ı z ukazatel˚ u vych´az´ı z interpretace statistiky U – tedy poˇctu dvojic hodnot z r˚ uzn´ ych skupin, kde prvn´ı hodnota je vˇetˇs´ı neˇz druh´a. Jelikoˇz v´ıme, ˇze takov´ ychto dvojic m˚ uˇzeme vytvoˇrit nm (kaˇzd´ y z prvn´ı skupiny kr´at kaˇzd´ y z druh´e skupiny), pak pod´ıl
U nm
vyjadˇruje pravdˇepodobnost, ˇze kdyˇz n´ahodnˇe vylosuji prvek
z jedn´e skupiny, tak ˇze ten bude m´ıt vyˇsˇs´ı hodnotu neˇz n´ahodnˇe vylosovan´ y prvek z druh´e skupiny. Pokud bychom pro v´ ypoˇcet pouˇzili druhou ze statistik U , pak se smˇer nerovnosti obr´at´ı. Shodou okolnost´ı takto stanoven´a hodnota pˇresnˇe odpov´ıd´a statistice AU C (Area Under Curve) pouˇz´ıvan´e v ROC anal´ yze (viz kapitola ??). Pokud jsme pouˇzili menˇs´ı z obou U a prvn´ı skupina (X) nab´ yv´a vyˇsˇs´ıch hodnot, pak bychom nalezenou statistiku museli odeˇc´ıst od jedniˇcky: 1 −
U . nm
Druh´a moˇznost, jak stanovit m´ıru u ´ˇcinku, je spoˇc´ıtat takzvanou poˇradovˇe-biseri´aln´ı korelaci. Jedn´a se korelaˇcn´ı koeficient pro alternativn´ı a poˇradovou promˇennou a mohli bychom jej vypoˇc´ıtat ze vztahu r =1−
2U = 1 − 2AU C. nm
Tento ukazatel m˚ uˇzeme interpretovat podobnˇe jako Pearson˚ uv korelaˇcn´ı koeficient. Pokud bychom chtˇeli prezentovat rozd´ıl mezi skupinami v jednotk´ach, ve kter´ ych jsme prov´adˇeli mˇeˇren´ı, naraz´ıme na urˇcit´e komplikace. M˚ uˇzeme prezentovat medi´any a jejich rozd´ıl, nˇekdy se tak ale dostaneme do kuri´ozn´ı situace, kdy oba medi´any vyjdou stejnˇe, a test pˇresto zaznamen´a statisticky v´ yznamn´ y rozd´ıl. Kdybychom hledali statistiku, kter´a pˇresnˇeji odr´aˇz´ı rozd´ıl mezi skupinami, naˇsli bychom m´enˇe zn´am´ y ukazatel s n´azvem Hodges˚ uv-Lehmann˚ uv estim´ator. Jeho velikost zjist´ıme tak, ˇze spoˇc´ıt´ame rozd´ıly mezi vˇsemi dvojicemi mˇeˇren´ı, kde kaˇzd´ y prvek z dvojice patˇr´ı do jin´e skupiny (tedy celkem vznikne nm dvojic) a z tˇechto rozd´ıl˚ u spoˇc´ıt´ame medi´an. To, co Mann˚ uv-Whitney˚ uv test ve skuteˇcnosti testuje, je pr´avˇe rozd´ılnost tohoto estim´atoru od nuly. Mann˚ uv-Whitney˚ uv U test je pozoruhodnˇe siln´ y. Jeho relativn´ı asymptotick´a eficience ve srovn´an´ı s t-testem pro dva nez´avisl´e v´ ybˇery je
3 π
= 0.955. Tam, kde U test potˇrebuje
100 pozorov´an´ı k zam´ıtnut´ı nulov´e hypot´ezy, si t-test vystaˇc´ı s pˇribliˇznˇe 96 pozorov´an´ımi. Tato hodnota ovˇsem plat´ı pouze pro norm´alnˇe rozdˇelenou n´ahodou veliˇcinu, tedy situaci, pro kterou byl t-test vytvoˇren. Budeme-li pracovat s jin´ ymi rozdˇelen´ımi, ztrat´ı t-test ˇca´st sv´e s´ıly a U test jej snadno pˇrekon´a. Z v´ yˇse uveden´ ych srovn´an´ı vych´az´ı Mann˚ uv-Whitney˚ uv U test velmi dobˇre a snad i l´epe neˇz samotn´ y t-test, kter´ y za svou s´ılu plat´ı znaˇcn´ ymi restrikcemi uˇzit´ı. M˚ uˇzeme se proto pt´at, proˇc tato metoda nen´ı povaˇzov´ana za metodu prvn´ı volby a nen´ı pouˇz´ıv´an ˇcastˇeji. V uˇcebnic´ıch se ˇcasto doˇcteme, ˇze t´ım d˚ uvodem je nedostateˇcn´a statistick´a s´ıla; 154
jak jsme ovˇsem vidˇeli, tento argument opravdu nen´ı pˇresvˇedˇciv´ y. D˚ uvodem je to, ˇze kdyˇz pouˇzijeme neparametrickou statistiku, pˇriprav´ıme se o moˇznost elegantn´ı prezentace naˇsich v´ ysledk˚ u. Vˇetˇsina ˇcten´aˇr˚ u s element´arn´ımi znalostmi statistiky dobˇre rozum´ı ukazatel˚ um, jako je pr˚ umˇer ˇci smˇerodatn´a odchylka. Pokud pouˇz´ıv´ame U test, pˇredpokl´ad´ame, ˇze naˇse data efektivnˇe pomoc´ı pr˚ umˇer˚ u a smˇerodatn´ ych odchylek popsat nelze. Odsuzujeme se tak k pouˇzit´ı ukazatel˚ u, jako je medi´an, MAD, AUC, Hodges˚ uv-Lehmann˚ uv estim´ator atd., kter´ ym vˇsak vˇetˇsina ˇcten´aˇr˚ u neporozum´ı. Hlavn´ım d˚ uvodem, proˇc je t-test prvn´ı volbou, jen zkr´atka ten, ˇze jeho v´ ysledky dok´aˇzeme sn´aze komunikovat. Sdˇelen´ı v´ ysledk˚ u U testu by mohlo zn´ıt napˇr´ıklad takto: Pozorovan´a doba pˇreˇzit´ı byla u 7 pacient˚ u s kvalitn´ı soci´aln´ı oporou signifikantnˇe delˇs´ı neˇz u skupiny 10, kteˇr´ı soci´aln´ı oporu postr´adali, U = 13.5, Z = −2.10, p < 0.05, AU C = 0.81. Medi´an doby pˇreˇzit´ı od hospitalizace byl u skupiny se soci´aln´ı oporou 12 mˇes´ıc˚ u, zat´ımco bez soci´aln´ı opory 6 mˇes´ıc˚ u. 5.7.4
Test Spearmanova korelaˇ cn´ıho koeficientu
Podobnˇe jako jsme mohli testovat hypot´ezy t´ ykaj´ıc´ı se velikost Pearsonova korelaˇcn´ıho koeficientu, m´ame k dispozici statistick´e testy, kter´e ovˇeˇruj´ı Spearmanovu poˇradovou korelaci. Pˇrestoˇze Spearman˚ uv korelaˇcn´ı koeficient pˇresnˇe odpov´ıd´a Pearsonovu korelaˇcn´ımu koeficientu vypoˇc´ıtan´emu na hodnot´ach, kter´e jsme pˇrevedli na poˇrad´ı, postup testov´an´ı jeho velikosti nen´ı identick´ y. Pˇripomeˇ nme, ˇze Spearman˚ uv korelaˇcn´ı koeficient je vysoce robustn´ı metoda kvantifikace vztahu mezi dvˇema veliˇcinami, kter´e m˚ uˇzou b´ yt metrick´e nebo ordin´aln´ı povahy. Jeho hodnoty se pohybuj´ı v intervalu od −1 do 1, kde krajn´ı hodnoty znaˇc´ı u ´plnou monot´onn´ı z´avislost. Nula oznaˇcuje nepˇr´ıtomnost monot´onn´ı z´avislosti (podrobnosti viz kapitola 3.7.4). Nejˇcastˇeji se proto t´aˇzeme, jestli je velikost koeficientu rovna nule, nebo se od n´ı odliˇsuje. Moˇznost´ı, jak testovat tuto hypot´ezu (H0 : ρs = 0), je v´ıcero. Pracujeme-li s mal´ ym poˇctem mˇeˇren´ı, mohli bychom opˇet vyj´ıt z toho, ˇze pˇri dan´em rozsahu m˚ uˇze poˇradov´ y korelaˇcn´ı koeficient nab´ yvat koneˇcn´eho mnoˇzstv´ı hodnot. Kdybychom z nich vybrali ty, kter´e svˇedˇc´ı v neprospˇech platnosti nulov´e hypot´ezy stejnˇe ˇci v´ıce, neˇz pozorovan´a hodnota rs , a tento poˇcet vydˇelili celkov´ ym poˇctem vˇsech moˇzn´ ych v´ ysledk˚ u (kter´ ych je n!), z´ısk´ame pˇresnou p-hodnotu. Tento postup vˇsak ˇcasto vyuˇz´ıv´an neb´ yv´a pro jeho v´ ypoˇcetn´ı sloˇzitost, kter´a s rozsahem souboru strmˇe roste. Nejˇcastˇeji vyuˇz´ıv´ame asymptotick´ y vztah, s jehoˇz pomoc´ı z´ısk´ame testovou statistiku T , kter´a m´a za platnosti nulov´e hypot´ezy Studentovo rozdˇelen´ı s n − 2 stupni volnosti: s n−2 ∼ t(n − 2). T = Rs 1 − Rs2 155
√ V nˇekter´ ych textech b´ yv´a zmiˇ nov´ana tak´e statistika Rs n − 1, kter´a m´a pˇri H0 asymptoticky rozdˇelen´ı N (0, 1). Prvn´ı uveden´a statistika se vˇsak pˇribliˇzuje k c´ılov´emu rozdˇelen´ı rychleji, d´av´ame j´ı proto obvykle pˇrednost. Stejnˇe jako v pˇr´ıpadˇe Pearsonova korelaˇcn´ıho koeficientu m´ame moˇznost pouˇz´ıt Fisherovu transformaci (pops´ana v kapitole 5.4.4), a z´ıskat tak veliˇcinu Z s asymptoticky √ norm´aln´ım rozdˇelen´ım N 0, 1/(n − 3) . Tu m˚ uˇzeme pˇrev´est na veliˇcinu Z n − 3 s normovan´ ym norm´aln´ım rozdˇelen´ım. Tento postup m˚ uˇze b´ yt uˇziteˇcn´ y pˇri srovn´an´ı dvou Spearmanov´ ych korelaˇcn´ıch koeficient˚ u nebo pˇri ovˇeˇrov´an´ı hypot´ezy o tom, ˇze se korelaˇcn´ı koeficient rovn´a nˇejak´e pˇredem dan´e nenulov´e hodnotˇe. Postup by byl stejn´ y jako v pˇr´ıpadˇe vyuˇzit´ı Z transformace Pearsonova korelaˇcn´ıho koeficientu. V textu bychom prezentovali test Spearmanova korelaˇcn´ıho koeficientu napˇr´ıklad takto: V´ysledky naznaˇcuj´ı, ˇze symetriˇctˇejˇs´ı ˇzensk´e tv´aˇre jsou muˇzi hodnoceny jako atraktivnˇejˇs´ı, rs (n = 18) = 0.48, p < 0.05. Pokud jsme jiˇz dˇr´ıve uvedli rozsah souboru, tak tuto informaci opakovat nemus´ıme. 5.7.5
Kruskall˚ uv-Wallis˚ uv test
Podobnˇe jako pov´ıd´an´ı o parametrick´ ych testech bylo uzavˇreno AVOVou, uzavˇreme kapitolu o neparametrick´e statistice jej´ım protˇejˇskem, Kruskallov´ ym-Wallisov´ ym testem (t´eˇz zn´am´ y jako Kruskall˚ uv-Wallis˚ uv H test, Kruskallova-Wallisova ANOVA atp.). Jedn´a se o postup, pomoc´ı kter´eho hled´ame odpovˇed’ na ot´azku, zdali se pozorov´an´ı ze tˇr´ı a v´ıce soubor˚ u liˇs´ı svou v´ yˇs´ı. Nejn´azornˇejˇs´ı by bylo si pˇredstavit Kruskall˚ uv-Wallis˚ uv testu jako s´erii Mannov´ ych-Whitneyov´ ych test˚ u mezi vˇsemi dvojicemi skupin s t´ım, ˇze uplatn´ıme mimoˇra´dnˇe pˇresnou korekci na opakovan´e testov´an´ı. Nulovou hypot´ezu bychom zam´ıtli, pokud bychom pozorovali rozd´ıl v libovoln´e z testovan´ ych dvojic. Toto pˇrirovn´an´ı plat´ı vˇcetnˇe omezen´ı a dalˇs´ıch vlastnost´ı, kter´e jsme popisovali v kapitole o Mannovˇe-Whitneyovˇe testu. Zkouman´e promˇenn´e m˚ uˇzou b´ yt metrick´e ˇci ordin´aln´ı povahy bez podm´ınky na specifick´ y tvar rozdˇelen´ı. Pokud bychom pˇridali pˇredpoklad stejn´eho tvaru rozdˇelen´ı ve vˇsech skupin´ach, mohli bychom tvrdit, ˇze test ovˇeˇruje hypot´ezu o rozd´ılu medi´an˚ u. Bez t´eto podm´ınky jde vˇsak o jin´ y druh rozd´ılu (viz kapitola 5.7.3). Kruskall˚ uv-Wallis˚ uv test poˇc´ıt´ame ve dvou kroc´ıch. V prvn´ım pˇrevedeme veˇsker´a pozorov´an´ı bez ohledu na skupinu, do n´ıˇz n´aleˇz´ı, na poˇrad´ı od nejmenˇs´ı hodnoty po nejvˇetˇs´ı. M´a-li v´ıce mˇeˇren´ı stejnou hodnotu, d´ame jim pr˚ umˇern´a poˇrad´ı. V druh´em kroku vypoˇc´ıt´ame hodnotu testov´e statistiky H, kter´a m´a asymptoticky rozdˇelen´ı χ2 s k − 1 stupni volnosti, kde k oznaˇcuje poˇcet srovn´avan´ ych skupin: Pk
nj (¯ rj − r¯)2 ∼ χ2 (k − 1) Pni 2 ¯) j=1 i=1 (rji − r
H = (n − 1) Pk
j=1
156
P´ısmenem nj je oznaˇcen rozsah j-t´e skupiny, p´ısmenem n celkov´ y rozsah souboru, rji je poˇrad´ı i-t´eho pozorov´an´ı z j-t´e skupiny, r¯j pr˚ umˇer poˇradov´ ych hodnot v j-t´e skupinˇe a r¯ je pr˚ umˇer vˇsech poˇradov´ ych hodnot, coˇz vˇzdy odpov´ıd´a pod´ılu
n+1 44 . 2
Podobnˇe jako pˇredeˇsl´e poˇradov´e testy se jedn´a o asymptotick´ y vztah, kter´ y je podm´ınˇen´ y dostateˇcn´ ymi rozsahy skupin. V pˇr´ıpadˇe, ˇze by nˇekter´a skupina obsahovala m´enˇe neˇz 5 pozorov´an´ı, jsou v´ ysledky zat´ıˇzeny znaˇcnou chybou. Aˇc by bylo moˇzn´e vytvoˇrit i kombinatorickou obdobu t´eto metody, ve statistick´ ych programech obvykle zabudov´ana neb´ yv´a. Podobnˇe jako anal´ yza rozptylu, v´ ysledek Kruskallova-Wallisova testu neposkytuje informaci o tom, ve kter´ ych dvojic´ıch skupin byl pozorov´an v´ yznamn´ y rozd´ıl. Pˇrestoˇze v literatuˇre m˚ uˇzeme naj´ıt rozmanit´e post hoc testy podobnˇe jako u ANOVy, nejsou jejich vlastnosti pˇr´ıliˇs uspokojiv´e. Obvykle je souˇca´st´ı jejich v´ ypoˇctu u ´prava p-hodnoty vych´azej´ıc´ı z logiky Bonferroniho korekce, coˇz je ˇcin´ı znaˇcnˇe konzervativn´ımi, pˇredevˇs´ım kdyˇz pracujeme s vˇetˇs´ım mnoˇzstv´ım skupin. Zˇrejmˇe nejlepˇs´ım ˇreˇsen´ım, kter´ ym lze doplnit ˇci nahradit post hoc testy, je srovnat skupiny graficky pomoc´ı krabicov´eho grafu (viz kapitola 3.4.5).
5.8
V´ ybˇ er statistick´ eho testu
Statistick´ ych test˚ u je mnoho. Aˇc jsme se na pˇredchoz´ıch str´ank´ach sezn´amili jen s jejich nejzn´amˇejˇs´ımi z´astupci, i tak jich byly dobr´e dvˇe des´ıtky. Na m´ıstˇe je ot´azka, jak se v tomto mnoˇzstv´ı neztratit a umˇet pohotovˇe vybrat nejvhodnˇejˇs´ı metodu k ovˇeˇren´ı zam´ yˇslen´e hypot´ezy. S rostouc´ı zkuˇsenost´ı a znalostmi statistiky se tento u ´kol postupnˇe stane trivi´aln´ım. Pro ˇcten´aˇre, kteˇr´ı tyto zkuˇsenosti nemaj´ı, ted’ pˇredstav´ıme pom˚ ucku, kter´a jim s v´ ybˇerem testu spolehlivˇe pom˚ uˇze. Hned zkraje uved’me, ˇze jak´ekoli pom˚ ucky tohoto druhu jsou opravdu jen pom˚ uckami, nikoli neomyln´ ymi a univerz´aln´ımi z´akony. U statistiky obecnˇe plat´ı, ˇze jak´akoli snaha pˇrev´est postupy do mechanick´e sekvence krok˚ u, kter´e uplatn´ıme bez pˇrem´ yˇslen´ı, je ˇskodliv´a, a ˇcasto se d´ıky n´ı pravda skryje jeˇstˇe hloubˇeji m´ısto toho, aby byla odhalena. Ze zkuˇsenosti autora tˇechto skript lze vˇsak t´emˇeˇr veˇsker´e hypot´ezy, kter´e studenti v diplomov´ ych prac´ıch z oboru psychologie navrhuj´ı, testovat pomoc´ı metod, pˇri jejichˇz v´ ybˇeru m˚ uˇzeme spolehlivˇe uplatnit n´ıˇze uveden´ y postup. R˚ uzn´e rozhodovac´ı stromy navrhovan´e autory rozmanit´ ych uˇcebn´ıch text˚ u obvykle Pk Sj2 12 V nˇekter´ ych textech naraz´ıme na jednoduˇsˇs´ı vzorec H = n(n+1) cet j=1 nj − 3(n + 1), kde Sj je souˇ poˇrad´ı v j-t´e skupinˇe. V pˇr´ıpadˇe v´ yskytu shod v namˇ e ˇ r en´ y ch hodnot´ a ch bychom jeho v´ y sledek vˇ s ak museli Pr (t3i −ti ) korigovat vydˇelen´ım statistiky H v´ yrazem 1 − i=1 , kde ti jsou ˇcetnosti jednotliv´ ych unik´atn´ıch n3 −n hodnot a r je celkov´ y unik´ atn´ıch hodnot (viz. kapitola 5.7.2). 44
157
zaˇc´ınaj´ı ot´azkou, jestli naˇse hypot´eza popisuje souvislost nˇejak´ ych veliˇcin nebo rozd´ıl mezi skupinami. Tedy na jedn´e stranˇe by byly hypot´ezy jako Poˇcet pˇr´atel, kter´e ˇclovˇek ” ˇ m´a na soci´aln´ı s´ıti, souvis´ı s jeho ˇzivotn´ı spokojenost´ı.“ a na druh´e Zeny maj´ı v pr˚ umˇeru ” vˇetˇs´ı slovn´ı z´asobu neˇz muˇzi “. Aˇc je toto dˇelen´ı pomˇernˇe intuitivn´ı, my jej nepotˇrebujeme. Z pohledu statistick´eho testu je pravdou, ˇze rozd´ıl je tot´ eˇ z co souvislost. Smysl tohoto v´ yroku bude zˇrejmˇejˇs´ı, kdyˇz druhou uvedenou hypot´ezu o rozd´ılu pˇrevypr´av´ıme jako hypot´ezu o souvislosti: Existuje souvislost mezi pohlav´ım jedince a rozsahem jeho ” slovn´ı z´asoby.“ Jej´ı smysl se t´ım nijak nezmˇenil. Stejnou u ´vahu bychom mohli prov´est i u hypot´ezy, kter´a se vyjadˇruje ke srovn´an´ı v´ıce neˇz dvou skupin: Studenti r˚ uzn´ych ” vysokoˇskolsk´ych obor˚ u vykazuj´ı r˚ uznou m´ıru neklinick´eho narcismu,“ je tot´eˇz jako M´ıra ” neklinick´eho narcismu souvis´ı u student˚ u VSˇ se studijn´ım oborem“. Jen jsme opˇet pˇrevypr´avˇeli rozd´ıl jako souvislost. Budeme-li se prob´ırat ot´azkami, kter´e si nejˇcastˇeji v r´amci mal´ ych v´ yzkumn´ ych projekt˚ u klademe, a vˇsechny se pokus´ıme pˇrev´est do podoby hypot´ezy o souvislosti, zjist´ıme, ˇze velk´a vˇetˇsina test˚ u, kter´e zn´ame, m´a jedin´ yu ´kol: ovˇeˇrit existenci souvislosti mezi dvˇema promˇenn´ ymi; tedy mezi dvˇema sloupeˇcky naˇs´ı datov´e tabulky. Ovˇeˇrme toto tvrzen´ı na pˇr´ıkladu nˇekolika ot´azek, kter´e si v psychologick´em v´ yzkumu m˚ uˇzeme pokl´adat. U kaˇzd´e ot´azky pojmenujme, jak´ ych dvou promˇenn´ ych se t´ yk´a: (a) Doˇz´ıvaj´ı se inteligentnˇejˇs´ı lid´e vyˇsˇs´ıho vˇeku? (b) Existuj´ı rozd´ıly v m´ıˇre empatie mezi muˇzi a ˇzenami? (c) Jsou blond´ yny hodnoceny muˇzi jako atraktivnˇejˇs´ı neˇz ˇzeny s jinou barvou vlas˚ u? (d) Maj´ı pravideln´ı kuˇr´ aci marihuany horˇs´ı kr´atkodobou pamˇet’ neˇz nekuˇr´aci? (e) Liˇs´ı se ˇcten´ aˇrsk´e dovednosti ˇz´ ak˚ u ˇctvrt´ ych tˇr´ıd napˇr´ıˇc z´akladn´ımi ˇskolami Olomouck´eho kraje? ˇ studenty zastoupen´ı muˇz˚ (f) Odpov´ıd´ a zastoupen´ı muˇz˚ u a ˇzen mezi VS u a ˇzen mezi akademiky? (g) Je nˇekter´ a ze tˇr´ı vybran´ ych psychoterapeutick´ ych technik ke zm´ırnˇen´ı pˇr´ıznak˚ u PTSD u ´ˇcinnˇejˇs´ı neˇz jin´e? (h) Vede senzorick´ a deprivace k n´ ar˚ ustu agresivity? (i) Je pr˚ umˇern´ a v´ yˇska dospˇel´eho muˇze 180 cm?45
Z´amˇernˇe se v seznamu objevilo i nˇekolik, ˇrekli bychom chyt´ak˚ u“, ale ani ty n´am ” nezabr´anily identifikovat dvojici promˇenn´ ych, se kter´ ymi hypot´eza pracuje. V´ yjimkou je posledn´ı ot´azka: Je pr˚ umˇern´a v´yˇska dospˇel´eho muˇze 180 cm? “. Zde zjevnˇe pracujeme ” s promˇennou v´yˇska. M´ısto druh´e promˇenn´e je zde vˇsak konstatna 180. (Co pˇresnˇe znamen´a konstanta, podrobnˇe popisujeme v kapitole 5.1.) Hodnotu 180 jsme nez´ıskali mˇeˇren´ım naˇsich pokusn´ ych osob, ale je d´ana. Pokud bychom ji chtˇeli vloˇzit do datov´e tabulky, 45 ˇ
Reˇsen´ı: (a) IQ a vˇek doˇzit´ı, (b) m´ıra empatie a pohlav´ı, (c) barva vlas˚ u a atraktivita, (d) kuˇr´ak a v´ ysledek testu pamˇeti, (e) ˇcten´ aˇrsk´e dovednosti a ˇskola, (f) pohlav´ı a akademik/student, (g) technika l´eˇcby a z´ avaˇznost pˇr´ıznak˚ u po jej´ım skonˇcen´ı, (h) m´ıra/pˇr´ıtomnost deprivace a m´ıra agresivity, (i) tˇelesn´ a v´ yˇska a konstanta 180.
158
vznikl by nov´ y sloupeˇcek (s n´azvem tˇreba oˇcek´avan´a v´yˇska) a kaˇzd´ y respondent by v nˇem mˇel uvedenou hodnotu 180. Takhle rozˇsiˇrovat naˇsi tabulku by ale bylo vcelku neuˇziteˇcn´e – konstanty obvykle ponech´ame mimo tabulku a nov´ y sloupeˇcek si jen pˇredstavujeme. Zde jde skuteˇcnˇe o jakousi v´ yjimku – nehovoˇr´ıme tu, navzdory tomu, co bylo ˇreˇceno dˇr´ıve, o vztahu promˇenn´e a konstanty, aˇc st´ale z˚ ust´av´ame vˇerni tomu, ˇze pracujeme s dvˇema sloupeˇcky tabulky: promˇennou a promˇennou nebo promˇennou a konstantou. Pokud prvn´ım krokem byla identifikace promˇenn´ ych, kter´ ych se naˇse hypot´eza t´ yk´a, druh´ ym krokem je urˇcen´ı toho, o jak´e typy promˇenn´ ych se jedn´a. U kaˇzd´e z nich mus´ıme b´ yt schopni rozliˇsit, jestli jde o alternativn´ı, nomin´aln´ı, ordin´aln´ı nebo metrickou (kvantitativn´ı) promˇennou, respektive jestli nejde o konstantu (jak na to viz kapitola 5.1). Kdyˇz se vr´at´ıme k v´ yˇse uveden´ ym ot´azk´am, tak napˇr´ıklad u bodu a) (vˇek doˇzit´ı a inteligence) je metrick´a a metrick´a promˇenn´a, bod d) zˇrejmˇe alternativn´ı (kuˇra´k) a metrick´a (v´ ysledek testu pamˇeti), bod c) by mohla b´ yt nomin´aln´ı (barva vlas˚ u) a nejsp´ıˇs ordin´aln´ı (atraktivita). Na z´akladˇe v´ yˇse uveden´ ych ot´azek nem˚ uˇzeme ve vˇetˇsinˇe pˇr´ıpad˚ u rozhodnout jednoznaˇcnˇe – k tomu bychom potˇrebovali zn´at design v´ yzkumu a postup, jak´ ym zp˚ usobem byly sledovan´e kvality operacionalizov´any (a tedy mˇeˇreny). Kdyby napˇr´ıklad v bodˇe c) v´ yzkumn´ık mˇeˇril kvantitativnˇe svˇetlost vlas˚ u a atraktivitu by hodnotil na z´akladˇe poˇctu muˇz˚ u, kteˇr´ı figurantku v modelov´e situaci oslov´ı, mohlo by j´ıt o dvˇe metrick´e promˇenn´e. Nakonec bychom mohli naj´ıt i takov´e promˇenn´e, kde n´am ani znalost metody mˇeˇren´ı ned´a jednoznaˇcnou odpovˇed’ – tˇreba poˇcet bod˚ u z´ıskan´ y v psychologick´em testu jako souˇcet odpovˇed´ı na poloˇzky vˇetˇsina v´ yzkumn´ık˚ u povaˇzuje za metrickou promˇennou, existuje vˇsak ˇrada psychometrik˚ u, kteˇr´ı argumentuj´ı, ˇze jde nanejv´ yˇs o ordin´aln´ı u ´roveˇ n. V takov´em pˇr´ıpadˇe by naˇse rozhodnut´ı odr´aˇzelo teoretick´e v´ ychodisko, z nˇejˇz k probl´emu pˇristupujeme. Dˇr´ıve neˇz pˇrejdeme ke tˇret´ımu kroku, seznamme se jeˇstˇe s jednou vlastnost´ı promˇenn´ ych, kterou lze formulovat t´ımto pravidlem: jak´ akoli promˇ enn´ a vyˇ sˇ s´ı u ´ rovnˇ e je z´ aroveˇ n promˇ ennou vˇ sech niˇ zˇ s´ıch u ´ rovn´ı nebo na ni m˚ uˇ ze b´ yt pˇ revedena. Jakoukoli promˇennou m˚ uˇzeme redukovat v tˇechto kroc´ıch: ´ -> ORDINALN ´ ´I -> NOMINALN ´ ´I -> ALTERNATIVN´I. METRICKA Jak by to vypadalo v praxi? Pˇredstavme si tˇreba metrickou promˇennou v´yˇse platu. U ˇctyˇr lid´ı jsme namˇeˇrili hodnoty: 7 000 Kˇc, 6 900 Kˇc, 38 000 Kˇc a 0 Kˇc. Pokud bychom chtˇeli vytvoˇrit ordin´aln´ı promˇennou, jedn´ım ˇreˇsen´ım by bylo rozdat u ´ˇcastn´ık˚ um v´ yzkumu poˇrad´ı. Z´ıskali bychom tedy promˇennou s hodnotami: 3, 2, 4, 1. Jin´a cesta by byla vytvoˇrit ordin´aln´ı kategorie, napˇr´ıklad 5 000 - 15 000“, 5 000 - 15 000“, 30 000 - 50 000“, 0 ” ” ” ” 5 000“. Ordin´aln´ı promˇennou bychom mohli dokonce vytvoˇrit i tak, ˇze bychom ponechali p˚ uvodn´ı hodnoty 7 000, 6 900, 38 000, 0, ale prohl´asili bychom, ˇze se jedn´a o ordin´aln´ı ukazatel (tedy, ˇze jsme se vzdali srovn´an´ı rozd´ıl˚ u mezi hodnotami). Kdybychom vytv´aˇreli 159
z p˚ uvodn´ı promˇenn´e promˇennou nomin´aln´ı u ´rovnˇe, mohli bychom zase rozdˇelit mˇeˇren´ı do nˇejak´ ych kategori´ı (tˇreba do stejn´ ych, jako jsme uvedli v´ yˇse), ale vzdali bychom se informace o tom, ˇze tyto kategorie maj´ı nˇejak´e poˇrad´ı. Alternativn´ı promˇennou bychom mohli taky vytvoˇrit nˇekolika zp˚ usoby. Napˇr´ıklad: m´a pˇr´ıjem“, m´a pˇr´ıjem“, m´a pˇr´ıjem“, ” ” ” nem´a pˇr´ıjem“ nebo tˇreba podpr˚ umˇern´ y pˇr´ıjem“, podpr˚ umˇern´ y pˇr´ıjem“, nadpr˚ umˇern´ y ” ” ” ” pˇr´ıjem“, podpr˚ umˇern´ y pˇr´ıjem“. ” Zp˚ usob˚ u, jak pˇrev´adˇet promˇennou na jin´e u ´rovnˇe, bychom naˇsli nespoˇcet, vˇzdycky ale plat´ı dvˇe vˇeci: pˇrevod funguje pouze smˇerem dol˚ u, nikoli nahoru. A pˇredevˇs´ım: pˇ revodem promˇ enn´ e na niˇ zˇ s´ı u ´ roveˇ n ztr´ ac´ıme ˇ c´ ast informace v n´ı obsaˇ zen´ e. Je tedy zjevn´e, ˇze pokud se pˇrevodu na niˇzˇs´ı u ´roveˇ n m˚ uˇzeme vyhnout, vyhneme se mu a taky to, ˇze pokud m´ame na v´ ybˇer, d´ame pˇrednost mˇeˇren´ı na co nejvyˇsˇs´ı u ´rovni. Tˇret´ım krokem ve v´ ybˇeru statistick´eho testu je uˇzit´ı tabulky (14). Najdeme v n´ı ˇr´adek a sloupec odpov´ıdaj´ıc´ı typu prvn´ı a druh´e promˇenn´e, s nimiˇz pracujeme, a vybereme test, kter´ y leˇz´ı v buˇ nce na jejich pr˚ useˇc´ıku. Tedy dvˇe nomin´aln´ı promˇenn´e by n´as dovedly k testu nez´avislosti ch´ı kvadr´at, ordin´aln´ı a alternativn´ı k Mannovu-Whitneyovu testu, dvˇe metrick´e k testu Pearsonova korelaˇcn´ıho koeficientu a tak d´al. ˇ Ctvrt´ ym krokem je to, ˇze se zamysl´ıme nad t´ım, jestli jsou splnˇeny vˇsechny podm´ınky k proveden´ı dan´eho testu. Nejˇcastˇeji jde o podm´ınku norm´aln´ıho rozdˇelen´ı metrick´e promˇenn´e (testy, kter´e jsou touto podm´ınkou sv´az´any, jsou v tabulce oznaˇceny p´ısmenem N). Pokud zjist´ıme, ˇze t´eto podm´ınce vyhovˇet nedok´aˇzeme, vyuˇzijeme naˇsi znalost transformace promˇenn´ ych, a co nejˇsetrnˇejˇs´ım zp˚ usobem sn´ıˇz´ıme u ´roveˇ n problematick´e promˇenn´e o jeden stupeˇ n. Tedy nejˇcastˇeji z metrick´e promˇenn´e udˇel´ame ordin´aln´ı promˇennou (nejsp´ıˇs zvol´ıme tu cestu, ˇze jednoduˇse namˇeˇren´e hodnoty prohl´as´ıme za ordin´aln´ı a nijak jejich velikost mˇenit nebudeme). T-test pro dva nez´avisl´e v´ ybˇery a jednofaktorov´a ANOVA jsou zat´ıˇzeny d´ale podm´ınkou shody rozptyl˚ u (viz kapitoly 5.4.2 a 5.4.5, v tabulce oznaˇceno p´ısmenem S). S touto podm´ınkou se m˚ uˇzeme vypoˇr´adat pomoc´ı Welchov´ ych test˚ u; kdyˇz ale ani ty nem´ame k dispozici, udˇel´ame tot´eˇz, co v pˇredchoz´ım pˇr´ıpadˇe – sn´ıˇz´ıme u ´roveˇ n problematick´e promˇenn´e o jeden stupeˇ n. Posledn´ı podm´ınka, oznaˇcen´a p´ısmenem F, je podm´ınka minim´aln´ı oˇcek´avan´e ˇcetnosti. Ta se t´ yk´a test˚ u ch´ı kvadr´at“ a obvykle zn´ı ” ˇz´adn´a oˇcek´avan´a ˇcetnost nesm´ı b´yt menˇs´ı neˇz pˇet“ (pˇresn´e znˇen´ı t´eto podm´ınky je ro” zeps´ano v kapitole 5.6 u jednotliv´ ych test˚ u). Pokud zde naraz´ıme na probl´em, elegantn´ım ˇreˇsen´ım je spojen´ı nˇekter´ ych u ´rovn´ı jedn´e ˇci obou promˇenn´ ych (pokud zbydou jen dvˇe u ´rovnˇe, z´ısk´ame alternativn´ı promˇennou). Kdyby se napˇr´ıklad naˇse promˇenn´a jmenovala sourozeneck´a pozice, mohla by m´ıt u ´rovnˇe jedin´aˇcek, nejstarˇs´ı sourozenec, prostˇredn´ı sourozenec, a nejmladˇs´ı sourozenec. Pokud by probl´em zp˚ usobovala kategorie prostˇredn´ıch, mohli bychom ji slouˇcit s nejmladˇs´ımi do nov´e kategorie mladˇs´ı sourozenec. Kdyˇz provedeme potˇrebnou u ´pravu, opˇet se vr´at´ıme ke tˇret´ımu bodu: pod´ıv´ame se do
160
Alternativn´ı
Nomin´aln´ı
Ordin´aln´ı
Metrick´a
Konstanta (zadan´e ˇcetnosti)
Ch´ı kvadr´at test dobr´e shody(F) (Uˇzit´ı binomick´eho rozdˇelen´ı)
Ch´ı kvadr´at test dobr´e shody(F)
Wilcoxon˚ uv jednov´ ybˇerov´ y test (Znam´enkov´ y test)
T-test pro jeden v´ ybˇer(N)
Alternativn´ı
Ch´ı kvadr´at test nez´avislosti(F) / homogenity(F) (Faktori´alov´ y test)
Ch´ı kvadr´at test nez´avislosti(F) / homogenity(F)
Mann˚ uv-Whitney˚ uv U-test = Wilcoxon˚ uv dvouv´ ybˇerov´ y test
T-test pro dva nez´avisl´e v´ ybˇery(N,S) / Welch˚ uv test(N)
Ch´ı kvadr´at test nez´avislosti(F) / homogenity(F)
Kruskall˚ uv-Wallis˚ uv test
ANOVA(N,S) / Welchova ANOVA(N)
Test Spearmanova korelaˇcn´ıho koeficientu
Test Spearmanova korelaˇcn´ıho koeficientu
Nomin´aln´ı
Ordin´aln´ı
Test Pearsonova korelaˇcn´ıho koeficientu(N)
Metrick´a
Tabulka 14: V´ ybˇer testu dle druhu promˇenn´ ych
Tabulka 15: P´arov´ y test a jednov´ ybˇerov´ y test Jm´eno Honza Anna Lucka Petr
Prvn´ı Druh´e meˇren´ı mˇeˇren´ı 52 37 24 26
32 39 12 20
Jm´eno Honza Anna Lucka Petr
Pozorovan´a Oˇcek´avan´a zmˇena zmˇena -20 2 -12 -6
0 0 0 0
tabulky (14) a vybereme test, kter´ y jsme naˇsli na pr˚ useˇc´ıku. Okomentujme jeˇstˇe to, proˇc je prvn´ı ˇra´dek tabulky nadeps´an Konstanta nebo zadan´e ˇcetnosti nikoli jen Konstanta. Zadan´ ymi ˇcetnostmi se mysl´ı tˇreba situace, kdy bychom se t´azali, jestli zastoupen´ı lev´ak˚ u a prav´ak˚ u v populaci je 10 % a 90 % nebo jestli zastoupen´ı r˚ uzn´ ych u ´rovn´ı dosaˇzen´eho vzdˇel´an´ı odpov´ıd´a pomˇeru, kter´ y je v populaci. Podobnˇe jako v pˇr´ıpadˇe konstanty jde o hodnoty, kter´e nejsou z´ıskan´e z naˇsich dat, ale z nˇejak´eho vnˇejˇs´ıho zdroje. (Pˇriznejme, ˇze v tomto pˇr´ıpadˇe metafora s pˇrid´an´ım jednoho sloupeˇcku do tabulky ponˇekud kulh´a, coˇz vˇsak nijak nesniˇzuje u ´ˇcinnost vysvˇetlovan´eho postupu.) Posledn´ı, na co je potˇreba upozornit, kdyˇz budeme pouˇz´ıvat tento postup k v´ ybˇeru testu, jsou p´ arov´ e testy. Pˇredstavme si tˇreba situaci, kdy bychom mˇeˇrili sk´ore v nˇejak´em psychologick´em testu pˇred a po proveden´ı urˇcit´e intervence. Dle tabulky (14) bychom doˇsli k testu Pearsonova korelaˇcn´ıho koeficientu, jelikoˇz pracujeme s dvˇema metrick´ ymi promˇenn´ ymi. To by vˇsak byla hrub´a chyba. Jak bylo v pˇredeˇsl´ ych kapitol´ach mockr´at zd˚ uraznˇeno, p´arov´e testy jsou jen zvl´aˇstn´ım pˇr´ıpadem test˚ u jednov´ ybˇerov´ ych a ve skuteˇcnosti nepracuj´ı s dvˇema promˇenn´ ymi (pretest a posttest), ale s jedinou promˇennou rozd´ıl mezi mˇeˇren´ımi (pˇr´ıpadnˇe ji m˚ uˇzeme ˇr´ıkat zlepˇsen´ı) kterou srovn´av´ame s konstantou (obvykle 0). Tuto u ´vahu ilustruje tabulka (15). Kdyˇz si toto uvˇedom´ıme, snadno vybereme p´arov´ y test – pokud je promˇenn´a rozd´ıl metrick´a, naˇse metoda n´as dovede k jednov´ ybˇerov´emu t-testu, v pˇr´ıpadˇe nutnosti k jednov´ ybˇerov´emu Wilcoxonovu testu. Pokud bychom mˇeˇrili na nomin´aln´ı u ´rovni, p´arov´ ym testem by byl NcNemar˚ uv test, coˇz je opˇet pˇresnˇe tot´eˇz jako znam´enkov´ y test.46 Cel´ y proces v´ ybˇeru testu lze tedy shrnout to tˇechto krok˚ u: 1. Identifikujeme dvojici promˇenn´ ych (respektive promˇennou a konstantu / zadan´e ˇcetnosti), kter´ ych se hypot´eza t´ yk´a. D´ame si pozor na pˇr´ıpadn´ y p´arov´ y test. 2. Urˇc´ıme typ obou tˇechto promˇenn´ ych. 3. V tabulce (14) vyhled´ame pˇr´ısluˇsn´ y ˇr´adek a sloupec. 46 Opˇet sch´ema naruˇsuj´ı nomin´ aln´ı promˇenn´e. Pokud by mˇeˇren´ı pˇred i po bylo na nomin´aln´ı u ´rovni, pouˇzijeme Bowker˚ uv test symetrie. T´ım jsme vˇsak jiˇz opustili bˇeˇznˇe pouˇz´ıvan´e statistick´e postupy a probl´emy, se kter´ ymi se obvykle ve v´ yzkumu setk´ame.
162
4. Ovˇeˇr´ıme, zda je test sv´az´an nˇejak´ ymi podm´ınkami, kter´e jsou v rozporu s naˇsimi daty: ANO -> transformujeme problematickou promˇennou na niˇzˇs´ı stupeˇ n a vr´at´ıme se k bodu 3. NE -> provedeme test a interpretujeme v´ ysledky. Mnoho lid´ı povaˇzuje schopnost vybrat vhodn´ y statistick´ y test za pomysln´ y vrchol inferenˇcn´ı statistiky, kter´ y je vyhrazen jen u ´zk´emu okruhu specialist˚ u. Jak jsme mohli vidˇet v t´eto kapitole, opak je pravdou. K tomu, abychom se umˇeli rychle a efektivnˇe zorientovat mezi rozmanit´ ymi metodami, n´am staˇc´ı si zapamatovat jedinou tabulku a sekvenci ˇctyˇr krok˚ u. Jeˇstˇe jednou zopakujme, ˇze tento postup nepokr´ yv´a veˇsker´e druhy hypot´ez, kter´e m˚ uˇzeme vymyslet. Tˇreba hypot´ezu o tom, ˇze ve dvou skupin´ach nab´ yv´a korelaˇcn´ı koeficient stejn´ ych hodnot, nebo to, jestli smˇerodatn´a odchylka nˇejak´e veliˇciny se rovn´a nˇejak´e konstantˇe, t´ımto zp˚ usobem neovˇeˇr´ıme. Navrˇzen´ y postup funguje v´ yhradnˇe u hypot´ez, kter´e pˇredpokl´adaj´ı, ˇze mnoˇzstv´ı / m´ıra / kvalita / typ nˇeˇceho souvis´ı s mnoˇzstv´ım / m´ırou / kvalitou / typem nˇeˇceho jin´eho. Dobr´a zpr´ava vˇsak je, ˇze co se t´ yˇce diplomov´ ych prac´ı z oblasti psychologie, drtiv´a vˇetˇsina z nich pracuje pouze s t´ımto druhem hypot´ez. Drtivou vˇetˇsinou rozumˇejme ˇc´ıslo, kter´e je vyˇsˇs´ı neˇz, ˇreknˇeme, nˇejak´ ych 95 %.
163
6
Cviˇ cen´ı
6.1 Poˇ c´ıt´ an´ısese sumou \subsection{Počítání sumou} \label{cv1} Ze z´akladn´ı a stˇredn´ı ˇskoly si pamatujeme ˇradu matematick´ ych oper´ator˚ u, napˇr´ıklad +, ·
Ze základní √ a střední školy si pamatujeme řadu matematických operátorů, například $+$, . V$\sqrt{}$. matematick´ ch vzorc´ıch vˇsvzorcích ak ˇcastovšak naraz´ ıme narazíme tak´e na takzvan´ e velk´ e oper´atory, nebo $\cdot$ nebo Ve ymatematických často na takzvané velké operátory, ve statistice zejména na aoperátor $\Sigma$ v ve statistice zejm´ena na oper´ tor Σ. $\Sigma$. Symbol ΣSymbol (sigma) ˇcteme (sigma) v textučteme ˇci vzorci suma textu či vzorci jako \textbf{suma} a značí se jím součet nějaké skupiny hodnot. Suma se a znaˇc´ı seosaměle, j´ım souˇ cetbývá nˇejak´ e skupiny hned hodnot. Suma nevyskytuje osamˇ ele, ale b´ yv´a nevyskytuje ale doprovázena čtyřmi údaji,se které říkají, co a jak vlastně doprov´ azenaTyhned ˇctyˇrjsou mi u ´\textit{jméno daji, kter´e ˇrindexu}, ´ıkaj´ı, co\textit{počáteční a jak vlastnˇe chceme c´ıtat. Tyto u ´daje chceme sčítat. to údaje hodnota sˇ indexu}, \textit{poslední hodnota indexu} a samotný \textit{výraz, na který sumu uplatňujeme}. Výraz jsou jm´eno indexu, poˇc´ateˇcn´ı hodnota indexu, posledn´ı hodnota indexu a samotn´ y v´yraz, obsahující sumu, by mohl vypadat například takto:
na kter´y sumu uplatˇ nujeme. V´ yraz obsahuj´ıc´ı sumu, by mohl vypadat napˇr´ıklad takto: poslední hodnota indexu jméno indexu
5
∑ 2(𝑖 + 1) 𝑖=2
výraz, na který sumu uplatňujeme
počáteční hodnota indexu
Index naší sumy se jmenuje $i$, stejně tak jsme jej ale mohli pojmenovat $j$ nebo třeba $X$. Index naˇs´ıjesumy se jmenuje i, stejnˇ e tak jej ale mohli pojmenovat j nebo tˇreba Hodnota indexu proměnlivá. V prvním kroku má jsme svou počáteční hodnotu (v našem případě $2$), ta se ale vindexu každémjekroku oejedničku svéca hodnoty.(v naˇsem ♥. Hodnota promˇ nliv´a. Vzvyšuje, prvn´ımdokud krokunedosáhne m´a svou poˇ ´poslední teˇcn´ı hodnotu Výpočet naší sumy tedy bude probíhat ve čtyřech krocích a náš index $i$ bude postupně pˇr´ıpadˇ e 2), ta$2,3,4,5$. se ale v Vkaˇ zd´em kroku jedniˇcku zvyˇ suje, dokudnanedos´ sv´e za posledn´ı nabývat hodnot každém z těchtoo čtyřech kroků se podíváme výrazahne napsaný sumou, a kdekoli uvidíme ($i$),prob´ tam ıhat si představíme jeho aktuální hodnoty. V´ ypoˇ cet naˇs´ısymbol sumy indexu tedy bude ve ˇctyˇrech kroc´ ıch a hodnotu. index i bude poVýraz za sumou $2(i+1)$ tedy bude postupně nabývat hodnot $2(2+1)$, $2(3+1)$, stupnˇe nab´ yvat hodnot 2, 3, 4, 5. V kaˇzd´em z tˇechto ˇctyˇrech krok˚ u se pod´$2(4+1)$ ıv´ame na v´ yraz a $2(5+1)$, tedy čísel $6,8,10,12$. Jelikož suma je operátor součtu, všechny hodnoty výrazu napsan´ za sumou, a kdekoli ıme symbol indexu (i), tam si pˇredstav´ıme jeho aktu´aln´ı sečteme ayzískáme výsledek $36$.uvid´ Tedy platí: $$hodnotu. V´ yraz za sumou 2(i+1) bude postupnˇe nab´ yvat hodnot 2(2+1), 2(3+1), 2(4+1) xxx ator souˇctu, vˇsechny hodnoty v´ yrazu $$a 2(5 + 1), tedy ˇc´ısel 6, 8, 10, 12. Jelikoˇz suma je oper´
seˇcteme a z´ısk´ame v´ ysledek 36. Tedy plat´ı:
To však není vše. Index často nepoužíváme jen jako číselnou hodnotu, ale jako identifikátor určitého 5prvku ze skupiny. Většina výpočtů, s nimiž se budeme ve statistice setkávat, totiž X obnáší práci2(i s nějakými opakovanými měření. být, + 1) = 2(2 + 1) + 2(3výsledky + 1) + 2(4 + 1)Typický + 2(5 +příklad 1) = 6může +8+ 10když + 12$n$ = 36 jedincům předložíme nějaký test a od každého z nich získáme výsledek. Pokud třeba změříme i=2 IQ u pěti lidí ($n=5$), můžeme dostat hodnoty $121$, $103$, $97$, $116$, $109$. Abychom s nimi mohli pracovat, potřebujeme je však pojmenovat. Psát do matematických vzorců To vˇsaknaměřená nen´ı vˇse. Indexinteligence}, ˇcasto nepouˇ z´ıv´ame jen naměřená jako ˇc´ıselnou hodnotu, ale jako iden\textit{první hodnota \textit{druhá hodnota inteligence} a tak dálator by nebylo praktické. Každou zVˇ naměřených hodnot označíme pí\-sme\-nem tifik´ urˇcit´epříliš ho prvku ze skupiny. etˇsina v´ ypoˇ ct˚ u, sproto nimiˇ z se budeme ve statistice (zvolme třeba $x$) a opatříme ji pořadovým číslem, které ji jednoznačně identifikuje. Takže setk´avat, totiˇz obn´aˇs´ı pr´aci s nˇejak´ ymi opakovan´ ymi v´ ysledky mˇeˇren´ı. Typick´ y pˇr´ıklad místo \textit{čtvrtá naměřená hodnota inteligence} napíšeme jen $x_4$, což by v našem m˚ uˇze b´ yt, kdyˇz nčíslu jedinc˚ um pˇredloˇz´ıme nˇejak´ y test a od kaˇzd´eho z nich z´ısk´ame v´ ysledek. příkladu odpovídalo $116$.
Pokud tˇreba zmˇeˇr´ıme IQ u pˇeti lid´ı (n = 5), m˚ uˇzeme dostat hodnoty 121, 103, 97, 116,
Když tento nápad zkombinujeme s naší znalostí sumy a snadno porozumíme výrazům jako je 109. Abychom s nimi mohli pracovat, potˇrebujeme je pojmenovat. Ps´at do matematick´ ych $\sum_{i=1}^{n} x_{i}$. Opět použijeme to pravidlo, že kdekoli ve výrazu za sumou vidíme jméno indexu ($i$), tam si představíme je aktuální hodnotu:
164
Tabulka 16: Diplomov´e pr´ace student Zuzka Petr Jana Tom Lenka
poˇcet napsan´ych stran x 10 30 70 0 60
rychlost psan´ı pl´anovan´y rozsah (stran za den) pr´ace y z 5 80 1 60 6 70 10 80 4 120
vzorc˚ u prvn´ı namˇeˇren´a hodnota IQ, druh´a namˇeˇren´a hodnota IQ a tak d´al by nebylo pˇr´ıliˇs praktick´e. Kaˇzdou z namˇeˇren´ ych hodnot proto oznaˇc´ıme p´ısmenem (zvolme tˇreba x) a opatˇr´ıme ji poˇradov´ ym ˇc´ıslem, kter´e ji jednoznaˇcnˇe identifikuje. Takˇze m´ısto ˇctvrt´ a namˇeˇren´a hodnota IQ nap´ıˇseme jen x4 , coˇz by v naˇsem pˇr´ıkladu odpov´ıdalo ˇc´ıslu 116. Kdyˇz tento n´apad zkombinujeme s naˇs´ı znalost´ı sumy, snadno porozum´ıme v´ yraz˚ um Pn yrazu za sumou vid´ıme jm´eno jako je i=1 xi . Opˇet pouˇzijeme pravidlo, ˇze kdekoli ve v´ indexu, tam si pˇredstav´ıme jeho aktu´aln´ı hodnotu: n X
xi = x1 + x2 + x3 + x4 + x5 = 121 + 103 + 97 + 116 + 109 = 546.
i=1
Z´apis tedy vlastnˇe ˇr´ık´a seˇcti prvn´ı x, druh´e x, tˇret´ı x aˇz po n-t´e x, neboli seˇcti hodnoty vˇsech x dohromady. V podobn´em duchu m˚ uˇzeme vytvoˇrit dalˇs´ı vzorce, kter´e pracuj´ı hned s nˇekolika skupinami hodnot. V tabulce 16 jsou z´aznamy o pˇeti studentech, kteˇr´ı p´ıˇsou sv´e diplomov´e pr´ace. Uˇz zn´ame vzorec, kter´ y vyjadˇruje celkov´ y poˇcet stran napsan´ y vˇsemi studenty doPn uˇzeme se vˇsak zeptat, kolik stran mus´ı jeˇstˇe vˇsichni studenti hromady: i=1 xi = 170. M˚ dohromady napsat, aby dos´ahli pl´anovan´ ych rozsah˚ u sv´ ych prac´ı. Pro kaˇzd´eho zvl´aˇst’ to spoˇc´ıt´ame tak, ˇze od poˇctu pl´anovan´ ych stran (z) odeˇcteme poˇcet jiˇz napsan´ ych stran (x). Suma tˇechto rozd´ıl˚ u pro vˇsechny studenty pak vypad´a takto: n X
(zi − xi ) = (z1 − x1 ) + (z2 − x2 ) + (z3 − x3 ) + (z4 − x4 ) + (z5 − x5 ).
i=1
Po dosazen´ı hodnot z tabulky pak (80 − 10) + (60 − 30) + (70 − 70) + (80 − 0) + (120 − 60) = 240. Postup si m˚ uˇzeme pˇredstavit tak´e tak, ˇze k tabulce (16) pˇrid´ame nov´ y sloupec, do nˇejˇz nap´ıˇseme v´ ysledky rozd´ılu z − x, a vˇsechny jeho hodnoty seˇcteme. 165
Vzorce se sumou m˚ uˇzeme ˇcasto upravovat, a v´ ypoˇcet tak zjednoduˇsit. Napˇr´ıklad tehdy, kdyˇz se v´ yraz za sumou n´asob´ı nˇejakou konstantou, tedy libovoln´ ym ˇc´ıslem, jehoˇz hodnota se nemˇen´ı, jelikoˇz neobsahuje index. Zkusme spoˇc´ıtat, kolik slov jiˇz studenti dohromady napsali, kdyˇz v´ıme, ˇze jedna normovan´a str´anka textu obsahuje c slov: n X
cxi = cx1 + cx2 + cx3 + cx4 + cx5 .
i=1
Tent´ yˇz vztah bychom mohli zapsat i takto:
c
n X
xi = c(x1 + x2 + x3 + x4 + x5 ).
i=1
V´ ysledek je pochopitelnˇe stejn´ y, jelikoˇz nehraje roli, jestli nejdˇr´ıv spoˇc´ıt´ame, kolik stran napsali studenti dohromady a pak ˇc´ıslo vyn´asob´ıme poˇctem slov na str´anku, nebo jestli u kaˇzd´eho studenta spoˇc´ıt´ame nejdˇr´ıv poˇcet napsan´ ych slov a v´ ysledky seˇcteme aˇz pak. Obecnˇe m˚ uˇzeme ˇr´ıct, ˇze n n X X cxi = c xi . i=1
i=1
Pro n´azornost, uved’me jeˇstˇe nˇekolik vztah˚ u, kter´e ˇcten´aˇr snadno pochop´ı i bez bliˇzˇs´ıho koment´aˇre:
n X xi i=1
c
Pn =
n X i=1
x2i
i=1
n X
xi
c
=
x21
(xi + yi ) =
i=1
+
x22
+
x23
+
n X
xi +
i=1
x24
+
x25
n X
yi
i=1
n X
xi
2
n n X X (xi + c) = nc + xi i=1
i=1
= (x1 + x2 + x3 + x4 + x5 )2
i=1
Aby se cel´a vˇec jeˇstˇe trochu zkomplikovala, suma m˚ uˇze b´ yt pouˇzita i v r´amci jin´e sumy. V praxi se s takovouto situac´ı setk´ame tˇreba tehdy, kdyˇz potˇrebujeme sˇc´ıtat pˇres ˇra´dky i sloupce nˇejak´e tabulky. M˚ uˇzeme pak pouˇz´ıt tˇreba index i pro oznaˇcen´ı ˇr´adku a index j pro sloupce a jednotliv´e hodnoty x identifikovat jejich dvojic´ı. Tabulka (17) zobrazuje ˇcetnosti odpovˇed´ı na ot´azku S k´ym jste tr´avili posledn´ıho ” Silvestra? “, kdyˇz jsme se zeptali naˇsich pˇra´tel a pˇr´ıbuzn´ ych, rozdˇelen´ ych do skupin podle studijn´ıho zaˇrazen´ı. P Kaˇzd´ y sloupec zvl´aˇst’ m˚ uˇzeme seˇc´ıst podle n´am zn´am´eho vzorce ri=1 xi . Za x dosad´ıme hodnoty z dan´eho sloupce. (Poˇcet ˇr´adk˚ u jsme oznaˇcili p´ısmenem r m´ısto p˚ uvodn´ıho
166
Tabulka 17: Odpovˇedi na ot´azku Kde jste tr´avili Silvestra? dle druhu studia /pr´ace S partou pˇra´tel
Jen s partnerem
S rodiˇci
Osamotˇe
6 15 17 7
0 1 6 9
12 3 2 0
1 0 3 5
ˇ ZS ˇ SS ˇ VS Nestudenti
n.) My vˇsak potˇrebujeme seˇc´ıst souˇcty vˇsech sloupc˚ u. Mus´ıme tedy spoˇc´ıtat sumu sum. Vzorec bude vypadat takto: s X r X
xij .
j=1 i=1
V prvn´ı sumˇe jsme m´ısto p´ısmene n pouˇzili s oznaˇcuj´ıc´ı poˇcet sloupc˚ u. Index nadˇrazen´e sumy se jmenuje j, jelikoˇz index i je jiˇz obsazen pro sˇc´ıt´an´ı uvnitˇr jednotliv´ ych sloupc˚ u. Kaˇzd´a promˇenn´a x je pak identifikov´ana dvˇema ˇc´ısly: prvn´ı z nich tradiˇcnˇe vyjadˇruje, o kter´ y se jedn´a ˇra´dek, a druh´e urˇcuje sloupec. Tedy napˇr´ıklad x21 (dva jedna, nikoli dvacetjedna) je hodnota x z druh´eho ˇr´adku prvn´ıho sloupce (tedy 15). V´ yˇse uveden´ y vzorec m˚ uˇzeme rozepsat jako s X r X
xij =
j=1 i=1
r X
xi1 +
i=1
r X
xi2 +
i=1
r X
xi3 +
i=1
r X
xi4 ,
i=1
coˇz odpov´ıd´a souˇctu sum ze vˇsech sloupc˚ u. Pˇ r´ıklad 1: Vyˇc´ıslete n´ıˇze uveden´e v´ yrazy.
a)
4 X i=1
2
4(i − 3) i
e)
b)
j=2
3 X i X ij i=1 j=1
4 X
5
f)
j+9 j−1
c)
5 X
(2k − 2k)
v u 7 uX d) t 4 + l2 l=1
k=0
3 X 3 X j(j − 1) (k + 1)k j=1 k=1
g)
4 X k=0
(−1)
k
5 X
l
l=k+1
[a) 19, b) 25, c) 33, d) 12, e) 5, f) 6, g) 9]
167
Postup: Uved’me, jak by mohl vypadat postup ˇreˇsen´ı u ´lohy e): 3
3 X i X ij i=1 j=1
i
1 XX 1 = ij = 5 5 i=1 j=1 5
1 = 5
X 1
X 1
1j +
j=1
2 X
2j +
j=1
3 X
3j
=
j=1
2 X
3 X 1 j+2 j+3 j = 1(1) + 2(1 + 2) + 3(1 + 2 + 3) = 5 j=1 j=1 j=1 1 25 = (1 + 6 + 18) = =5 5 5
Pˇ r´ıklad 2: Laboratorn´ı krysa byla desetkr´at po sobˇe vpuˇstˇena do bludiˇstˇe, aby hledala potravu. Experiment´ator mˇeˇril, kolik vteˇrin j´ı tento u ´kol zabere. Z´ıskal tyto ˇcasy: 20
33
20
23
16
21
16
13
10
8
Jak´a byla pr˚ umˇern´a doba hled´an´ı potravy, pokud je vzorec pro v´ ypoˇcet aritmetick´eho Pn 1 umˇeru mezi kaˇzd´ yma dvˇema pr˚ umˇeru n i=1 xi ? D´ale spoˇc´ıtejte, o kolik sekund se v pr˚ P n−1 1 pokusy ˇcas zmˇenil bez ohledu na znam´enko dle vzorce n−1 i=1 |xi − xi+1 | [18, 6]
Pˇ r´ıklad 3: Mˇejme pˇet uspoˇra´dan´ ych dvojic hodnot (x, y): x y
4 3
5 3
10 5
2 8 0 4
Spoˇc´ıtejte hodnoty v´ yraz˚ u: n X
2
(xi − yi )
i=1
n X
(x2i
−
yi2 )
xi − y i
2
i=1
i=1
n X
n X
n X
xi · yi
i=1
(xi − 1) · (yi + 1)
i=1
[50, 150, 196, 109, 118]
168
Pˇ r´ıklad 4: Pro datovou tabulku (16) napiˇste vzorec, kter´ y ud´av´a (a) celkov´ y poˇcet dn˚ u, kter´e jiˇz vˇsichni studenti dohromady vˇenovali sv´ ym diplomov´ ym pracem, pokud sloupec rychlost psan´ı ud´av´a pr˚ umˇern´ y poˇcet napsan´ ych stran za den; (b) poˇcet dn˚ u, kter´e kaˇzd´ y student v pr˚ umˇeru jeˇstˇe mus´ı vˇenovat sv´e diplomov´e pr´aci, aby dos´ahl pl´anovan´e d´elky. Vypoˇc´ıtejte hodnoty obou vzorc˚ u. [
Pn
xi 1 i=1 yi , n
Pn
i=1
zi −xi , yi
58.67, 13.4]
Pˇ r´ıklad 5: Pro x nab´ yvaj´ıc´ı hodnot 6, 4, 2, 5, 1, 3 vyˇc´ıslete tento v´ yraz: n X (xi − i)2 . 1−6 n(n2 − 1) i=1
[−0.6]
Pˇ r´ıklad 6: Pro hodnoty 98, 95, 103, 107, 102, 94, 103, 95, 99, 105, 98, 101 oznaˇcen´e p´ısmenem x spoˇc´ıtejte v´ ybˇerov´ y rozptyl podle vzorce n
n
1 X 2 1 X xi − xj . n − 1 i=1 n j=1 [17.45] Postup: Na uveden´em pˇr´ıkladu m˚ uˇzeme demonstrovat nˇekolik trik˚ u, jak si ulehˇcit pr´aci. Ve vzorci se vyskytuje oper´ator suma dvakr´at. M˚ uˇzeme si ale vˇsimnout toho, ˇze P v´ yraz n1 nj=1 xj se nijak nemˇen´ı pˇri r˚ uzn´ ych hodnot´ach indexu i. Jeho hodnotu tedy m˚ uˇzeme vyˇc´ıslit a d´ale s n´ım pracovat jako s konstatou, kterou oznaˇc´ıme tˇreba x¯. Pro naˇse konkr´etn´ı data bude m´ıt hodnotu 100. Dalˇs´ım uˇziteˇcn´ ym krokem je v´ ypoˇcet pomoc´ı tabulky. Budeme postupovat tak, ˇze kaˇzd´ y krok v´ ypoˇctu bude pˇredstavovat jeden sloupeˇcek tabulky. V prvn´ım budou hodnoty xi , v druh´em xi − x¯, a v dalˇs´ım (xi − x¯)2 . 169
xi xi − x¯ 98 -2 95 -5 103 3 107 7 102 2 94 -6 103 3 95 -5 99 -1 105 5 98 -2 101 1 1200
i 1 2 3 4 5 6 7 8 9 10 11 12 P
(xi − x¯)2 4 25 9 49 4 36 9 25 1 25 4 1 192
Kdyˇz seˇcteme hodnoty posledn´ıho sloupeˇcku, z´ısk´ame hodnotu v´ yrazu
Pn
i=1 (xi
− x¯)2 ,
kterou staˇc´ı vydˇelit hodnotou n − 1. Tedy 192/11, coˇz je rovno v´ ysledku 17.45. Pˇ r´ıklad 7: Podle uveden´eho vzorce vypoˇc´ıtejte hodnotu odhadu korelaˇcn´ıho koeficientu mezi poˇctem v´ yskyt˚ u agresivn´ıho chov´an´ı mezi tˇrilet´ ymi dˇetmi (znaˇc´ıme x) a poˇctem fyzick´ ych trest˚ u, kter´e dˇeti dostaly za posledn´ı mˇes´ıc (y). Pozorovali jsme tyto hodnoty: x y
3 0
0 0
9 11
1 5 6 5 3 2 1 4 3 3
Hodnota korelaˇcn´ıho koeficient se rovn´a hodnotˇe v´ yrazu: P P xi yi − ni=1 xi ni=1 yi q P 2 q Pn 2 2 . Pn Pn n 2 n i=1 xi − n i=1 yi − i=1 xi i=1 yi n
Pn
i=1
[0.81]
Pˇ r´ıklad 8: Skupina 180 dobrovoln´ık˚ u byla dotazov´ana, jakou znaˇcku ze ˇctyˇr moˇznost´ı (A, B, C, D) nealkoholic´ ych n´apoj˚ u preferuj´ı. Pot´e jim byl prom´ıtnut film obsahuj´ıc´ı skryt´e reklamn´ı prvky. Po zhl´ednut´ı filmu doslat kaˇzd´ y dobrovoln´ık pouk´azku na libodoln´ y nelkoholick´ y n´apoj a bylo sledov´ano, pro kter´ y se rozhodl. N´asleduj´ıc´ı tabulka obsahuje poˇcty jedinc˚ u (nij ) rozdˇelen´e dle jejich uv´adˇen´e preference (ˇra´dky) a skupteˇcn´eho rozhodnut´ı (sloupce).
170
A B C D
A 22 29 5 9
B 21 17 7 9
C 10 3 9 4
D 21 6 1 7
Vypoˇc´ıtejte testovou statistiku Bowkerova testu symetrie dle vzorce: k−1 X k X (nij − nji )2 , n + n ij ji i=1 j=i+1
kde k oznaˇcuje poˇcet kategori´ı (v naˇsem pˇr´ıpadˇe 4) a nij jsou hodnoty v jednotliv´ ych buˇ nk´ach. [11.75]
Pˇ r´ıklad 9: Zjednoduˇste n´asleduj´ıc´ı v´ yrazy tak, aby neobsahovaly oper´ator suma n X i=1
i
n
Pn i=1 (n − i) Pn−1 i=0 i
2X 3+ (n + i + ni) n i=1 [ 12 n(n + 1), 1, (n + 2)2 ]
Pˇ r´ıklad 10: Mˇejme ˇctvercovou matici (tabulku ˇc´ısel) o k ˇra´dc´ıch a k sloupc´ıch, kde k > 1. Napiˇste pˇredpis, jehoˇz v´ ysledkem je souˇcet hodnot vˇsech bunˇek na obvodu tabulky. [napˇr´ıklad
Pk
i=1 (ni1
+ nik + n1i + nki ) − (n11 + nk1 + n1k + nkk ) P P nebo ki=1 (ni1 + nik ) + k−1 i=2 (n1i + nki ) ]
171
6.2
Pr´ ace s pravdˇ epodobnost´ı, vyuˇ zit´ı kombinatorick´ ych pravidel
Pˇri nejr˚ uznˇejˇs´ıch statistick´ ych operac´ıch se m˚ uˇze st´at, ˇze potˇrebujeme vyˇc´ıslit, kolik r˚ uzn´ ych d´ılˇc´ıch skupin prvk˚ u m˚ uˇzeme vybrat z jin´e velk´e skupiny, kolik r˚ uzn´ ych poˇrad´ı m˚ uˇzou prvky m´ıt, nebo tˇreba kolika r˚ uzn´ ymi zp˚ usoby m˚ uˇzeme doj´ıt k urˇcit´emu v´ ysledku. Tento obor matematiky se naz´ yv´a kombinatorika. V tomto cviˇcen´ı osvˇetl´ıme nˇekolik z´akladn´ıch kombinatorick´ ych postup˚ u a vyuˇzijeme je pˇri v´ ypoˇctu pravdˇepodobnosti n´ahodn´ ych jev˚ u. Ve vˇetˇsinˇe pˇr´ıpad˚ u budeme vych´azet z klasick´e definice pravdˇepodobnosti (viz kapitola 2.2.1) a vyuˇzijeme i znalost vlastnost´ı nez´avisl´ ych n´ahodn´ ych jev˚ u (kapitola 2.2). 6.2.1
Kombinatorick´ e pravidlo soˇ ctu a souˇ cinu
Kombinatorick´e pravidlo souˇcinu popisuje, kolik r˚ uzn´ ych uspoˇr´adan´ ych k-tic (dvojic, trojic, pˇetic...) lze vytvoˇrit z k mnoˇzin prvk˚ u. Tato vˇeta se m˚ uˇze zd´at ponˇekud nesrozumiteln´a, jej´ı smysl n´am osvˇetl´ı struˇcn´ y pˇr´ıklad. Jdete na obˇed do mensy a chcete si d´at minutku. Na v´ ybˇer m´ate tyto moˇznosti: dr˚ ubeˇz´ı j´atra, vepˇrov´e raˇzniˇci, ryb´ı fil´e, zeleninov´e medailonky a kuˇrec´ı smˇes Paradis. Celkovˇe pˇet j´ıdel. K tomu si m˚ uˇzeme vybrat z tˇechto ˇctyˇr pˇr´ıloh: r´yˇze, brambory, hranolky nebo bramborov´a kaˇse. I bez pˇredchoz´ı znalosti kombinatorick´eho pravidla souˇcinu snadno zjist´ıme, ˇze celkov´ y poˇcet moˇznost´ı, co poobˇedvat, je 20 (5 minutek kr´at 4 pˇr´ılohy) r˚ uzn´ ych j´ıdel, protoˇze si kaˇzd´e j´ıdlo m˚ uˇzeme d´at s kaˇzdou pˇr´ılohou. Zpˇet k p˚ uvodn´ı definici. Chceme-li tedy vytvoˇrit uspoˇr´adan´e (tzn. hlavn´ı j´ıdlo + pˇr´ıloha) k-tice (v naˇsem pˇr´ıpadˇe dvojice) a prvn´ı ˇclen lze vybrat n1 (u n´as pˇeti) zp˚ usoby a druh´ y n2 (ˇctyˇrmi) zp˚ usoby aˇz k-t´ y (my m´ame jen dva ˇcleny) nk zp˚ usoby, tak celkov´ y poˇcet tˇechto k-tic je roven n1 · n2 · ... · nk . Kombinatorick´ e pravidlo souˇ ctu popisuje vztah, kter´ y je ve srovn´an´ı s pˇredchoz´ım pravidlem trivi´aln´ı. M´ame-li k disjunktn´ıch mnoˇzin a chceme-li z nich vybrat jedin´ y prvek, pak poˇcet moˇznost´ı, kter´e m´ame, je roven souˇctu poˇct˚ u prvk˚ u v jednotliv´ ych mnoˇzin´ach, tedy n1 + n2 + ... + nk . Pokud jsme se tedy zklamali v minutk´ach a vyb´ır´ame mezi hlavn´ımi j´ıdly, kter´ ych je 6, a z nab´ıdy tepl´eho bufetu, kter´a ˇc´ıt´a 3 pokrmy, co by se daly povaˇzovat za obˇed, pak si m˚ uˇzeme vybrat 9 zp˚ usob˚ u, jak uspokojit ˇzaludek.
172
6.2.2
Permutace
Zn´ame-li kombinatorick´e pravidlo souˇcinu, dok´aˇzeme odvodit odpovˇed’ na ot´azku, kolik r˚ uzn´ ych uspoˇr´ad´an´ı m˚ uˇze zauj´ımat k prvk˚ u. V matematick´e literatuˇre se tˇemto r˚ uzn´ ym poˇrad´ım ˇr´ık´a permutace. Nejsn´aze je ˇcten´aˇri pˇribl´ıˇz´ıme pomoc´ı pˇr´ıkladu. Pˇredstavme si, ˇze do vlakov´eho kup´e, kter´e m´a 8 m´ıst, nastupuje 8 lid´ı. V kolika r˚ uzn´ ych uspoˇr´ad´an´ıch m˚ uˇzou v kup´e sedˇet? Prvn´ı, kdo do kup´e vstoup´ı, m´a zjevnˇe 8 moˇznost´ı, kam se posadit. Druh´ y jiˇz jen 7, jelikoˇz jedno m´ısto je obsazen´e. Kdyˇz pˇrijde tˇret´ı pasaˇz´er, tak ten m´a jen 6 m´ıst a tak d´al aˇz po osm´eho cestuj´ıc´ıho, kter´ y si vybrat nem˚ uˇze a m´a k dispozici jedin´e m´ısto. Jde o pˇr´ıpad vytv´aˇren´ı uspoˇra´dan´e k-tice, o kter´em jsme jiˇz hovoˇrili v odstavci o kombinatorick´em pravidle souˇcinu. Mezi jednotliv´e poˇcty moˇznost´ı d´ame tedy znam´enko kr´at a dojdeme k v´ ysledku, ˇze poˇcet r˚ uzn´ ych uspoˇr´ad´an´ı naˇsich pasaˇz´er˚ u je u ´ctyhodn´ ych 8 · 7 · 6 · 5 · 4 · 3 · 2 · 1 = 40320. Abychom z´apis zjednoduˇsili, budeme pro v´ ypoˇcet poˇctu permutac´ı pouˇz´ıvat oper´ator s n´azvem faktori´ al, kter´ y zapisujeme 8!. Plat´ı tedy k! = k · (k − 1) · (k − 2) · . . . · 2 · 1. Jak je z pˇr´ıkladu patrn´e, faktori´al pomˇernˇe n´ızk´eho ˇc´ısla, jako je 8, vych´az´ı v ˇra´du desetitis´ıc˚ u. U vyˇsˇs´ıch ˇc´ısel tento oper´ator vede ˇcasto k hodnot´am, kter´e neum´ı zobrazit kalkulaˇcka ani stoln´ı poˇc´ıtaˇc. M˚ uˇze b´ yt proto uˇziteˇcn´e zn´at jeden trik pˇri poˇc´ıt´an´ı s faktori´alem. Ve vˇetˇsinˇe u ´loh, na kter´e naraz´ıme, se faktori´al vyskytuje nad i pod zlomkovou ˇca´rou. V´ ysledek nˇejak´eho pˇr´ıkladu by napˇr´ıklad mohl zn´ıt
62! . 60!
Ani pˇri nejlepˇs´ı v˚ uli ne-
dok´aˇzeme spoˇc´ıtat hodnotu ˇcitatele ˇci jmenovatele. D˚ umysln´ ym rozeps´an´ım faktori´alu v ˇcitateli m˚ uˇzeme pˇrev´est zlomek do jin´eho tvaru a obˇe hodnoty zkr´atit: 62 · 61 · 60! 62! = = 62 · 61 = 3782. 60! 60! Dodejme jeˇstˇe, ˇze v´ yraz 0! je roven ˇc´ıslu 1. 6.2.3
Kombinace
Permutace jsou z´akladn´ım kamenem, s jehoˇz pomoc´ı m˚ uˇzeme vytv´aˇret sloˇzitˇejˇs´ı operace. Pˇredstavme si napˇr´ıklad u ´lohy, kdy m´ame z n prvk˚ u vybrat k prvk˚ u a pt´ame se, kolik r˚ uzn´ ych k-tic m˚ uˇzeme vytvoˇrit, kdyˇz nez´aleˇz´ı na uspoˇra´d´an´ı prvk˚ u uvnitˇr t´eto k-tice. V matematick´ ych textech by se tyto k-tice oznaˇcovaly n´azvem kombinace. Jednalo by se tˇreba o situaci, kdy hrajeme poker. V bal´ıˇcku je 52 (n = 52) karet a kaˇzd´ y hr´aˇc dostane 5 (k = 5) z nich. Kolik r˚ uzn´ ych pˇetic karet m˚ uˇzeme obdrˇzet? Uvˇedomme si, ˇze zde nez´aleˇz´ı na poˇrad´ı – pokud m´ame vˇsechna ˇctyˇri esa a pikovou sedmiˇcku, je to pˇresnˇe tot´eˇz, jako kdyˇz m´ame pikovou sedmiˇcku a vˇsechna esa. Byla by to tedy jedna a tat´aˇz kombinace. 173
Odvodit v´ ysledek chce jiˇz jistou d´avku fantazie. Pˇredstavme si, ˇze vˇsech 52 karet n´ahodnˇe seˇrad´ıme a rozdˇel´ıme je na dvˇe hrom´adky – prvn´ıch 5 na jednu a zb´ yvaj´ıc´ıch 47 na druhou. Celkov´ y poˇcet r˚ uzn´ ych poˇrad´ı tˇechto 52 karet je 52! (pouˇzijeme naˇsi znalost permutac´ı). Nˇekter´a z tˇechto uspoˇra´d´an´ı jsou ale z naˇseho pohledu stejn´a. Ty permutace, kter´e se liˇs´ı jen poˇrad´ım uvnitˇr prvn´ı hrom´adky, pˇredstavuj´ı stejn´ y v´ ysledek (jelikoˇz je jedno, v jak´em poˇrad´ı karty do ruky dostaneme – ve hˇre to nic nezmˇen´ı). Jedn´a se vˇzdy o 5! stejn´ ych kombinac´ı v r´amci celkov´eho poˇctu 52! r˚ uzn´ ych uspoˇra´d´an´ı. Celkov´ y poˇcet permutac´ı 52! proto mus´ıme ˇc´ıslem 5! vydˇelit. Uvaˇzujme ale d´al: poˇrad´ı druh´e hrom´adky taky nijak neovlivˇ nuje kombinaci karet, kter´e m´ame v ruce. Naˇsich 52! r˚ uzn´ ych poˇrad´ı tedy m˚ uˇzeme rozdˇelit i na skupiny po 47! r˚ uzn´ ych uspoˇr´ad´an´ı, kter´a vˇsak nemaj´ı ˇz´adn´ y vliv na to, jak´ ych pˇet karet m´ame v ruce. Celkov´ y poˇcet poˇrad´ı proto vydˇel´ıme nejen hodnotou 5! ale i ˇc´ıslem 47!. Celkovˇe tedy m˚ uˇzeme v pokeru dostat karet, coˇz je rovno v´ yrazu
52·51·50·49·48 5!
52! 5!47!
r˚ uzn´ ych pˇetic
= 2598960.
Obecnˇe bychom ˇrekli, ˇze m˚ uˇzeme vybrat
n! k!(n−k)!
r˚ uzn´ ych neuspoˇra´dan´ ych k-tic z mno-
ˇziny n r˚ uzn´ ych prvk˚ u. Jelikoˇz se v matematice s t´ımto probl´emem setk´av´ame velmi ˇcasto, zapisujeme tento vztah jako kombinaˇ cn´ı ˇ c´ıslo n n! . = k!(n − k)! k V´ yraz
n k
ˇcteme n nad k“. ” Kromˇe permutac´ı a kombinac´ı v kombinatorice rozliˇsujeme jeˇstˇe variace a ve vˇsech tˇrech pˇr´ıpadech mluv´ıme o moˇznosti s opakov´an´ım a bez opakov´an´ı. V tomto kurzu tyto pojmy definovat nebudeme. Pokud student pochopil zp˚ usob, jak´ y jsme odvodili kombinaci pomoc´ı permutac´ı, snadno pˇrijde na zp˚ usob, jak´ ym lze spoˇc´ıtat libovolnou dalˇs´ı u ´lohu47 .
Pˇ r´ıklad 11: Hnˇedook´ y muˇz si vezme modrookou d´ıvku. Pˇredpokl´adejme, ˇze je 50% pravdˇepodobnost, ˇze jejich d´ıtˇe bude m´ıt modr´e oˇci a 50% pravdˇepodobnost, ˇze d´ıtˇe bude holˇciˇcka. Jak´a je pravdˇepodobnost, ˇze jejich d´ıtˇe bude modrook´a d´ıvka, pokud jsou oba jevy nez´avisl´e. [ 14 ] 47 V´ yjimkou je snad jen kombinace s opakov´an´ı, kter´a vyˇzaduje ne zcela intuitivn´ı myˇslenkov´ y trik. Z´ ajemce o tento poznatek m˚ uˇzeme odk´ azat na internetov´e zdroje. Existuje mnoho kvalitn´ıch zdarma pˇr´ıstupn´ ych internetov´ ych port´ al˚ u, kter´e jsou v ˇceˇstinˇe, a vysvˇetluj´ı kompletnˇe kombinatorick´a pravidla.
174
Pˇ r´ıklad 12: V´ıme, ˇze 40 % mail˚ u, kter´e n´am chod´ı, jsou od ˇs´efa, a obsahuj´ı nˇejak´ yu ´kol. D´ale, ˇze 20 % mail˚ u, co n´am pˇrich´az´ı do schr´anky, poch´az´ı od druh´eho ˇs´efa a opˇet vˇzdy znamenaj´ı nˇejakou pr´aci nav´ıc. A nakonec v 30 % mail˚ u, kter´e chod´ı do naˇs´ı schr´anky, po n´as chce nˇekdo jin´ y, obvykle spolupracovn´ıci, pomoc se sv´ ymi u ´koly. Pˇriˇsel mail. Jak´a je pravdˇepodobnost, ˇze v nˇem po n´as chce nˇekdo nˇejakou pr´aci? [90%]
Pˇ r´ıklad 13: Vezmete-li sv˚ uj mobil a zcela nahodile nap´ıˇsete 9 libovoln´ ych ˇc´ıslic mezi 0 a 9 (s t´ım, ˇze se ˇc´ıslice m˚ uˇzou opakovat a pravdˇepodobnost vybr´an´ı libovoln´e z nich je vˇzdy
1 ), 10
jak´a
je pravdˇepodobnost, ˇze vytoˇc´ıte telefonn´ı ˇc´ıslo autora tˇechto skript, (a) m´a-li jedin´e telefonn´ı ˇc´ıslo? (b) m´a-li tˇri r˚ uzn´a telefonn´ı ˇc´ısla? 1 [ 1000000000 = 10−9 ;
3 1000000000
= 3 · 10−9 ]
Pˇ r´ıklad 14: ˇ m´a 15 % ˇza´k˚ Pr˚ uzkum zjistil, ˇze v urˇcit´em regionu CR u dev´at´ ych tˇr´ıd zkuˇsenost s tvrd´ ymi drogami. Jak´a je pravdˇepodobnost, ˇze z dvaceti n´ahodnˇe vybran´ ych dev´at’a´k˚ u z tohoto regionu tuto zkuˇsenost alespoˇ n jeden m´a? [1 − (1 − 0.15)20 ≈ 96 %] ´ N´ apovˇ eda: Ukol se stane mnohem snazˇs´ım, kdyˇz spoˇc´ıt´ame pravdˇepodobnost opaˇcn´eho jevu, a tu odeˇcteme od jedniˇcky. Pˇ r´ıklad 15: V´ıme, ˇze na kaˇzd´em term´ınu zkouˇsky z Tˇeˇzk´eho pˇredmˇetu uspˇeje 50 % zapsan´ ych student˚ u. Zb´ yvaj´ıc´ı si zapisuj´ı druh´ y, a pot´e tˇret´ı term´ın. Ze student˚ u, kteˇr´ı nebyli u ´spˇeˇsn´ı ani ve tˇret´ım term´ınu, 30 % studium vzd´a a zb´ yvaj´ıc´ı si pˇredmˇet zap´ıˇsou znovu. Ze student˚ u, kteˇr´ı pˇredmˇet opakuj´ı, jich na kaˇzd´em term´ınu zkouˇsky 60 % uspˇeje. Pokud studenti neuspˇej´ı ani napotˇret´ı, je jejich studium ukonˇceno. Kolik procent student˚ u ukonˇc´ı studium kv˚ uli Tˇeˇzk´emu pˇredmˇetu? [4.31%] 175
Postup: K ˇreˇsen´ı tohoto pˇr´ıkladu staˇc´ı spr´avnˇe rozliˇsovat, kde pouˇzijeme kombinatorick´e pravidlo souˇctu a kde souˇcinu. Kdykoli v naˇsich u ´vah´ach naraz´ıme na logick´e a, tam mluv´ıme o souˇcinu a kdekoli naraz´ıme na nebo, tam pouˇzijeme souˇcet. Aby student neuspˇel, mus´ı neuspˇet na prvn´ı zkouˇsce (0.5) a neuspˇet na druh´e zkouˇsce (0.5) a neuspˇet na tˇret´ı zkouˇsce (0.5), a pak zvolit jednu z tˇechto moˇznost´ı: ukonˇcit studium (0.3) nebo pokraˇcovat (0.7) a neuspˇet na ˇctvrt´e zkouˇsce (0.4) a neuspˇet na p´at´e zkouˇsce (0.4) a neuspˇet na ˇsest´e zkouˇsce (0.4). Pˇreps´ano jako matematick´ y v´ yraz: 0.5 · 0.5 · 0.5 · (0.3 + 0.7 · 0.4 · 0.4 · 0.4).
Pˇ r´ıklad 16: Pˇet kamar´ad˚ u Lucka, Zuzka, Petr, Honza a Michal jde do kina. Zuzka, kter´a mˇela na starosti n´akup vstupenek, koupila pˇet l´ıstk˚ u vedle sebe do jedn´e ˇrady a kaˇzd´emu z pˇra´tel jeden dala, bez toho, aby se d´ıvala, komu dala kter´ y. Zasedac´ı poˇr´adek tedy urˇcila n´ahoda. (a) Jak´a je pravdˇepodobnost, ˇze pˇra´tele budou sedˇet v poˇrad´ı, v jak´em jsme je vyjmenovali, tedy Lucka, Zuzka, Petr, Honza, Michal? (b) Jak´a je pravdˇepodobnost, ˇze se budou chlapci a d´ıvky v zasedac´ım poˇr´adku pˇresnˇe stˇr´ıdat, tedy chlapec, d´ıvka, chlapec, d´ıvka, chlapec? (c) Jak´a je pravdˇepodobnost, ˇze Lucka bude sedˇet vedle Petra? (d) Uk´azalo se, ˇze dvˇe z koupen´ ych m´ıst jsou dvousedaˇcka. Jak´a je pravdˇepodobnost, ˇze na t´eto dvousedaˇcce budu spolu sedˇet Lucka a Petr? (e) Jak´a je pravdˇepodobnost, ˇze Petr bude sedˇet vedle nˇekter´e z d´ıvek? 1 1 2 1 7 [ 120 ; 10 ; 5 ; 10 ; 10 ]
Postup: V u ´loze a) m˚ uˇzeme rozeznat trivi´aln´ı probl´em stanoven´ı poˇctu vˇsech moˇzn´ ych poˇrad´ı. Pokud v´ıme, ˇze r˚ uzn´ ych poˇrad´ı, jak uspoˇra´dat n r˚ uzn´ ych prvk˚ u, je n!, pak jednomu konkr´etn´ımu poˇrad´ı m˚ uˇzeme pˇrisoudit pravdˇepodobnost 1/n!. Vyuˇzili jsme k tomu definici klask´e pravdˇepodobnosti. Pˇr´ıklad b) lze ˇreˇsit n´asleduj´ıc´ı u ´vahou. V´ıme, ˇze existuje n! r˚ uzn´ ych uspoˇr´ad´an´ı. Jelikoˇz vˇsak nerozliˇsujeme, kter´ y chlapec je kter´ y (respektive, kter´a d´ıvka, je kter´a) mus´ıme tento poˇcet vydˇelit poˇctem uspoˇra´d´an´ı, kter´a m˚ uˇzou Petr, Honza a Michal zauj´ımat na sv´ ych tˇrech sedaˇck´ach, a taky poˇctem uspoˇr´ad´an´ı, kter´a m˚ uˇzou zauj´ımat Lucka a Zuzka na sv´ ych. Hodnotu 5! bychom tedy vydˇelili hodnotami 3! (za chlapce) a 2! (za 5! d´ıvky). Vypoˇc´ıt´ame 2!3! = 10, tedy kombinaˇcn´ı ˇc´ıslo 52 , coˇz je poˇcet vˇsech moˇzn´ ych neuspoˇra´dan´ ych dvojic, kter´e m˚ uˇzou sedˇet na m´ıstech 2 a 4, respektive poˇcet neuspoˇra´dan´ ych 176
trojic, kter´e m˚ uˇzou sedˇet na m´ıstech 1, 3, 5. Pouze jedin´a dvojice vˇsak odpov´ıd´a zad´an´ı – ta, co je tvoˇrena d´ıvkami, respektive jedin´a trojice tvoˇren´a pouze chlapci. V´ ysledkem je 5! tedy pravdˇepodobnost 1/ 2!3! =
2!3! 5!
= 0.1.
V situaci c) p´atr´ame po poˇctu uspoˇra´d´an´ı, kter´a splˇ nuj´ı podm´ınku toho, ˇze Petr a Lucka sed´ı vedle sebe. Probl´em n´am citelnˇe usnadn´ı to, kdyˇz si pˇredstav´ıme Petra a Lucku ˇ ri prvky maj´ı 4! r˚ jako jedin´ y prvek ˇctyˇrprvkov´e mnoˇziny. Ctyˇ uzn´ ych uspoˇra´d´an´ı, nesm´ıme vˇsak zapomenout, ˇze n´aˇs dvouprvek“ Pert a Lucka, m´a s´am o sobˇe dvˇe uspoˇra´d´an´ı (Pert ” a Lucka, Lucka a Petr). Tedy r˚ uzn´ ych uspoˇra´d´an´ı je 4!2!. Abychom z´ıskali pravdˇepodobnost, vydˇel´ıme tento poˇcet celkov´ ym poˇctem uspoˇra´d´an´ı, kter´ ych je 5!. V´ ysledkem je tady
4!2! 5!
= 2/5 = 0.4.
Tent´ yˇz u ´kol bychom mohli ˇreˇsit i jinou cestou. Rozdˇelme situaci na dvˇe moˇznosti: Petr vylosoval l´ıstek na kraji (to se stane s pravdˇepodobnost´ı 2/5) a Petr vylosoval l´ıstek mimo okraj (pravdˇepodobnost 3/5). V prvn´ım pˇr´ıpadˇe m´a Lucka pravdˇepodobnost 1/4, ˇze z´ısk´a m´ısto vedle Petra (jelikoˇz uˇz zb´ yvaj´ı jen 4 m´ısta, z nichˇz losuje). V druh´em pˇr´ıpadˇe m´a pravdˇepodobnost 1/2, ˇze bude sedˇet vedle nˇej (jelikoˇz ze zb´ yvaj´ıc´ıch 4 m´ıst, jsou dvˇe vedle Petra). Pomoc´ı kombinatorick´ ych pravidel souˇctu a souˇcinu bychom pak z´ıskali v´ ysledek 2/5 · 1/4 + 3/5 · 1/2 = 2/5. ´ Ukol d) si opˇet m˚ uˇzeme pˇredstavit dvˇema zp˚ usoby. Jednak m˚ uˇzeme ˇr´ıct, ˇze pravdˇepodobnost toho, ˇze prvn´ı z dvojice Petr a Lucie (a je n´am jedno kter´ y), si vylosuje dvousedaˇcku, jsou 2/5. Ten druh´ y m´a pak pravdˇepodobnost t´ehoˇz 1/4, jelikoˇz zb´ yvaj´ı jiˇz jen 4 m´ısta a jen jedno z nich je na dvousedaˇcce. V´ ysledek tedy je 2/5 · 1/4 = 1/10. Druh´a cesta je si pˇredstavit, ˇze opˇet jde o kombinace. Hled´ame poˇcet neuspoˇr´adan´ ych dvojic z pˇeti prvk˚ u. Na dvousedaˇcce tedy m˚ uˇze sedˇet
n! k!(n−k)!
=
5! 2!3!
= 10 r˚ uzn´ ych dvojic,
z ˇcehoˇz je jedin´a naˇse dvojice Petr a Lucka (v libovoln´em poˇrad´ı). Jej´ı pravdˇepodobnost by tedy byla 1/10. Taky si m˚ uˇzeme vˇsimnout toho, ˇze u ´lohy d) a b) jsou totoˇzn´e, aˇc to nen´ı vidˇet na prvn´ı pohled. Posledn´ı u ´lohu e) vyˇreˇs´ıme zˇrejmˇe nejefektivnˇeji u ´vahou. Opˇet situaci rozdˇel´ıme na dvˇe moˇznosti: Petr vylosoval l´ıstek na kraji (to se stane s pravdˇepodobnost´ı 2/5) a Petr vylosoval l´ıstek mimo okraj (pravdˇepodobnost 3/5). Pokud Petr sed´ı na kraji, m´a jednoho souseda a je zde 50% pravdˇepodobnost, ˇze j´ım bude nˇejak´a d´ıvka (protoˇze ve hˇre jsou jiˇz jen dvˇe d´ıvky a dva chlapci). Posledn´ı, co mus´ıme dopoˇc´ıtat, je pravdˇepodobnost, ˇze vedle Petra sed´ı alespoˇ n jedna d´ıvka, za pˇredpokladu, ˇze on s´am nesed´ı na okraji. Jeden zp˚ usob v´ ypoˇctu m˚ uˇze b´ yt pˇres opaˇcn´ y jev; tedy ˇze od jedniˇcky odeˇcteme pravdˇepodobnost, ˇze vedla Petra sed´ı Honza a Michal. S vyuˇzit´ım kombinaˇcn´ıho ˇc´ısla 42 je hodnota rovna 1−
4! . 2!2!
Odpovˇed’ na naˇs´ı ot´azku je tedy rovna 2/5 · 1/2 + 3/5 · (1 − 1/6) = 0.7. 177
Pˇ r´ıklad 17: Ze sedmi pacient˚ u jsme n´ahodnˇe vybrali tˇri, kteˇr´ı dostali l´ek, a ˇctyˇri, kteˇr´ı dostali placebo. Po nˇejak´e dobˇe jsme pacienty seˇradili podle toho, k jak v´ yrazn´emu zlepˇsen´ı u nich doˇslo. Jak´a je pravdˇepodobnost, ˇze nejvyˇsˇs´ı zlepˇsen´ı nastalo u tˇech pacient˚ u, kteˇr´ı dostali l´ek, za pˇredpokladu, ˇze ve skuteˇcnosti tento pˇr´ıpravek nefunguje a jeho u ´ˇcinek je nulov´ y stejnˇe jako u ´ˇcinek placeba. = [ 3!4! 7!
1 ] 35
Pˇ r´ıklad 18: Mˇejme hrac´ı kostku, na kter´e m˚ uˇzou padnout hodnoty podobnost n´asleduj´ıc´ıch jev˚ u:
, , , , , . Jak´a je pravdˇe-
(a) Hod´ıme si pˇetkr´at kostkou, z ˇcehoˇz pˇri prvn´ıch tˇrech pokusech padne dvou nˇejak´a jin´a hodnota, pokud v´ıme, ˇze
pad´a s pravdˇepodobnost´ı 16 .
(b) Hod´ıme si pˇetkr´at kostkou, z ˇcehoˇz tˇrikr´at padne pokud v´ıme, ˇze
a dvakr´at nˇejak´a jin´a hodnota,
pad´a s pravdˇepodobnost´ı 16 .
(c) Hod´ıme si n-kr´at kostkou, z ˇcehoˇz k-kr´at padne pokud v´ıme, ˇze
a pˇri dalˇs´ıch
a (n−k)-kr´at nˇejak´a jin´a hodnota,
pad´a s pravdˇepodobnost´ı p. 25 [ 7776 ≈ 0.32%;
5 25 2 7776
≈ 3.22%;
n k
pk (1 − p)n−k ]
Pozn´ amka: Bod c) nen´ı niˇc´ım jin´ ym neˇz odvozen´ım pravdˇepodobnostn´ı funkce binomick´eho rozdˇelen´ı, kter´emu se bl´ıˇze vˇenujeme v kapitole (2.6.2). Pˇ r´ıklad 19: U z´avˇereˇcn´ ych zkouˇsek si student losuje po dvou ot´azk´ach z kaˇzd´eho ze 4 seznam˚ u ot´azek. Tyto seznamy jsou nestejnˇe dlouh´e – skl´adaj´ı se z 32, 36, 34 a 30 ot´azek. Jelikoˇz studentovi doch´az´ı pˇri pˇr´ıprav´ach ˇcas, nauˇc´ı se vˇsechny ot´azky, aˇz na dvˇe posledn´ı z kaˇzd´eho seznamu. Ty pˇreskoˇc´ı. Jak´a je pravdˇepodobnost, ˇze se mu tato strategie nevymst´ı a ˇza´dnou z pˇreskoˇcen´ ych ot´azek si nevylosuje? [ 35 = 60 %] Postup: Zaˇcnˇeme s jedin´ ym seznamem ot´azek, a ostatn´ı ponechme prozat´ım stranou. ˇ Reknˇ eme, ˇze obecnˇe ˇc´ıt´a n ot´azek, a my vyˇc´ıslujeme pravdˇepodobnost toho, ˇze student si nevyt´ahne ani jednu ze 2 konkr´etn´ıch ot´azek. Vyb´ır´a-li prvn´ı, m˚ uˇze zvolit n r˚ uzn´ ych ot´azek, z ˇcehoˇz je pro nˇej n − 2 pˇr´ızniv´ ych. Pokud uspˇel, tah´a druhou ot´azku z n − 1 zb´ yvaj´ıc´ıch a z toho n − 3 je pro nˇej pˇr´ızniv´ ych. Tedy pravdˇepodobnost u ´spˇechu je 178
n−2 n
·
n−3 . n−1
Stejn´ y postup pouˇzijeme u vˇsech 4 seznam˚ u, s t´ım ˇze hodnota n bude postupnˇe
32, 36, 34, 30. Jednotliv´e v´ ysledky spolu dle kombinatorick´eho pravidla souˇcinu n´asob´ıme. Kdyˇz vˇsech osm vznikl´ ych zlomk˚ u pˇrep´ıˇseme jako jedin´ y zlomek, m˚ uˇzeme ˇcitatel zapsat jako souˇcin ˇc´ısel 27 · 28 · . . . · 34 a jmenovatel 29 · 30 · . . . · 36. Vˇetˇsina hodnot se zkr´at´ı a my dojdeme k v´ ysledku
27·28 35·36
= 53 .
Pˇ r´ıklad 20: Ve tˇr´ıdˇe o 16 dˇetech jsou dvˇe ˇsikanovan´e dˇeti a tˇri ˇsikanuj´ıc´ı dˇeti. Tˇr´ıdu jste si s kolegou rozdˇelili na dvˇe skupiny po osmi dˇetech, kv˚ uli aktivitˇe v r´amci preventivn´ıho programu proti ˇsikanˇe. Dˇelen´ı probˇehlo n´ahodnˇe. Jak´a je pravdˇepodobnost tˇechto jev˚ u: (a) Ve vaˇs´ı skupinˇe nebude ˇz´adn´e ˇsikanuj´ıc´ı d´ıtˇe. (b) Ve vaˇs´ı skupinˇe budou obˇe ˇsikanovan´e dˇeti. (c) Vˇsechny ˇsikanuj´ıc´ı i ˇsikanovan´e dˇeti budou v jedn´e skupinˇe. 1 [ 10 ;
6.3
7 ; 1] 30 39
Pr´ ace s ˇ c´ıseln´ ymi charakteristikami n´ ahodn´ ych veliˇ cin
V tomto cviˇcen´ı se nebudeme zab´ yvat t´ım, jak vypoˇc´ıtat urˇcitou ˇc´ıselnou charakteristiku (rozptyl, stˇredn´ı hodnotu) z pˇredpisu distribuˇcn´ı funkce n´ahodn´e veliˇciny. S t´ımto probl´emem se ostatnˇe ani v naˇs´ı praxi zˇrejmˇe nebudeme pˇr´ıliˇs ˇcasto setk´avat. Dovednost, kterou vˇsak vyuˇzijeme, a proto j´ı vˇenujeme toto cviˇcen´ı, je v´ ypoˇcet ˇc´ıseln´ ych charakteristik n´ahodn´ ych veliˇcin, kter´e vznikly jako souˇcty, rozd´ıly ˇci nˇejak´e transformace jin´ ych n´am zn´am´ ych n´ahodn´ ych veliˇcin. V´ yznam ˇc´ıseln´ ych charakteristik n´ahodn´ ych veliˇcin vysvˇetlujeme v kapitole (2.5), kde uv´ad´ıme i vztahy, kter´e vyuˇzijeme v tomto cviˇcen´ı. Pro pˇrehlednost zopakujme nˇekter´e vzorce, kter´e budeme pouˇz´ıvat. E(a + bX) = a + b E(X)
E(aX + bY ) = a E(X) + b E(Y )
VAR(a + bX) = b2 VAR(X) COV(a + cX, b + dY ) = cd COV(X, Y )
E(a) = a
VAR(a) = 0 COV(X, X) = VAR(X)
VAR(X + Y ) = VAR(X) + VAR(Y ) + 2 COV(X, Y ) VAR(aX + bY ) = a2 VAR(X) + b2 VAR(Y ) + 2ab COV(X, Y )
179
COV(X, Y ) p COR(X, Y ) = p VAR(X) VAR(Y ) COV(aX + bY, cU + dV ) = COV(aX, cU ) + COV(aX, dV ) + COV(bY, cU ) + COV(bY, dV ). Pokud jsou n´ahodn´e veliˇciny X a Y nez´avisl´e, plat´ı i n´ıˇze uveden´e. E(X + Y ) = E(X) + E(Y )
E(XY ) = E(X) E(Y )
VAR(X + Y ) = VAR(X) + VAR(Y ) V nˇekter´ ych pˇr´ıpadech nemus´ı b´ yt ˇcten´aˇri zcela zˇrejm´e, jak v´ yˇse uveden´ ymi vztahy d´ale pracovat. Vezmˇeme situaci, kde m´ame vypoˇc´ıtat hodnotu v´ yrazu VAR(2X −3Y ). V´ ypoˇcet provedeme podle v´ yˇse uveden´ ych pravidel n´asledovnˇe:
VAR(2X − 3Y ) = VAR(2X) + VAR(−3Y ) + 2 COV(2X, −3Y ) = = 22 · VAR(X) + (−3)2 · VAR(Y ) + 2 · 2 · (−3) · COV(X, Y ) = = 4 VAR(X) + 9 VAR(Y ) − 12 COV(X, Y ) V pˇr´ıpadˇe souˇctu v´ıce ˇclen˚ u: VAR(2X − 3Y − 4Z) = 4 VAR(X) + 9 VAR(Y ) + 16 VAR(Z) − 12 COV(X, Y ) − 16 COV(X, Z) + 24 COV(Y, Z).
Pˇ r´ıklad 21: N´ahodn´a veliˇcina X m´a stˇredn´ı hodnotu 15 a rozptyl 8. Vypoˇc´ıtejte stˇredn´ı hodnotu a rozptyl n´ahodn´ ych veliˇcin Y , Z, U , V pokud v´ıme, ˇze plat´ı: Y = X–15
Z=
X 2
U = 10X + 85
V =
X − 15 √ · 10 + 50 8
[E(Y ) = 0, VAR(Y ) = 8, E(Z) = 7.5, VAR(Z) = 2, E(U ) = 235, VAR(U ) = 800, E(V ) = 50, VAR(V ) = 100]
180
Pˇ r´ıklad 22: N´ahodn´e veliˇciny X a Y jsou nez´avisl´e. Jak´a je stˇredn´ı hodnota, rozptyl a smˇerodatn´a odchylka n´ahodn´e veliˇciny Z, kdyˇz v´ıme ˇze: E(X) = 5
VAR(X) = 6 Z=
E(Y ) = 25
VAR(Y ) = 11.5
3X + 2Y +7 5 [E(Z) = 20, VAR(Z) = 4]
Postup: E
VAR
3X + 2Y +7 5
3X + 2Y +7 5 =
=
3 E(X) + 2 E(Y ) 3 · 5 + 2 · 25 +7= + 7 = 20 5 5
= VAR
3 X 5
+ VAR
2 Y 5
=
4 9 4 9 · 6 + 4 · 11.5 9 VAR(X) + VAR(Y ) = ·6+ · 11.5 = =4 25 25 25 25 25
Pˇ r´ıklad 23: N´ahodn´e veliˇciny X a Y jsou nez´avisl´e. Jak´a je stˇredn´ı hodnota, rozptyl a smˇerodatn´a odchylka n´ahodn´e veliˇciny Z, kdyˇz v´ıme ˇze: Z=
(X + Y ) − (E(X) + E(Y )) p · 15 + 100 VAR(X) + VAR(Y )
[E(Z) = 100, VAR(Z) = 225,
p
VAR(Z) = 15]
Pˇ r´ıklad 24: ˇ Kovariance n´ahodn´ ych veliˇcin X a Y je rovna 12. Cemu se rovnaj´ı n´asleduj´ıc´ı v´ yrazy: 1 COV( X, 2Y ) 2
COV(2X, 3Y ) COV(10X + 15, Y − 300)
COV(2X + 3, 2Y + 3)
[72, 12, 120, 48]
181
Pˇ r´ıklad 25: Vypoˇc´ıtejte hodnoty n´ıˇze uveden´ ych v´ yraz˚ u, pokud zn´ame varianˇcn´ı matici V n´ahodn´ ych veliˇcin X, Y , Z. 16 −3 6 V = −3 25 1 6 1 4 VAR(X + Y )
VAR(X − Y )
VAR(X + Y + Z) Pozn´ amka:
VAR(4Y + 2Z − 14)
VAR(25X − 16Y + 100Z − 160)
Varianˇcn´ı (nˇekdy t´eˇz kovarianˇcn´ı) matic´ı se oznaˇcuje ˇctvercov´a tabulka
hodnot, kde na u ´hlopˇr´ıˇcce jsou rozptyly jednotliv´ ych n´ahodn´ ych veliˇcin (v naˇsem pˇr´ıpadˇe vid´ıme napˇr. ˇze VAR(X) = 16, VAR(Y ) = 25) a mimo diagon´alu jsou kovariance jednotliv´ ych dvojic n´ahodn´ ych veliˇcin (tedy napˇr´ıklad COV(X, Y ) = COV(Y, X) = −3). [35, 47, 432, 53, 85600]
Pˇ r´ıklad 26: Pro veliˇciny X, Y a Z z pˇr´ıkladu (25) vytvoˇrte korelaˇcn´ı matici. Pozn´ amka:
Korelaˇcn´ı matice je ˇctvercov´a tabulka hodnot, kter´a obsahuje korelaˇcn´ı
koeficienty n´ahodn´ ych veliˇcin. Na u ´hlopˇr´ıˇcce jsou vˇzdy jedniˇcky (jelikoˇz vˇzdy plat´ı, ˇze COR(X, X) = 1) a mimodiagon´aln´ı prvky jsou rovny korelaˇcn´ım koeficient˚ um jednotliv´ ych dvojic n´ahodn´ ych veliˇcin. Korelaˇcn´ı matice je symetrick´a podle sv´e diagon´aly a obsahuje hodnoty z intervalu [−1, 1]. "
1 −0.15 0.75 # −0.15 1 0, 1 0.75 0.1 1
Pˇ r´ıklad 27: Vypoˇc´ıtejte kovariance n´ahodn´ ych veliˇcin odvozen´ ych z veliˇcin X, Y a Z z pˇr´ıkladu (25). COV(X + Y, X + Z)
COV(2X + 3Y, X + 5Z)
1 2 1 1 COV( X + Y + Z + , 6X − 6Y + 12Z − 180) 3 2 3 8 [20, 98, 36]
182
Pˇ r´ıklad 28: Vypoˇc´ıtejte stˇredn´ı hodnotu a rozptyl n´ahodn´e veliˇciny aX + bY + cZ + d, kdyˇz v´ıme, ˇze stˇredn´ı hodnoty veliˇcin X, Y, Z jsou rovny e, f, g, rozptyly h, i, j a COV(X, Y ) = k, COV(X, Z) = l, COV(Y, Z) = m. Hodnoty jednotliv´ ych konstant i ˇc´ıseln´ ych charakteristik n´ahodn´ ych veliˇcin jsou v n´asleduj´ıc´ı tabulce:
a) b) c) d) e) f) g)
a
b
c
d
e
2
3
1 2
1 3
5 3
-10 -4
0 0 20 6
-5 -3 -8
3 10 6
1 20
1 12
1 8
1 5
1 10
1 2
-2 5
-4
-1 -2
-10 -5
20 -5
13 15
2 3
10 -2 8
1 4
f
g
h
i
j
k
l
m
2 0 12 0 1 1
1 6 4
4 3 2
0 0 1
2
0 0 -1
0 0 0
1 30
1 3
5 16
1 2
1 9
1 3
30 -1
80 8
10 2
1 10
1 10
40 4 16
1 2
-2 1 - 24 10 -4 1
1 8
-20 5 -1 -2 1 1 20
[a) 7 a 64, b) 6 a 2, c) 32 a 700, d) 0 a 15, e) 10 a 3, f) 14 a 14, g) 6 a 4.5]
Pˇ r´ıklad 29: Mˇejme n´ahodn´e veliˇciny X1 , X2 . . . Xn . Tyto n´ahodn´e veliˇciny jsou nez´avisl´e a maj´ı identick´e distribuˇcn´ı funkce. Oznaˇcme jejich stˇredn´ı hodnoty p´ısmenem µ a rozptyly σ 2 . Spoˇc´ıtejte stˇredn´ı hodnoty a rozptyly n´asleduj´ıc´ıch n´ahodn´ ych veliˇcin.
A=
n X
n
1X B= Xi n i=1
Xi
i=1 n
C=
n
1 X Xi − µ D=√ σ n i=1
1X (Xi − µ) n i=1
[E(A) = nµ, VAR(A) = nσ 2 , E(B) = µ, VAR(B) =
σ2 , n
E(C) = 0, VAR(C) =
σ2 , n
E(D) = 0, VAR(D) = 1]
Pˇ r´ıklad 30: Mˇejme nez´avisl´e n´ahodn´e veliˇciny X, Y a Z. Vˇsechny tˇri maj´ı nulov´e stˇredn´ı hodnoty a rozptyly rovny 1. Vytvoˇrte dvˇe n´ahodn´e veliˇciny U = aX + bZ a V = aY + bZ, kter´e maj´ı stˇredn´ı hodnotu 0 a rozptyl 1 a jejichˇz korelaˇcn´ı koeficient se rovn´a libovolnˇe zvolen´e hodnotˇe ρ ∈ [0, 1]. [U = 183
√
1 − ρX +
√
ρZ, V =
√
1 − ρY +
√ ρZ]
6.4
Distribuˇ cn´ı funkce a pravdˇ epodobnostn´ı funkce diskr´ etn´ı n´ ahodn´ e veliˇ ciny
Pomoc´ı diskr´etn´ıch n´ahodn´ ych veliˇcin m˚ uˇzeme popsat ˇradu jev˚ u, se kter´ ymi se setk´av´ame v denn´ım ˇzivotˇe i v´ yzkumn´e praxi. V tomto cviˇcen´ı se nauˇc´ıme rozezn´avat n´ahodn´e veliˇciny, kter´e se ˇr´ıd´ı binomick´ ym a Poissonov´ ym rozdˇelen´ım. Pro u ´spˇeˇsn´e zvl´adnut´ı zadan´ ych pˇr´ıklad˚ u si proto osvˇeˇzte znalost pojmu distribuˇcn´ı funkce z kapitoly (2.4) a diskr´etn´ı n´ahodn´e veliˇciny, kterou popisujeme v kapitole (2.6). Pokud rozezn´ame rozdˇelen´ı pravdˇepodobnosti diskr´etn´ı n´ahodn´e veliˇciny a zn´ame hodnoty jeho parametr˚ u, m˚ uˇzeme spoˇc´ıtat pravdˇepodobnost, s jakou se tato n´ahodn´a veliˇcina m˚ uˇze realizovat v libovoln´e hodnotˇe. Vyuˇzijeme k tomu pravdˇepodobnostn´ı funkci: n k P (X = k) = pX (k) = p (1 − p)n−k k λk −λ P (X = k) = pX (k) = e k!
pro X ∼ Bi(n, p), pro X ∼ P o(λ),
kde e je Eulerovo ˇc´ıslo pˇribliˇznˇe rovn´e hodnotˇe 2.72. Kdyˇz se napˇr´ıklad budeme t´azat, jak´a je pravdˇepodobnost, ˇze z pˇeti hod˚ u nestrannou minc´ı n´am padne pˇresnˇe tˇrikr´at panna, rozeznali bychom binomick´e rozdˇelen´ı Bi(5, 12 ) (jedn´a se totiˇz o souˇcet pˇeti identick´ ych n´ahodn´ ych veliˇcin s alternativn´ım rozdˇelen´ım). Dosazen´ım do pravdˇepodobnostn´ı funkce z´ask´ame hodnotu. 5 5! 1 1 5 P (X = 3) = pX (3) = · 0.53 · (1 − 0.5)2 = · · = 3 3!2! 8 4 16 Pokud by ot´azka znˇela, jak´a je pravdˇepodobnost, ˇze z pˇeti pokus˚ u padne nejv´ yˇse tˇrikr´at, pak bychom pravdˇepodobnost vyˇc´ıslili, jako pX (0) + pX (1) + pX (2) + pX (3). V´ ypoˇcetnˇe snazˇs´ı by vˇsak bylo vyuˇz´ıt opaˇcn´eho jevu a vypoˇc´ıtat pravdˇepodobnost ze vztahu 1 − pX (4) + pX (5). Tento princip budeme hojnˇe vyuˇz´ıvat. Pˇri v´ ypoˇctu m˚ uˇzeme vyuˇz´ıt kalkulaˇcku (coˇz je v pˇr´ıpadˇe Poissonova rozdˇelen´ı a ˇcasto i binomick´eho rozdˇelen´ı nezbytn´e). Pr´aci si m˚ uˇzeme usnadnit protˇrednictv´ım programu Excel. Vyuˇzijeme funkci BINOM.DIST(k;n;p;0), kter´a odpov´ıd´a hodnotˇe P (X = k), nebo BINOM.DIST(k;n;p;1), kter´a poskytuje hodnotu kumulativn´ı distribuˇcn´ı funkce, tedy P (X ≤ k). Analogicky funguj´ı funkce POISSON.DIST(k;λ;0) a POISSON.DIST(k;λ;1).
184
Pˇ r´ıklad 31: Jak´e rozdˇelen´ı pravdˇepodobnosti m´a n´ahodn´a veliˇcina, kter´a popisuje, kolik syn˚ u se narod´ı rodiˇc˚ um, kteˇr´ı budou m´ıt 7 dˇet´ı? [Bi(7, 12 )]
Pˇ r´ıklad 32: Jak´e rozdˇelen´ı pravdˇepodobnosti m´a n´ahodn´a veliˇcina, kter´a popisuje, kolik uvid´ıme pa” dat hvˇezd“ za jasn´e srpnov´e noci za minutu, pokud m´a b´ yt kaˇzdou hodinu v pr˚ umˇeru k vidˇen´ı 80 meteorit˚ u? [P o( 43 )]
Pˇ r´ıklad 33: Pro n´ahodn´e jevy z pˇr´ıklad˚ u (31) a (32) spoˇc´ıtejte pravdˇepodobnosti n´asleduj´ıc´ıch jev˚ u: (a) Rodiˇc˚ um se narod´ı pˇresnˇe jeden syn. (b) Rodiˇc˚ um se narod´ı v´ıce neˇz jeden syn. (c) V konkr´etn´ı minutˇe uvid´ıme pˇresnˇe dva meteority. (d) V konkr´etn´ı minutˇe uvid´ıme alespoˇ n dva meteority. [5.47 %; 93.75 %; 23.43 %; 38.49 %]
Pˇ r´ıklad 34: Z´apoˇctov´ y test obsahuje 10 ot´azek. V kaˇzd´e studenti vyb´ıraj´ı jednu spr´avnou moˇznost ze ˇctyˇr. K udˇelen´ı z´apoˇctu je potˇreba m´ıt alespoˇ n 7 odpovˇed´ı spr´avnˇe. Jak´a je pravdˇepodobnost, ˇze v testu uspˇeje student, kter´ y pˇrijde zcela nepˇripraven a sv´e odpovˇedi bude vyb´ırat n´ahodnˇe? [0.35 %]
Pˇ r´ıklad 35: V druh´e polovinˇe devades´at´ ych let dost´avalo pˇribliˇznˇe 5.5 % narozen´ ych d´ıvek jm´eno Tereza. Jak´a je pravdˇepodobnost, ˇze o 20 let pozdˇeji ze 46 d´ıvek nastupuj´ıc´ıch do prvn´ıho roˇcn´ıku studia psychologie jich bude m´ıt toto jm´eno nejm´enˇe 7 za pˇredpokladu, ˇze jm´eno nijak nesouvis´ı s v´ ybˇerem studijn´ıho oboru ani s ˇsanc´ı na pˇrijet´ı u pˇrij´ımac´ıch zkouˇsek. [1.23 %]
185
Pˇ r´ıklad 36: Statistick´ y test selh´av´a v 5 % pˇr´ıpad˚ u. Pokud jsme provedli 100 nez´avisl´ ych test˚ u, jak´a je pravdˇepodobnost, ˇze alespoˇ n ve tˇrech pˇr´ıpadech dojde k selh´an´ı? [pˇribliˇznˇe 88 %]
Pˇ r´ıklad 37: Mˇejme n´ahodnou veliˇcinu X ∼ Bi(6, 0.5). (a) Najdˇete nejvyˇsˇs´ı hodnotu x1 ∈ Z, pro kterou plat´ı P (X ≤ x1 ) < 0.10 (b) Najdˇete nejmenˇs´ı hodnotu x2 ∈ Z, pro kterou plat´ı P (X ≥ x2) < 0.15 (c) Najdˇete nejˇsirˇs´ı interval [x1 , x2 ], kde x1 , x2 ∈ Z, pro kter´ y plat´ı P (X < x1 ∩ X > x2 ) < 0.25 [a) 0; b) 5; c) [2, 4]] N´ apovˇ eda: Zaˇcnˇete t´ım, ˇze spoˇc´ıt´ate hodnoty pravdˇepodobnostn´ı funkce pro vˇsechny k od 0 do 6. Pˇ r´ıklad 38: ˇ Reknˇ eme, ˇze pˇri slabˇs´ım deˇsti spadne na plochu o velikosti 1 m2 (10000 cm2 ) kaˇzdou sekundu v pr˚ umˇeru 200 deˇst’ov´ ych kapek. Pˇredpokl´adejme, ˇze se jejich poˇcet ˇr´ıd´ı Poissonov´ ym rozdˇelen´ım. Jak´a je pravdˇepodobnost n´asleduj´ıc´ıch jev˚ u: ˇ (a) Na dlaˇ n n´am bˇehem 1 sekundy nespadne ani jedna kapka. Reknˇ eme, ˇze plocha dlanˇe je 150 cm2 . (b) Na dlaˇ n n´am bˇehem 3 sekund nespadne ani jedna kapka. (c) Na dlaˇ n n´am bˇehem 3 sekund spadne nejm´enˇe 5 kapek. ˇ (d) Na ukazov´aˇcek n´am bˇehem 1 sekundy nespadne ani jedna kapka. Reknˇ eme, ˇze plocha ukazov´aˇcku je 10 cm2 . (e) Na ukazov´aˇcek n´am bˇehem minuty spadne pˇresnˇe 10 kapek. [a) 4.979 %; b) 0.0123 %; c) 94.504 %; d) 81.873 %; e) 10.484 %] ˇ sen´ı: Tento pˇr´ıklad pouˇzijeme k demonstraci toho, co znamen´a parametr λ v PoissoReˇ novˇe rozdˇelen´ı. Vyjdˇeme z toho, ˇze v´ıme, ˇze λ odpov´ıd´a stˇredn´ı hodnotˇe, tedy pr˚ umˇern´emu poˇctu sledovan´ ych ud´alost´ı za jednotku ˇcasu/prostoru/nˇeˇceho jin´eho. Nˇekdy nen´ı na prvn´ı pohled zjevn´e, co pˇresnˇe je touto jednotkou. V bodˇe a) by to byla 1 sekunda pˇri ploˇse 150 186
cm2 , jelikoˇz pro tuto dobu a plochu m´ame spoˇc´ıtat pravdˇepodobnost. Tedy λ by se rovnala pr˚ umˇern´emu poˇctu deˇst’ov´ ych kapek, kter´e spadnou za sekundu na plochu 150 cm2 . Kdyˇz opr´aˇs´ıme znalosti trojˇclenky (10000 : 500 odpov´ıd´a 150 : x), zjist´ıme, ˇze λ = 3. Ot´azka zn´ı, s jakou pravdˇepodobnost´ı se bude dan´a n´ahodn´a veliˇcina realizovat s hodnotou 0. K tomu pouˇzijeme pravdˇepodobnostn´ı funkci p(0) = 0.05. Pravdˇepodobnost je tedy 5 %. Analogicky vyˇreˇs´ıme bod b). Jiˇz v´ıme, ˇze plochu 150 cm2 dopadnou v pr˚ umˇeru kaˇzdou sekundu 3 kapky, z ˇcehoˇz snadno vyvod´ıme, ˇze kaˇzd´e 3 sekundy na ni dopadne tˇrikr´at v´ıc kapek, tedy λ = 9. Po dosazen´ı do pravdˇepodobnostn´ı funkce p(0) = 0.0123 %. Pro bod c) se λ nemˇen´ı. Pt´ame se na pravdˇepodobnost, ˇze kapek bude 5 nebo 6, 7, 8 atd. Odpovˇed’ na ot´azku se rovn´a p(5) + p(6) + p(7) + . . . + p(∞). V´ ypoˇcetnˇe snazˇs´ı nicm´enˇe bude spoˇc´ıtat pravdˇepodobnost opaˇcn´eho jevu (kapek bude m´enˇe neˇz 5) a odeˇc´ıst jej od jedniˇcky: 1 − p(0) + p(1) + p(2) + p(3) + p(4) . Stejnˇe postupujeme v bodech d) a e), kde λ odpov´ıd´a hodnot´am 0.2 a 12 a do pravdˇepodobnostn´ı funkce dosazujeme hodnoty 0 a 10. Pˇ r´ıklad 39: Chyst´ate vzdˇel´avac´ı internetov´ y port´al. Oˇcek´av´ate, ˇze pˇri jeho provozu bude server muset vyˇr´ıdit v pr˚ umˇeru 900 poˇzadavk˚ u za minutu (poˇzadavkem se mysl´ı zejm´ena zobrazen´ı webov´e str´anky uˇzivatelem). Zpracovat jeden poˇzadavek zabere serveru v pr˚ umˇeru 1 sekundu. V´aˇs poskytovatel hostingu (tedy pron´ajmu webov´eho serveru) v r´amci vaˇseho tarifu klade omezen´ı na poˇcet poˇzadavk˚ u, kter´e m˚ uˇze server zpracov´avat souˇcasnˇe. Toto omezen´ı je maxim´alnˇe 30 soubˇeˇzn´ ych operac´ı, a pokud je pˇresaˇzeno, zobraz´ı se uˇzivateli m´ısto webov´e str´anky chybov´e hl´aˇsen´ı Error 503“. ” Bude n´am nab´ızen´ y tarif staˇcit, aby ani ve ˇspiˇcce nedoch´azelo k t´eto chybˇe ve v´ıce neˇz 1 % naˇcten´ı str´anek? Jak´a nejmenˇs´ı hodnota tohoto omezen´ı by n´am jeˇstˇe vyhovovala? [podm´ınky poskytovatele hostingu n´am vyhovuj´ı, nejmenˇs´ı hodnota, kter´a splˇ nuje naˇsi podm´ınku, je 25 soubˇeˇzn´ ych operac´ı] ˇ sen´ı Postup: Pˇr´ıklad je modern´ı adaptac´ı klasick´eho probl´emu telefonn´ı u ´stˇredny. Reˇ najdeme v nˇekolika kroc´ıch. Prvn´ım je si uvˇedomit s jakou n´ahodou veliˇcinou budeme pracovat. Jelikoˇz v´ıme, ˇze server zpracov´av´a kaˇzd´ y poˇzadavek jednu sekundu, definujeme n´ahodou veliˇcinu X jako poˇcet poˇzadavk˚ u, kter´e server obdrˇz´ı za sekundu. Druh´ ym krokem je zjistit, z jak´e rodiny poch´az´ı rozdˇelen´ı t´eto n´ahodn´e veliˇciny. Snadno odhal´ıme Poissonovo rozdˇelen´ı – existuje obrovsk´e mnoˇzstv´ı uˇzivatel˚ u internetu, ale u kaˇzd´eho z nich je nepatrn´a pravdˇepodobnost toho, ˇze se v konkr´etn´ı sekundˇe pokus´ı zobrazit naˇse webov´e str´anky. Hodnotu parametru λ snadno zjist´ıme: oˇcek´av´ame 900 poˇzadavk˚ u za minutu, coˇz je v pr˚ umˇeru 15 kaˇzdou sekundu (λ = 15). Posledn´ım krokem je naj´ıt nejvˇetˇs´ı hod187
notu x, pro kterou plat´ı FX (x) ≤ 1 − 0.01 (tedy, aby nejm´enˇe v 99 % pˇr´ıpad˚ u nebyla tato hodnota pˇrekroˇcena). Vyp´ıˇseme-li si (napˇr´ıklad v programu MS Excel) hodnoty distribuˇcn´ı funkce n´ahodn´e veliˇciny s rozdˇelen´ım P o(15), zjist´ıme, ˇze pro FX (24) = 0.989 a pro FX (25) = 0.994. V´ıme tedy, ˇze kdyby limit byl roven 24 paraleln´ım operac´ım, tak chyba bude nast´avat v 1.1 % pˇr´ıpad˚ u a pokud 25, sn´ıˇz´ı se v´ yskyt chyby na 0.6 %, coˇz je pro n´as jiˇz akceptovateln´e. Pokud je limit 30 soubˇeˇzn´ ych operac´ı, tak se s chybou setk´ame jen v 0.02 % pˇr´ıpad˚ u. Pˇ r´ıklad 40: Ovˇeˇrujeme hypot´ezu o tom, ˇze se manˇzel a manˇzelka po letech souˇzit´ı sobˇe vz´ajemnˇe ´ castn´ık v´ podobaj´ı. Uˇ yzkumu dostane 10 fotografi´ı manˇzel˚ u a 10 fotografi´ı manˇzelek a jeho u ´kolem je rozdˇelit fotografie do dvojic tak, jak k sobˇe p´ary ve skuteˇcnosti patˇr´ı. V pˇr´ıpadˇe, ˇze hypot´eza pravdiv´a nen´ı a u ´ˇcastn´ık v´ yzkumu bude jen h´adat, pro jak´ y nˇejmenˇs´ı poˇcet spr´avnˇe vytvoˇren´ ych dvojic x plat´ı P (X ≥ x) ≤ 0.05, kde X je n´ahodn´a veliˇcina kvantifikuj´ıc´ı poˇcet spr´avnˇe vytvoˇren´ ych dvojic. [plat´ı to jiˇz pro 3 shody; pravdˇepodobnost P (X ≥ 3) ≈ 1.9 %] Pozn´ amka: Ponˇekud pˇrekvapivˇe se rozdˇelen´ı takto vznikl´e n´ahodn´e veliˇciny n´apadnˇe ˇ ım vyˇsˇs´ı je n (celkov´ podob´a rozdˇelen´ı P o(1). C´ y poˇcet p´ar˚ u), t´ım je tato podobnost pˇresnˇejˇs´ı. Jiˇz pro n > 5 je rozd´ıl v ˇr´adu tis´ıcin. Pˇrekvapiv´e je tak´e to, ˇze λ je vˇzdy 1 bez ohledu na n – tedy pr˚ umˇern´ y poˇcet spr´avn´ ych dvojic by byl vˇzdy stejn´ y bez ohledu na to, jestli pˇriˇrazujeme fotky deseti, stovky nebo tˇreba tis´ıce p´ar˚ u. Pro v´ ypoˇcet pˇresn´e P n−k (−1)j pravdˇepodobnosti by bylo moˇzn´e vyuˇz´ıt vztah P (X = k) = k!1 j=0 . j!
6.5
Distribuˇ cn´ı funkce a hustota pravdˇ epodobnosti spojit´ e n´ ahodn´ e veliˇ ciny
P´at´e cviˇcen´ı je vyvrcholen´ım prvn´ıho tematick´eho bloku tˇechto skript. Student si zde osvoj´ı z´aklady pr´ace se spojit´ ymi n´ahodn´ ymi veliˇcinami – dovednost, kter´a mu bude vlastn´ı pˇri testov´an´ı statistick´ ych hypot´ez, konstrukci konfidenˇcn´ıch interval˚ u a dalˇs´ıch u ´vah´ach. Vyjma rovnomˇern´eho rozdˇelen´ı, s n´ımˇz lze pracovat intuitivnˇe, pravdˇepodobnost nebo hodnotu kvantilu dalˇs´ıch rozdˇelen´ı spojit´ ych n´ahodn´ ych veliˇcin vypoˇc´ıtat nedok´aˇzeme. Nar´aˇz´ıme t´ım na pomˇernˇe zaj´ımav´ y probl´em – d˚ uvodem, proˇc tento v´ ypoˇcet nedok´aˇzeme prov´est, nen´ı to, ˇze bychom nemˇeli potˇrebn´e znalosti, ale to, ˇze tyto hodnoty analyticky vypoˇc´ıtat nelze. Pomoc´ı v´ ypoˇcetn´ıch technologi´ı m˚ uˇzeme vˇsak z´ıskat jejich libovolnˇe pˇresn´e aproximace. K jejich vyˇc´ıslen´ı proto pouˇz´ıv´ame poˇc´ıtaˇc nebo statistick´e tabulky. 188
Pouˇzit´ı tabulek nen´ı dnes jiˇz bˇeˇzn´e a ve vˇetˇsinˇe pˇr´ıpad˚ u doporuˇcujeme s´ahnout po vhodn´em poˇc´ıtaˇcov´em programu. Pro u ´ˇcely v´ ypoˇct˚ u v ruce (napˇr´ıklad na zkouˇsce) um´ıst’ujeme na konec tˇechto skript tabulky hodnot distribuˇcn´ı funkce a kvantilu normovan´eho norm´aln´ıho rozdˇelen´ı. Tabulka (18) obsahuje hodnoty distribuˇcn´ı funkce pro hodnoty argumentu mezi −3.49 a 0. Na ˇra´dc´ıch tabulky jsou hodnoty argumentu s pˇresnost´ı na desetiny; ve sloupc´ıch jsou pak jednotliv´e setiny. Chceme-li tedy naj´ıt funkˇcn´ı hodnotu FX (−1.23), budeme hledat v ˇra´dku −1.2 a sloupci . 3, a najdeme tak hodnotu 0.1112. Tradiˇcnˇe se tabeluj´ı pouze hodnoty jedn´e poloosy, v naˇsem pˇr´ıpadˇe z´aporn´e. Toto ˇreˇsen´ı se vol´ı z d˚ uvodu symetrie norm´aln´ıho rozdˇelen´ı, a jejich kladn´e protˇejˇsky lze tedy ˇ snadno odvodit. Reknˇ eme napˇr´ıklad, ˇze by n´as zaj´ımala funkˇcn´ı hodnota v bodˇe 1.58, tedy FX (1.58) = P (X ≤ 1.58). D´ıky symetrii v´ıme, ˇze plat´ı rovnost P (X ≤ 1.58) = 1 − P (X ≤ −1.58) = 1 − 0.0571 = 0.9429. Na podobn´em principu funguje i tabulka (19), kter´a zobrazuje hodnoty kvantilu normovan´eho norm´aln´ıho rozdˇelen´ı. V jednom sloupci je vˇzdy hodnota α a v druh´em pˇr´ısluˇsn´ y α-kvantil. Opˇet z d˚ uvodu symetrie jsou tabelov´any pouze hodnoty mezi 0 a 0.50. Kdybychom se napˇr´ıklad t´azali, pro jakou hodnotu x plat´ı P (X ≤ x) = 0.9 (hled´ame tedy kvantil x0.90 ), vyhledali bychom v tabulce kvantil x0.10 (jelikoˇz 1 − 0.9 = 0.1) a pouˇzili jeho opaˇcnou hodnotu: 1.2816. Vyuˇz´ıv´ame vztahu −Φα = Φ1−α . V praxi se obvykle nesetk´ame s normovan´ ym norm´aln´ım rozdˇelen´ım, ale s nˇekter´ ym jin´ ym ˇclenem rodiny norm´aln´ıch rozdˇelen´ı. Abychom mohli pouˇz´ıt tabulky a obecnˇe naˇse znalosti o normovan´em norm´aln´ım rozdˇelen´ı, mus´ıme b´ yt schopni tuto n´ahodnou veliˇcinu transformovat. Pˇredstavme si napˇr´ıklad, ˇze zkoum´ame fyziologickou reakci jedince pˇri n´aroˇcn´ ych kognitivn´ıch u ´loh´ach. M˚ uˇzeme se tˇreba t´azat, s jakou pravdˇepodobnost´ı pˇres´ahne srdeˇcn´ı frekvence jedince hodnotu 140 u ´der˚ u za minutu pˇri administraci testu verb´aln´ı fluence. Ze zkuˇsenosti v´ıme, ˇze srdeˇcn´ı frekvence v pr˚ ubˇehu t´eto zkouˇsky je n´ahodn´a veliˇcina s rozdˇelen´ım N (100, 202 ). V tabulk´ach tuto n´ahodnou veliˇcinu nenajdeme, mus´ıme proto prov´est jej´ı transformaci na normovan´e norm´aln´ı rozdˇelen´ı pomoc´ı vztahu Z =
X−µ , σ
kde X je naˇse p˚ uvodn´ı
n´ahodn´a veliˇcina s rozdˇelen´ım N (µ, σ 2 ) a Z je n´ahodn´a veliˇcina s rozdˇelen´ım N (0, 1). Pˇripomˇen ˇme vlastnost norm´aln´ıho rozdˇelen´ı – line´arn´ı transformace mˇen´ı pouze hodnoty jeho parametr˚ u, ale samotn´ y tvar kˇrivky ponech´av´a beze zmˇeny. Naˇse ot´azka zn´ı P (X > 140), v´ yraz vˇsak m˚ uˇzeme upravovat n´asleduj´ıc´ım zp˚ usobem: P (X > 140) = P
X − µ X − 100 140 − µ 140 − 100 > =P > σ σ 20 20 = P (Z > 2) = P (Z ≤ −2) = FZ (−2) = 0.0228
V posledn´ım kroku jsme opˇet vyuˇzili symetrii rozdˇelen´ı a znalost P (Z > 2) = P (Z ≤ −2). 189
Zjistili jsme, ˇze srdeˇcn´ı frekvence pˇri administraci testu verb´aln´ı fluence pˇresahuje hodnotu 140 u ´der˚ u za minutu v pˇribliˇznˇe 2.28 %. Analogicky vyˇreˇs´ıme ˇradu dalˇs´ıch pˇr´ıklad˚ u. Pˇ r´ıklad 41: Tramvaje od zast´avky u m´eho domu odj´ıˇzd´ı k m´emu pracoviˇsti kaˇzd´ ych 12 minut. Jak´a je pravdˇepodobnost, ˇze budu na tramvaj ˇcekat d´ele neˇz 9 minut, pokud pˇrijdu na zast´avku v n´ahodn´ y ˇcas? Jak´e rozdˇelen´ı pravdˇepodobnosti m´a n´ahodn´a veliˇcina d´elka ˇcek´an´ı v minut´ach? [ 14 , Ro(0, 12)]
Pˇ r´ıklad 42: N´ahodn´a veliˇcina X m´a normovan´e norm´aln´ı rozdˇelen´ı. Jak´a je pravdˇepodobnost n´asleduj´ıc´ıch jev˚ u? (a) X ≤ −1.5 (b) X > 1.5 (c) X ≤ 2 (d) X se realizuje mimo interval [−1.96, 1, 96] (e) X se realizuje v intervalu [−1, 2] (f) X se realizuje mimo interval [−2.5, −2] a z´aroveˇ n mimo interval [2, 2.5] [a) 0.0668; b) 0.0668; c) 0.9777; d) 0.05 ; e) 0.8186; f) 0.9669]
Pˇ r´ıklad 43: Pro jak´e hodnoty x plat´ı n´asleduj´ıc´ı v´ yroky, pokud m´a n´ahodn´a veliˇcina X normovan´e norm´aln´ı rozdˇelen´ı? (a) P (X ≤ x) = 0.5 (b) P (X ≤ x) = 0.025 (c) P (X ≥ x) = 0.025 (d) P (X ∈ / [−x, x]) = 0.10 (e) P (X ∈ [−x, x]) = 0.40 [a) 0; b) −1.9600; c) 1.9600; d) 1.6449 ; e) 0.5244]
190
Pˇ r´ıklad 44: V´ ysledky laboratorn´ıho krevn´ıho testu pˇr´ıtomnosti markeru urˇcit´e choroby maj´ı u zdrav´eho ˇclovˇeka norm´aln´ı rozdˇelen´ı se stˇredn´ı hodnotnou 4.4 mmol/l a smˇerodatnou odchylkou 0.2 mmol/l. Od 5 mmol/l povaˇzujeme n´alez za pozitivn´ı a doporuˇcujeme testovan´emu jedinci dalˇs´ı vyˇsetˇren´ı. Jak´a je pravdˇepodobnost, ˇze u zdrav´eho jedince bude n´alez pozitivn´ı? [0.135 %] Pˇ r´ıklad 45: Hmotnost muˇzsk´eho mozku je v pr˚ umˇeru 1350 g se smˇerovanou odchylkou 95 g. Za pˇredpokladu, ˇze tato n´ahodn´a veliˇcina m´a norm´aln´ı rozdˇelen´ı, pˇribliˇznˇe u kolika procent muˇz˚ u by mˇel m´ıt mozek menˇs´ı hmotnost neˇz 1100 g? [0.425 %]
Pˇ r´ıklad 46: Pro n´ahodn´e veliˇciny z tabulky n´ıˇze vyˇc´ıslete pravdˇepodobnosti pˇr´ısluˇsn´ ych jev˚ u:
a) b) c) d) e) f) g) h)
n´ahodn´a veliˇcina
jev
A ∼ N (10, 4) B ∼ N (50, 100) C ∼ N (−4, 1) D ∼ N (500, 1002 ) E ∼ N (100, 152 ) F ∼ N (90, 302 ) G ∼ N (9, 2.52 ) H ∼ N (−1, 16)
A<6 B < 65 C > −5 D > 550 E∈ / (70, 130) F ∈ / (60, 100) G ∈ (8, 8.5) H ∈ (0, 1)
[a) 2.28 %, b) 93.32 %, c) 84.13 %, d) 30.85 %, e) 4.55 %, f) 52.81 %, g) 7.62 %, h) 9.28 %]
Pˇ r´ıklad 47: Evˇzen o sobˇe ˇr´ık´a, ˇze je chytˇrejˇs´ı neˇz 99 % jeho vrstevn´ık˚ u. Jak´e by musel m´ıt IQ, aby to byla pravda, pokud IQ povaˇzujeme za n´ahodnou veliˇcinu s rozdˇelen´ım N (100, 152 )? [pˇribliˇznˇe 135 bod˚ u] Postup: V tomto pˇr´ıkladu hled´ame odpovˇed’ na opaˇcnou ot´azku, neˇz v pˇredchoz´ıch, budeme tedy pracovat s kvantilem norm´aln´ıho rozdˇelen´ı. Pt´ame se, pro jak´e x plat´ı P (X < x) = 0.99, tedy kterou hodnotu pˇrekraˇcuje pouze 1 % realizac´ı n´ahodn´e veliˇciny. Toto 191
by nebyl probl´em odeˇc´ıst ze statistick´ ych tabulek, pokud by ˇslo o nomovan´e norm´aln´ı rozdˇelen´ı: Φ0.99 = −Φ0.01 = 2.2363. Jelikoˇz se vˇsak jedn´a o obecnˇe norm´aln´ı rozdˇelen´ı, mus´ıme tuto hodnotu transformovat. P (Z < 2.2363) = 0.99 P (Z · σ + µ < 2.2363 · σ + µ) = 0.99 P (Z · 15 + 100 < 2.2363 · 15 + 100) = 0.99 P (X < 134.8952) = 0.99 Pˇri transformaci jsme vlastnˇe aplikovali pozp´atku vztah Z =
X−µ , σ
tedy X = Z · σ + µ.
Jednoduˇse tedy nalezen´ y kvantil vyn´asob´ıme smˇerodatnou odchylkou a pˇriˇcteme stˇredn´ı hodnotu. Odpovˇed’ je, ˇze pokud Evˇzen ˇr´ık´al pravdu, je v´ yˇse jeho IQ pˇribliˇznˇe 135. Pˇ r´ıklad 48: Pro kaˇzdou n´ahodnou veliˇcinu z tabulky najdˇete hodnotu konstanty a, b, c, . . . tak, aby pro ni platila uveden´a rovnost.
a) b) c) d) e) f) g) h)
n´ahodn´a veliˇcina
rovnost
A ∼ N (1, 4) B ∼ N (30, 102 ) C ∼ N (9, 2.52 ) D ∼ N (500, 1002 ) E ∼ N (−6, 9) F ∼ N (−1, 1) G ∼ N (−800, 2002 ) H ∼ N (−20, 16)
P (A < a) = 15 % P (B < b) = 75 % P (C > c) = 2.5 % P (D > d) = 95 % P (E < e) = 1 % P (F < f ) = 90 % P (G > g) = 5 % P (H > h) = 55 %
[a) −1.07, b) 36.74, c) 4.10, d) 664.49, e) −12.98, f) 0.28, g) −1128.97, h) −19.50]
Pˇ r´ıklad 49: S pomoc´ı vhodn´eho poˇc´ıtaˇcov´eho programu vyˇc´ıslete: (a) P (X ≥ 6.0), pokud X ∼ χ2 (4) (b) hodnotu kvantilu x tak, aby platilo P (X ≥ x) = 0.05, pokud X ∼ χ2 (2) (c) P (X ∈ / [−1.2, 1.2]), pokud X ∼ t(4) (d) hodnotu kvantilu x tak, aby platilo P (X ≥ x) = 0.025, pokud X ∼ t(10) (e) P (X ≥ 13.0), pokud X ∼ F (2, 5) (f) hodnotu kvantilu x tak, aby platilo P (X ≥ x) = 0.10, pokud X ∼ F (9, 1200) [a) 0.1991; b) 5.9915; c) 0.7039; d) 2.2281; e) 0.0104; f) 1.6367] 192
Pˇ r´ıklad 50: Lidov´e pravidlo ˇr´ık´a, ˇze v´ahu ˇclovˇeka v kilogramech m˚ uˇzeme odhadnout jako jeho v´ yˇsku v centimetrech m´ınus 100. Pokud je hmotnost v kilogramech n´ahodn´a veliˇcina s rozdˇelen´ım N (62, 121) a v´yˇska v centimetrech n´ahodn´a veliˇcina s rozdˇelen´ım N (168, 49) a jejich kovariance je rovna 35, u kolika procent lid´ı se toto pravidlo m´ yl´ı o v´ıc neˇz 10 Kg? [pˇribliˇznˇe ve 40 % pˇr´ıpad˚ u] N´ apovˇ eda: Uvˇedomme si, s jakou n´ahodnou veliˇcinou pracujeme. Sluˇselo by j´ı tˇreba jm´eno velikost chyby lidov´eho pravidla, zkr´acenˇe tˇreba V . Parametry jeho rozdˇelen´ı, kter´e zjevnˇe patˇr´ı do rodiny norm´aln´ıch distribuc´ı, z´ısk´ame aplikac´ı naˇsch znalost´ı z cviˇcen´ı (6.4). Pokud budeme poˇc´ıtat spr´avnˇe, najdeme pˇresn´ y v´ ysledek 0.3994.
6.6
M´ıry polohy a variability
V tomto cviˇcen´ı se zamˇeˇr´ıme na charakteristiky polohy a variability statistick´eho znaku v souboru pozorov´an´ı. Pˇri ˇreˇsen´ı pˇr´ıklad˚ u budeme ˇcerpat ze znalost´ı z kapitol (3.4) a (3.5). U nˇekter´ ych postup˚ u, kter´e jsme se uˇcili, existuje alternativn´ı zp˚ usob v´ ypoˇctu, kter´ y vede k jin´ ym (ˇcasto pˇresnˇejˇs´ım) v´ ysledk˚ um, aˇc mnohdy jsou pro v´ ypoˇcet na pap´ıru pracnˇejˇs´ı. V´ ysledky uveden´e v ˇreˇsen´ı toho cviˇcen´ı odpov´ıdaj´ı tˇem postup˚ um, kter´e doporuˇcujeme ve v´ yˇse uveden´ ych kapitol´ach, dejte jim proto pˇri ˇreˇsen´ı pˇr´ıklad˚ u pˇrednost. Pˇ r´ıklad 51: Skupina tˇrin´acti uchazeˇc˚ u o studium absolvovala oborov´ y test. Zjistˇete pr˚ umˇern´ y poˇcet bod˚ u, v´ ybˇerov´ y rozptyl a v´ ybˇerovou smˇerodatnou odchylku, pokud jednotliv´ı uchazeˇci z´ıskali tato bodov´a ohodnocen´ı: 58
78
69
41
74
52
30
81
94
55
75
75
89.
[¯ x = 67, s2 = 350.5, s ≈ 18.72]
Pˇ r´ıklad 52: Manu´al psychodiagnostick´e metody uv´ad´ı pr˚ umˇern´e poˇcty bod˚ u pro ˇctyˇri demografick´e skupiny dle pohlav´ı a vˇeku – muˇze 15-29, muˇze 30+, ˇzeny 15-29, ˇzeny 30+ (viz tabulka). Pˇredpokl´adejme, ˇze hodnoty byly stanoveny tak, ˇze autoˇri manu´alu n´ahodnˇe vybrali urˇcit´e ˇ a otestovali je. poˇcty jedinc˚ u z populace obˇcan˚ u CR (a) Zjistˇete, jak´e byl pr˚ umˇern´ y poˇcet bod˚ u jedince z v´ yzkumn´eho souboru autor˚ u manu´alu bez ohledu na jeho pˇr´ısluˇsnost ve skupinˇe. 193
(b) Zjistˇete, jak´ y poˇcet bod˚ u z´ısk´a v pr˚ umˇeru ˇclovˇek, kter´eho n´ahodnˇe vybereme z poˇ starˇs´ıch patn´acti let, pokud zn´ame relativn´ı ˇcetnosti jednotliv´ pulace obˇcan˚ u CR ych ˇ skupin v populaci obˇcan˚ u CR. (c) Zjistˇete, jak´ y poˇcet bod˚ u z´ısk´a v pr˚ umˇeru muˇz, kter´eho n´ahodnˇe vybereme z popuˇ starˇs´ıch patn´acti let, pokud zn´ame relativn´ı ˇcetnosti jednotlace vˇsech muˇz˚ u v CR ˇ liv´ ych skupin v populaci obˇcan˚ u CR.
Pr˚ umˇern´ y poˇcet Velikost bod˚ u souboru Muˇzi 15-29 Muˇzi 30+ ˇ Zeny 15-29 ˇ Zeny 30+
32.84 27.36 31.99 26.45
Zastoupen´ı skupiny ˇ v populaci CR
282 47 543 128
9.78% 31.85% 9.22% 34.66% [a) 31.30, b) 28.12, c) 28.65]
Pˇ r´ıklad 53: Pro soubor hodnot 1, 2, 3, 4, 5, 6, 7, 8, 9 vypoˇc´ıtejte n´asleduj´ıc´ı charakteristiky: (a) variaˇcn´ı rozpˇet´ı, (b) mezikvartilov´e rozpˇet´ı, (c) pr˚ umˇernou absolutn´ı odchylku, (d) medi´anovou absolutn´ı odchylku, (e) souˇcet ˇctverc˚ u, (f) v´ ybˇerov´ y rozptyl, (g) v´ ybˇerovou smˇerovanou odchylku. [a) 8, b) 4, c) 2.¯2, d) 2, e) 60, f) 7.5, g)
√ 7.5 ≈ 2.74]
Pˇ r´ıklad 54: Osm pacient˚ u prodˇelalo experiment´aln´ı l´eˇcbu onemocnˇen´ı. L´eˇcba zab´ır´a okamˇzitˇe, jej´ı u ´ˇcinek je vˇsak pouze doˇcasn´ y. Pˇr´ıznaky choroby u jednotliv´ ych pacient˚ u ustoupily na doby vyj´adˇren´e v poˇctech dn˚ u: 11
10
4
9
6
Pro tyto hodnoty vypoˇc´ıtejte: 194
136
12
12.
(a) pr˚ umˇer a smˇerodatnou odchylku, (b) dvacetiprocentn´ı useknut´ y pr˚ umˇer a useknutou v´ ybˇerovou smˇerodatnou odchylku, (c) dvacetiprocentn´ı winsorizovan´ y pr˚ umˇer a winsorizovanou v´ ybˇerovou smˇerodatnou odchylku. [a) 25; 44.94, b) 10; 2.28, c) 9.75; 2.55]
Pˇ r´ıklad 55: Skupina 20 student˚ u se z´ uˇcastnila tappingov´e zkouˇsky, kdy mˇeˇrili, kolikr´at stihnou za 10 sekund zm´aˇcknout jedn´ım prstem tlaˇc´ıtko. Z´ıskali tyto v´ ysledky: i
1
2
3
4
5
6
7
8
9
10
xi
46
57
59
62
66
67
72
73
73
73
i
11
12
13
14
15
16
17
18
19
20
xi
73
74
75
76
76
77
77
79
80
85
Najdˇete tyto kvantily: (a) horn´ı a doln´ı kvartil, (b) medi´an, (c) tˇret´ı a ˇctvrt´ y decil, (d) sedm´ y a tˇriatˇric´at´ y percentil, (e) kvantil x0,625 . [a) 66.5; 76.5, b) 73, c) 69.5; 73, d) 57; 72, e) 75]
Pˇ r´ıklad 56: Pro kaˇzdou z hodnot (x1 , x2 , . . . , xn ) = (5, 1, 7, 5, 2, 1) vypoˇc´ıtejte: (a) pod´ıl hodnot menˇs´ıch nebo rovn´ ych neˇz xi (tzn. relativn´ı kumulativn´ı ˇcetnost), (b) pod´ıl hodnot menˇs´ıch neˇz xi , (c) v´ ybˇerov´e percentily, kter´e dan´ ym hodnot´am odpov´ıdaj´ı (dle postupu z kapitoly 3.4.3). [a) 0.8¯3, 0.3¯3, 1.0, 0.8¯3, 0.5, 0.3¯3, b) 0.5, 0.0, 0.8¯3, 0.5, 0.3¯3, 0.0, c) 0.7, 0.1, 1.0, 0.7, 0.4, 0.1] 195
Pˇ r´ıklad 57: U pacientky byly kaˇzd´e tˇri dny po dobu jednoho mˇes´ıce mˇeˇreny hladiny estradiolu (v pmol/L) a folikuly stimulaˇcn´ıho hormonu (FSH, v UI/L). Pomoc´ı variaˇcn´ıho koeficientu rozhodnˇete, kter´ y z tˇechto hormon˚ u kol´ıs´a v pr˚ ubˇehu cyklu v´ıce a kter´ y m´enˇe. Estradiol FSH
118.42
125.95
159.48
228.20
477.27
780.76
338.94
497.07
499.18
322.24
4.44
6.49
6.69
5.93
4.61
11.54
5.30
3.64
2.58
2.84
[estradiol kol´ıs´a v´ıce; variaˇcn´ı koeficienty vych´az´ı 59.5% a 47.8%]
Pˇ r´ıklad 58: Aniˇ cka se l´ıb´ı Petrovi, Luk´aˇsovi, Honzovi, Ludv´ıkovi, Michalovi, Zdeˇ nkovi, Frantovi a R´ıˇsovi. Eliˇ ska se l´ıb´ı Tomovi, Standovi, Jirkovi a Martinovi. Lucka se l´ıb´ı Karlovi, Davidovi a Romanovi. Dorotka se l´ıb´ı Filipovi a Adamovi, zat´ımco Lenka Aleˇsovi a Liborovi. Verˇ ca se l´ıb´ı Matˇejovi a Ad´ elka Rudovi. Tom se l´ıb´ı Aniˇcce, Dorotce, Maruˇsce, Evˇe, Hance a Katce. Petr se l´ıb´ı Lucce, Lence, Verˇce, Helˇce a Terce. Honza se l´ıb´ı Eliˇsce, Jitce, Ivˇe a Zuzce, Adam Martˇe a Andrei, Filip Monˇce a Irˇce. Matˇ ej se l´ıb´ı jen D´aˇse a Ruda se nel´ıb´ı nikomu. Pomoc´ı koeficientu mutability rozhodnˇete, jestli jsou preference rozmanitˇejˇs´ı v souboru chlapc˚ u nebo d´ıvek. [preference ve skupinˇe chlapc˚ u jsou homogennˇejˇs´ı, rozd´ıl je vˇsak mal´ y: Mchlapci ≈ 0.81 a Mdivky ≈ 0.83]
6.7
Korelaˇ cn´ı koeficienty
V´ ybˇer vhodn´eho korelaˇcn´ıho koeficientu a stanoven´ı jeho velikosti je z´akladn´ı dovednost´ı, kterou pˇri kvantitativn´ım zpracov´an´ı dat vyuˇzijeme. V praxi za n´as v´ ypoˇcet obvykle obstar´a poˇc´ıtaˇc. Specializovan´e poˇc´ıtaˇcov´e programy maj´ı zabodovan´e procedury pro v´ ypoˇcet Pearsonova korelaˇcn´ıho koeficientu i dalˇs´ıch z nˇej odvozen´ ych koeficient˚ u vˇcetnˇe Spearmanova. V pˇr´ıpadˇe pouˇzit´ı programu MS Excel vyuˇzijeme funkci PEARSON(). Funkci pro v´ ypoˇcet Spearmanova korelaˇcn´ıho koeficientu program neobsahuje, m˚ uˇzeme nicm´enˇe pouˇz´ıt funkci RANK.AVG(), pomoc´ı kter´e pˇrevedeme hodnoty na poˇrad´ı a pak stanovit v´ yˇsi Spearmanova koeficientu opˇet pomoc´ı pˇr´ıkazu PEARSON(). Pro didaktick´e u ´ˇcely, ale doporuˇcujeme v´ ypoˇcty v tomto cviˇcen´ı prov´est vlastn´ı rukou na pap´ıru, pokud nen´ı uvedeno jinak. Vzorce, kter´e v tomto cviˇcen´ı vyuˇzijeme, najdeme v kapitole (3.7). 196
Pˇ r´ıklad 59: Z namˇeˇren´ ych hodnot na pˇeti pokusn´ ych osob´ach vypoˇc´ıtejte velikost v´ ybˇerov´e kovariance poˇctu bod˚ u na ˇsk´ale extraverze dotazn´ıku NEO-FFI a depresivity dotazn´ıku BDI-II. Pomoc´ı Pearsonova korelaˇcn´ıho koeficientu vyj´adˇrete velikost z´avislosti tˇechto dvou znak˚ u. Extraverze
22
16
29
12
36
Depresivita
2
3
5
12
3 [sxy = −21.5, rxy ≈ −0.55]
Pozn´ amka: Nezapom´ınejte, ˇze pˇri v´ ypoˇctu jak´ekoli m´ıry z´avislosti, je p´ısmenem n oznaˇcen´ y poˇcet dvojic hodnot, nikoli poˇcet jednotliv´ ych ˇc´ısel, se kter´ ymi pracujeme! Pˇ r´ıklad 60: Na statistick´em souboru o rozsahu n prvk˚ u jsme pozorovali znaky x a y. Vypoˇc´ıtejte Pearson˚ uv korelaˇcn´ıh koeficient, pokud jsme namˇeˇrili tyto v´ ybˇerov´e charakteristiky: (a) s2x = 225, s2y = 400, sxy = 100, P xi yi = 7420, n = 20, (b) x¯ = 12, y¯ = 30, s2x = 9, s2y = 16, P P 2 P P P 2 xi yi = 2500, n = 50. yi = 6000, (c) xi = 240, yi = 500, xi = 1200, [a)0.33, b)pˇribliˇznˇe 0.96, c)pˇribliˇznˇe 0.46] Pˇ r´ıklad 61: Co se t´ yˇce znalost´ı z biologie, Hanka toho zn´a nejv´ıc ze tˇr´ıdy, velmi dobr´ y rozhled m´a Veronika, o nˇeco horˇs´ı Lucka, a Eliˇska se m˚ uˇze pochlubit jen velmi chatrn´ ymi znalostmi. Katka o biologii nev´ı nic. Kdyˇz se budeme naopak bavit o psychologii, m´a nejvˇetˇs´ı rozhled Veronika a v tˇesn´em z´avˇesu za n´ı je Katka. Pomˇernˇe sluˇsn´e, aˇc o troˇsku slabˇs´ı znalosti m´a o psychologii Hanka jeˇstˇe slabˇs´ı Lucka a nejslabˇs´ı Eliˇska, kterou psychologie moc nezaj´ım´a. Vyberte vhodn´ y ukazatel tˇesnosti vztahu mezi znalostmi z biologie a psychologie a vypoˇc´ıtejte jeho hodnotu na v´ yˇse uveden´em souboru pˇeti stˇredoˇskolaˇcek. [vhodnou volbou je Spearman˚ uv korelaˇcn´ı koeficient, rs = 0.2]
197
Obr´azek 38: Bodov´e grafy k pˇr´ıkladu (62)
a)
b)
c)
d)
e)
f)
g)
h)
i)
Pˇ r´ıklad 62: Prohl´ednˇete si bodov´e grafy na obr´azku (38) a pro jednotliv´e pˇr´ıpady odhadnˇete velikost Pearsonova a Spearmanova korelaˇcn´ıho koeficientu. [a) r = rs = 1, b) oba koeficienty bl´ızko −1, c) oba koeficienty bl´ızko nule, d) Pearson nalezne siln´ y vztah, ale menˇs´ı neˇz 1 (r = 0.77); rs = 1, jelikoˇz jde o monot´onn´ı z´avislost, e) Pearson stˇrednˇe siln´ y kladn´ y vztah (r ≈ 0.4), jelikoˇz je ovlivnˇen outlierem; Spearman siln´ y z´aporn´ y (rs ≈ −0.8), f) r = rs = 0, g) oba koeficienty odhal´ı stˇrednˇe siln´ y z´aporn´ y vztah (r ≈ −0.6, rs ≈ −0.5), h) r = rs = 1; dva body vˇzdy vytv´aˇr´ı dokonalou korelaci, i) korealce nen´ı pro konstanu definovan´a (pˇri v´ ypoˇctu doch´az´ı k dˇelen´ı nulou)]
Pˇ r´ıklad 63: Dle jedn´e hypot´ezy, ˇci sp´ıˇse lidov´eho pravidla, pouˇz´ıvaj´ı d´ıvky ˇcervenou barvu na vlasy zejm´ena tehdy, kdyˇz hledaj´ı partnera. Tuto hypot´ezu jsme se pokusili ovˇeˇrit. Bylo n´ahodnˇe osloveno vˇetˇs´ı mnoˇzstv´ı ˇzen a d´ıvek a u kaˇzd´e se evidovalo, jestli m´a alespoˇ n pram´ınek
198
vlas˚ u obarven´ y na nˇejakou barvu bl´ızkou ˇcerven´e a jestli maj´ı st´al´eho partnera. Z celkov´eho poˇctu 124 respondentek, jich na sv´e vlasy pouˇzilo ˇcervenou barvu 32. Z tˇechto 32 respondentek pˇripustilo 19, ˇze partnera hled´a; ze skupiny d´ıvek, kter´e ˇcervenou barvu nepouˇz´ıvaj´ı, jich partnera hledalo 44. Kvantifikujte tˇesnost vztahu mezi sledovan´ ymi znaky. Jedn´a se o silnou z´avislost? [rφ ≈ 0.10, korelace je na hranici mezi slabou a zanedbatelnou] Pˇ r´ıklad 64: Alele 7r genu DRD4 se pˇripisuje vliv na touhu po dobrodruˇzstv´ı – vyskytuje se u dobrodruh˚ u, moˇreplavc˚ u a obecnˇe jedinc˚ u, kteˇr´ı i za cenu rizika zaˇz´ıvaj´ı doposud nepoznan´e. Skupinˇe jedinc˚ u, u kter´ ych se tato alela vyskytovala a skupinˇe jedinc˚ u, u kter´ ych ne, byla administrov´ana ˇsk´ala vyhled´av´an´ı nov´eho (Novelty seeking, NS). Vyj´adˇrete s´ılu vztahu mezi pˇr´ıtomnost´ı jmenovan´e alely a v´ ysledkem ˇsk´aly. DRD4-7r
1
1
1
1
1
1
1
0
0
0
0
0
NS
11
17
13
22
16
14
12
18
16
11
8
12 [rpb ≈ 0.27]
Pˇ r´ıklad 65: Pomoc´ı hodnot v tabulce vypoˇc´ıtejte Pearsonovy korelaˇcn´ı koeficienty: (a) pro znaky y a z u tˇech prvk˚ u, kde znak x m´a hodnotu 1, (b) pro znaky y a z u tˇech prvk˚ u, kde znak x m´a hodnotu 0, (c) pro znaky y a z na cel´em souboru. i
xi
yi
zi
1 2 3 4 5 6 7 8 9
1 1 1 1 0 0 0 0 0
21 23 26 30 60 61 62 62 65
51 47 42 40 80 75 70 65 60
[−0.96, −0.93, +0.84]
Pozn´ amka: Vˇsimnˇete si v´ ysledku bodu c), kter´ y se ponˇekud pˇr´ıˇc´ı zdrav´emu rozumu – u obou podsoubor˚ u pozorujeme siln´ y negativn´ı vztah, ale po jejich slouˇcen´ı vznik´a vztah pozitivn´ı. Pro lepˇs´ı pochopen´ı data zobrazte pomoc´ı bodov´eho grafu (viz pˇr´ıklad 73). 199
Pˇ r´ıklad 66: Na webov´ ych st´ank´ach (www3.nd.edu) st´ahnˇete datovou tabulku mˇeˇren´ı velikosti mozku a inteligence. Pomoc´ı tabulkov´eho editoru vypoˇc´ıtejte Pearson˚ uv a Spearman˚ uv korelaˇcn´ı koeficient pro celkov´e IQ (FSIQ) a velikost mozku (MRI Count). [r ≈ 0.36, rs ≈ 0.47]
6.8
Grafick´ a reprezentace dat
Grafick´a prezentace dat je jedn´ım ze z´akladn´ıch n´astroj˚ u v´ yzkumn´ıka. Neslouˇz´ı pouze ke komunikaci dat s laick´ ym ˇci odborn´ ym publikem, ale pom´ah´a n´am i bˇehem procesu anal´ yzy, poskytuje ostˇrejˇs´ı pˇredstavu o sledovan´ ych n´ahodn´ ych veliˇcin´ach a pom´ah´a formulovat hypot´ezy. Pˇri pr´aci s daty by mˇelo b´ yt jejich grafick´e vyj´adˇren´ı prvn´ım krokem, kter´ ym zaˇc´ın´ame naˇse u ´vahy. Zkoum´ame-li jednu promˇennou, pak se s n´ı nejl´epe sezn´am´ıme pomoc´ı histogramu (pˇr´ıpadnˇe i krabicov´emu grafu) a zaj´ım´a-li n´as vztah dvou promˇenn´ ych, pak je n´astrojem prvn´ı volby bodov´ y graf. Poznatky, kter´e pouˇzijeme v tomto cviˇcen´ı, vych´az´ı z kapitol (3.2.1), (3.4.5) a (3.7.5). Pˇ r´ıklad 67: Naˇcrtnˇete histogram pro 30 namˇeˇren´ ych hodnot 3.54, 3.66, 3.8, 4.47, 4.68, 4.78, 5.46, 5.89, 5.97, 6.00, 6.03, 6.64, 6.66, 6.78, 6.93, 7.00, 7.16, 7.19, 7.43, 7.84, 7.95, 8.22, 8.23, 8.32, 8.33, 8.38, 8.41, 8.60, 8.80, 9.33 dle n´asleduj´ıc´ıch pravidel: • poˇcet kategori´ı z´ısk´ame podle Sturgesova pravidla k = 1 + 3.322 · log10 (n) , • kategorie jsou stejnˇe ˇsirok´e a jejich stˇredy jsou cel´a ˇc´ısla, • na ypsilonovou osu vyneseme absolutn´ı ˇcetnosti. [vhodnˇe zvolen´e intervaly jsou [3.5, 4.5), [4.5, 5.5), ..., [8.5, 9.5), nalezen´e frekvencu budou po ˇradˇe 4, 3, 4, 8, 8, 3]
Pˇ r´ıklad 68: N´ıˇze uveden´a tabulka shrnuje absolutn´ı ˇcetnosti mˇeˇren´ı spadaj´ıc´ıch do dev´ıti kategori´ı. Nakreslete pro tyto hodnoty histogram, na ypsilonovou osu vyn´aˇsejte relativn´ı ˇcetnosti.
200
kategorie
fi
[470-490) [450-470) [430-450) [410-430) [390-410) [370-390) [350-370) [330-350) [310-330)
33 90 204 341 409 342 198 84 29
[relativn´ı ˇcetnosti, kter´e budeme vyn´aˇset do grafu, jsou zleva doprava 0.017, 0.049, 0.114, 0.198, 0.236, 0.197, 0.118, 0.052, 0.019]
Pˇ r´ıklad 69: Nakreslete krabicov´ y graf pro hodnoty 2.0, 2.1, 2.1, 2.8, 2.8, 2.9, 3.4, 3.4, 3.4, 3.9, 5.5, 5.6. Medi´an vyznaˇcte ˇcarou, pr˚ umˇer ˇctvereˇckem. Do obr´azku vepiˇste koment´aˇre ke vˇsem zobrazovan´ ym statistik´am.
Pˇ r´ıklad 70: Nakreslete krabicov´ y graf pro hodnoty 14, 34, 46, 50, 57, 59, 63, 64, 68, 72, 80, 81, 83, 87, 91. Medi´an vyznaˇcte ˇcarou, pr˚ umˇer ˇctvereˇckem. Do obr´azku vepiˇste koment´aˇre ke vˇsem zobrazovan´ ym statistik´am.
201
Pˇ r´ıklad 71: Skupina stˇredoˇskol´ak˚ u byla dotazov´ana, kolik knih pˇreˇcetli za posledn´ı rok. Histogram a krabicov´ y graf nalezen´ ych hodnot zn´azorˇ nuje n´asleduj´ıc´ı obr´azek. Vyˇctˇete ˇci odhadnˇete tyto v´ ybˇerov´e charakteristiky souboru: pr˚ umˇer, medi´an, variaˇcn´ı rozpˇet´ı, horn´ı a doln´ı kvartil, mezikvartilov´e rozpˇet´ı, pˇr´ıtomnost a smˇer zeˇsikmen´ı, pˇr´ıtomnost a hodnoty outlier˚ u, pˇribliˇzn´ y poˇcet pozorov´an´ı.
[¯ x ≈ 5.3, x˜ = 2.5, R = 37, Q1 = 1, Q3 = 6, Q3 − Q1 = 5, data jsou silnˇe zeˇsikmena v kladn´em smˇeru (d ≈ 2.5), za outliery m˚ uˇzeme povaˇzovat 5 hodnot: 18, 24, 26, 26, 37, n ≈ 50]
Pˇ r´ıklad 72: Naˇcrtnˇetˇe bodov´ y graf pro n´ıˇze uveden´a dvojice mˇeˇren´ı. Odhadnˇete velikost Pearsonova korelaˇcn´ıho koeficientu. i
xi
yi
i
xi
yi
1 2 3 4 5 6 7 8 9 10
6.3 2.9 3.0 5.6 9.6 7.6 3.9 1.5 9.1 5.3
4.2 3.5 3.9 5.4 2.7 2.3 4.8 4.7 1.6 2.5
11 12 13 14 15 16 17 18 19 20
8.1 2.9 3.2 7.5 7.0 2.1 6.7 5.1 6.2 5.1
3.4 5.0 5.8 3.2 1.9 7.2 3.3 3.7 2.5 5.4 [r ≈ −0.7]
202
Pˇ r´ıklad 73: Naˇcrtnˇetˇe bodov´ y graf pro znaky y a z z pˇr´ıkladu (65). Pokud je hodnota znaku x rovna 1, zakreslete pozorov´an´ı jako koleˇcko, m´a-li znak x hodnotu 0, vyznaˇcte jej kˇr´ıˇzkem. Srovnejte obr´azek s v´ ysledky pˇr´ıkladu (65). [viz obr´azek (39)]
Pˇ r´ıklad 74: Naˇcrtnˇete bodov´ y graf z´avislosti znak˚ u x (na iksovou osu) a y (na ypsilonovou osu). Tak, aby platilo: n = 10, znak x je silnˇe zeˇsikmen´ y v kladn´em smˇeru, znak y m´a n´apadnˇe bimod´aln´ı rozdˇelen´ı a je v´ yraznˇe platykurtick´ y (ˇspiˇcatost kolem hodnoty −2). Velikost ´ Pearsonova korelaˇcn´ıho koeficientu m´a z´apornou hodntu bl´ızkou nule. (Uloha m´a zjevnˇe v´ıce spr´avn´ ych ˇreˇsen´ı.) [viz obr´azek (39)]
Obr´azek 39: N´aˇcrtky k ˇreˇsen´ım u ´loh (73) a (74)
203
6.9
Intervaly spolehlivosti
Intervaly spolehlivosti obvykle stanovujeme s pomoc´ı specializovan´eho poˇc´ıtaˇcov´eho programu. V tomto cviˇcen´ı nicm´enˇe budeme procviˇcovat jejich v´ ypoˇcet jen s pap´ırem, tuˇzkou a kalkulaˇckou. Znalost konstrukce konfidenˇcn´ıch interval˚ u krok po kroku zajist´ı porozumˇen´ı t´ematu a poskytne n´avod ke konstrukci konfidenˇcn´ıch interval˚ u libovoln´e jin´e statistiky, jej´ıˇz distribuci dok´aˇzeme popsat. Pˇ r´ıklad 75: Pomoc´ı laboratorn´ıho testu na slin´ach pacienta se pokouˇs´ıme odhadnout hladinu testosteronu v jeho krevn´ı plasmˇe. V´ıme, ˇze tato metoda nen´ı zcela pˇresn´a a chov´an´ı jej´ı chyby dok´aˇzeme popsat – m´a-li vybran´ y dospˇel´ y muˇz skuteˇcnou hladinu testosteronu rovnou τ (ng/dL), pak si v´ ysledek jeho testu m˚ uˇzeme pˇredstavit jako realizaci n´ahodn´e veliˇciny s rozdˇelen´ım N (τ, 900). Na jednom a tomt´eˇz muˇzi jsme provedli 9 mˇeˇren´ı hladiny testosteronu a z´ıskali tyto hodnoty (v ng/dL): 587, 676, 661, 624, 650, 623, 616, 567, 657. Stanovte 95% a 99% konfidenˇcn´ı interval pro hodnotu τ . [I95% = 629 ± 19.60 = (609.40, 648.60), I99% = 629 ± 25.76 = (603.24, 654.76)]
Pˇ r´ıklad 76: ˇ Sest zamˇestnanc˚ u absolvovalo kurz soft skills, kter´ y mˇel za u ´kol zlepˇsit jejich komunikaˇcn´ı dovednosti. Pˇred a po skonˇcen´ı kurzu byl kaˇzd´emu zamˇestnanci administrov´an test, kter´ y komunikaˇcn´ı dovednosti mˇeˇr´ı. U kaˇzd´eho zamˇestnance bylo pak spoˇc´ıt´ano, o kolik bod˚ u se zlepˇsil, jako poˇcet bod˚ u v druh´em testov´an´ı m´ınus poˇcet bod˚ u v prvn´ım testov´an´ı. Byly z´ısk´any tyto hodnoty: 4, 6, −2, 12, 0, 10. Stanovte pro odhad stˇredn´ı hodnoty t´eto n´ahodn´e veliˇciny (a) 95% oboustrann´ y konfidenˇcn´ı interval, (b) 95% doln´ı odhad (jednostrann´ y konfidenˇcn´ı interval). [a) (−0.75, 10.75), b) 0.49]
204
Pˇ r´ıklad 77: Stanovte 95% doln´ı mez (jednostrann´ y konfidenˇcn´ı interval) pro stˇredn´ı hodnotu n´ahodn´e veliˇciny, zn´ame-li hodnoty jej´ıch realizac´ı 31, 34, 27, 20, 25, 33, 30, 35, 25, 39, 29, 32. Porovnejte jeho ˇs´ıˇri a um´ıstˇen´ı, kdyˇz do souboru pˇrid´ame jedno odlehl´e pozorov´an´ı s hodnotou 69. [D = 27.31, po pˇrid´an´ı odlehl´eho pozorov´an´ı se tato hodnota posune na 27.12] Pozn´ amka: Vˇsimnˇete si na prvn´ı pohled paradoxn´ıho v´ ysledku. T´ım, ˇze jsme pˇridali do souboru v´ yraznˇe vysokou hodnotu, se doln´ı mez odhadu stˇredn´ı hodnoty sn´ıˇzila, aˇc bychom zˇrejmˇe ˇcekali, ˇze se n´aˇs odhad posune smˇerem nahoru. Pˇr´ıˇcinou je to, ˇze pˇr´ıtomnost outlieru radik´alnˇe ovlivnila odhad rozptylu. Mohli bychom si to pˇredstavit jako u ´vahu, ˇze kdyˇz v souboru m˚ uˇzou existovat outliery s vysokou hodnotou, tak zde zˇrejmˇe m˚ uˇzou existovat i outliery s n´ızk´ ymi hodnotami (kter´e jen nemˇely to ˇstˇest´ı, ˇze by se do naˇseho souboru dostaly). Mus´ıme b´ yt pak s naˇs´ım odhadem mnohem um´ırnˇenˇejˇs´ı a volit sp´ıˇse niˇzˇs´ı doln´ı mez, neˇz jsme volili pˇred t´ım. Pˇ r´ıklad 78: Do pr˚ uˇrezov´e studie bylo zaˇrazeno 219 proband˚ u. Soubor se pˇrirozenˇe rozdˇelil na 5 podsoubor˚ u s rozsahy f1 aˇz f5 . Na kaˇzd´em podsouboru byl vypoˇc´ıt´an aritmetick´ y pr˚ umˇer a v´ ybˇerov´a smˇerodatn´a odchylka znaku x (viz tabulka). Naˇcrtnˇete sloupcov´ y graf pr˚ umˇer˚ u skupin vˇcetnˇe chybov´ ych u ´seˇcek zn´azorˇ nuj´ıc´ıch 95% intervaly spolehlivosti. Zamyslete se nad faktory, kter´e v´ yraznˇe zvˇetˇsuj´ı ˇs´ıˇrku konfidenˇcn´ıho intervalu. x¯j 10 12 4 9 15
sj
fj
2.5 49 2.2 9 3.0 100 2.5 25 12.1 36
[rozsahy chybov´ ych u ´seˇcek jsou po ˇradˇe (9.28, 10.72), (10.31, 13.69), (3.40, 4.60), (7.97, 10.03), (10.91, 19.09)]
205
Pˇ r´ıklad 79: V z´avˇereˇcn´e zpr´avˇe o probˇehl´em intervenˇcn´ım programu autoˇri uv´ad´ı intervalov´ y odhad zlepˇsen´ı vybran´ ych kompetenc´ı 10 z´ uˇcastnˇen´ ych dˇet´ı. Zpr´ava vˇsak obsahuje pouze 80% konfidenˇcn´ı interval. Stanovte 95% interval spolehlivosti, kdyˇz v´ıme, ˇze 80% interval je roven (1.07, 6.53). Pˇredpokl´ad´ame, ˇze sledovan´a n´ahodn´a veliˇcina m´a norm´aln´ı rozdˇelen´ı. [(−0.67, 8.27)]
Pˇ r´ıklad 80: Pˇredpokl´adejme, ˇze doba administrace vybran´e projektivn´ı metody je n´ahodn´a veliˇcina s norm´aln´ım rozdˇelen´ım. U ˇsesti klient˚ u jsme namˇeˇrili tyto ˇcasy (v minut´ach): 12, 8, 11, 14, 12, 10 Stanovte (a) 95% konfidenˇcn´ı interval pro rozptyl (b) 95% konfidenˇcn´ı interval pro smˇerodatnou odchylku (c) horn´ı mez se spolehlivost´ı 95 % pro rozptyl (d) horn´ı mez se spolehlivost´ı 95 % pro smˇerodatnou odchylku [a) (1.62, 25.06), b) (1.27, 5.01), c) 18.19, d) 4.26]
Pˇ r´ıklad 81: Pro statistick´e soubory a) aˇz k) stanovte oboustrann´e konfidenˇcn´ı intervaly zadan´ ych spolehlivost´ı pro stˇredn´ı hodnotu, rozptyl a smˇerodatnou odchylku. Pˇredpokl´adejme, ˇze zkouman´e n´ahodn´e veliˇciny maj´ı norm´aln´ı rozdˇelen´ı. hodnoty a) b) c) d) e) f) g) h) i) j) k)
spolehlivost
91, 83, 87 89, 71, 91, 83 26, 28, 22, 22 28, 47, 30, 32, 28 10, 9, 22, 14, 50 8, 10, 6, 10, 11 43, 28, 61, 28, 29, 51 42, 50, 32, 31, 23, 44 54, 58, 55, 54, 55, 66, 50 35, 25, 13, 21, 20, 25, 29 81, 91, 96, 88, 91, 80, 80, 89 206
95 % 99 % 80 % 90 % 95 % 99 % 90 % 99.8 % 95 % 80 % 95 %
[a) (77.06, 96.94), (4.34, 631.97), (2.08, 25.14), b) (57.22, 109.78), (18.93, 3388.09), (4.35, 58.21), c) (22.04, 26.96), (4.32, 46.20), (2.08, 6.80), d) (25.37, 40.63), (26.98, 360.20), (5.19, 18.98), e) (−0.11, 42.11), (103.74, 2386.37), (10.19, 48.85), f) (4.88, 13.12), (1.08, 77.30), (1.04, 8.79), g) (28.48, 51.52), (88.52, 855.54), (9.41, 29.25), h) (12.94, 61.06), (24.37, 2378.54), (4.94, 48.77), i) (51.38, 60.62), (10.38, 121.23), (3.22, 11.01), j) (20.19, 27.81), (27.62, 133.39), (5.26, 11.55), k) (81.98, 92.02), (15.74, 149.12), (3.97, 12.21)]
Pˇ r´ıklad 82: Pro n´ahodn´e v´ ybˇery o vysok´em rozsahu m´a odhad ˇsikmosti n´ahodn´e veliˇciny s norm´aln´ım rozdˇelen´ım tak´e norm´aln´ı rozdˇelen´ı se stˇredem v nule a smˇerodatnou chybou s
6n(n − 1) . (n + 1)(n − 2)(n + 3)
Stanovte 95% konfidenˇcn´ı interval pro tuto statistiku, kdyˇz jsme na souboru 1000 pozorov´an´ı spoˇc´ıtali hodnotu bodov´eho odhadu 0.1. [(−0.052, 0.252)]
207
Tabulka 18: Hodnoty kumulativn´ı distribuˇcn´ı funkce normovan´eho norm´aln´ıho rozdˇelen´ı, P (X ≤ x) pro X ∼ N (0, 1) x -3.4 -3.3 -3.2 -3.1 -3.0 -2.9 -2.8 -2.7 -2.6 -2.5 -2.4 -2.3 -2.2 -2.1 -2.0 -1.9 -1.8 -1.7 -1.6 -1.5 -1.4 -1.3 -1.2 -1.1 -1.0 -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 -0.0
.0 0.0003 0.0005 0.0007 0.0010 0.0013 0.0019 0.0026 0.0035 0.0047 0.0062 0.0082 0.0107 0.0139 0.0179 0.0228 0.0287 0.0359 0.0446 0.0548 0.0668 0.0808 0.0968 0.1151 0.1357 0.1587 0.1841 0.2119 0.2420 0.2743 0.3085 0.3446 0.3821 0.4207 0.4602 0.5000
.1 0.0003 0.0005 0.0007 0.0009 0.0013 0.0018 0.0025 0.0034 0.0045 0.0060 0.0080 0.0104 0.0136 0.0174 0.0222 0.0281 0.0351 0.0436 0.0537 0.0655 0.0793 0.0951 0.1131 0.1335 0.1562 0.1814 0.2090 0.2389 0.2709 0.3050 0.3409 0.3783 0.4168 0.4562 0.4960
.2 0.0003 0.0005 0.0006 0.0009 0.0013 0.0018 0.0024 0.0033 0.0044 0.0059 0.0078 0.0102 0.0132 0.0170 0.0217 0.0274 0.0344 0.0427 0.0526 0.0643 0.0778 0.0934 0.1112 0.1314 0.1539 0.1788 0.2061 0.2358 0.2676 0.3015 0.3372 0.3745 0.4129 0.4522 0.4920
.3 0.0003 0.0004 0.0006 0.0009 0.0012 0.0017 0.0023 0.0032 0.0043 0.0057 0.0075 0.0099 0.0129 0.0166 0.0212 0.0268 0.0336 0.0418 0.0516 0.0630 0.0764 0.0918 0.1093 0.1292 0.1515 0.1762 0.2033 0.2327 0.2643 0.2981 0.3336 0.3707 0.4090 0.4483 0.4880
.4 0.0003 0.0004 0.0006 0.0008 0.0012 0.0016 0.0023 0.0031 0.0041 0.0055 0.0073 0.0096 0.0125 0.0162 0.0207 0.0262 0.0329 0.0409 0.0505 0.0618 0.0749 0.0901 0.1075 0.1271 0.1492 0.1736 0.2005 0.2296 0.2611 0.2946 0.3300 0.3669 0.4052 0.4443 0.4840
208
.5 0.0003 0.0004 0.0006 0.0008 0.0011 0.0016 0.0022 0.0030 0.0040 0.0054 0.0071 0.0094 0.0122 0.0158 0.0202 0.0256 0.0322 0.0401 0.0495 0.0606 0.0735 0.0885 0.1056 0.1251 0.1469 0.1711 0.1977 0.2266 0.2578 0.2912 0.3264 0.3632 0.4013 0.4404 0.4801
.6 0.0003 0.0004 0.0006 0.0008 0.0011 0.0015 0.0021 0.0029 0.0039 0.0052 0.0069 0.0091 0.0119 0.0154 0.0197 0.0250 0.0314 0.0392 0.0485 0.0594 0.0721 0.0869 0.1038 0.1230 0.1446 0.1685 0.1949 0.2236 0.2546 0.2877 0.3228 0.3594 0.3974 0.4364 0.4761
.7 0.0003 0.0004 0.0005 0.0008 0.0011 0.0015 0.0021 0.0028 0.0038 0.0051 0.0068 0.0089 0.0116 0.0150 0.0192 0.0244 0.0307 0.0384 0.0475 0.0582 0.0708 0.0853 0.1020 0.1210 0.1423 0.1660 0.1922 0.2206 0.2514 0.2843 0.3192 0.3557 0.3936 0.4325 0.4721
.8 0.0003 0.0004 0.0005 0.0007 0.0010 0.0014 0.0020 0.0027 0.0037 0.0049 0.0066 0.0087 0.0113 0.0146 0.0188 0.0239 0.0301 0.0375 0.0465 0.0571 0.0694 0.0838 0.1003 0.1190 0.1401 0.1635 0.1894 0.2177 0.2483 0.2810 0.3156 0.3520 0.3897 0.4286 0.4681
.9 0.0002 0.0003 0.0005 0.0007 0.0010 0.0014 0.0019 0.0026 0.0036 0.0048 0.0064 0.0084 0.0110 0.0143 0.0183 0.0233 0.0294 0.0367 0.0455 0.0559 0.0681 0.0823 0.0985 0.1170 0.1379 0.1611 0.1867 0.2148 0.2451 0.2776 0.3121 0.3483 0.3859 0.4247 0.4641
Tabulka 19: Hodnoty α-kvantilu n´ahodn´e veliˇciny s normovan´ ym norm´aln´ım rozdˇelen´ım, Φα : P (X ≤ xα ) = α pro X ∼ N (0, 1) α 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.010 0.011 0.012 0.013 0.014 0.015 0.016 0.017 0.018 0.019
Φα −∞ -3.0902 -2.8782 -2.7478 -2.6521 -2.5758 -2.5121 -2.4573 -2.4089 -2.3656 -2.3263 -2.2904 -2.2571 -2.2262 -2.1973 -2.1701 -2.1444 -2.1201 -2.0969 -2.0749
α 0.020 0.021 0.022 0.023 0.024 0.025 0.030 0.035 0.040 0.045 0.050 0.055 0.060 0.065 0.070 0.075 0.080 0.090 0.100 0.110
Φα -2.0537 -2.0335 -2.0141 -1.9954 -1.9774 -1.9600 -1.8808 -1.8119 -1.7507 -1.6954 -1.6449 -1.5982 -1.5548 -1.5141 -1.4758 -1.4395 -1.4051 -1.3408 -1.2816 -1.2265
209
α 0.12 0.13 0.14 0.15 0.16 0.17 0.18 0.19 0.20 0.21 0.22 0.23 0.24 0.25 0.26 0.27 0.28 0.29 0.30 0.31
Φα -1.1750 -1.1264 -1.0803 -1.0364 -0.9945 -0.9542 -0.9154 -0.8779 -0.8416 -0.8064 -0.7722 -0.7388 -0.7063 -0.6745 -0.6433 -0.6128 -0.5828 -0.5534 -0.5244 -0.4959
α 0.32 0.33 0.34 0.35 0.36 0.37 0.38 0.39 0.40 0.41 0.42 0.43 0.44 0.45 0.46 0.47 0.48 0.49 0.50
Φα -0.4677 -0.4399 -0.4125 -0.3853 -0.3585 -0.3319 -0.3055 -0.2793 -0.2533 -0.2275 -0.2019 -0.1764 -0.1510 -0.1257 -0.1004 -0.0753 -0.0502 -0.0251 0.0000
Tabulka 20: Hodnoty α-kvantilu n´ahodn´e veliˇciny se Studentov´ ym t rozdˇelen´ım s ν stupni volnosti, tν,α : P (X ≤ tν,α ) = α pro X ∼ tν ν
tν,0.999
tν,0.995
tν,0.975
tν,0.950
tν,0.900
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 22 24 26 28 30 35 40 50 70 100 200 500 ∞
318.309 22.3271 10.2145 7.17318 5.89343 5.20763 4.78529 4.50079 4.29681 4.14370 4.02470 3.92963 3.85198 3.78739 3.73283 3.68615 3.64577 3.61048 3.57940 3.55181 3.50499 3.46678 3.43500 3.40816 3.38518 3.34005 3.30688 3.26141 3.21079 3.17374 3.13148 3.10661 3.09023
63.6567 9.92484 5.84091 4.60409 4.03214 3.70743 3.49948 3.35539 3.24984 3.16927 3.10581 3.05454 3.01228 2.97684 2.94671 2.92078 2.89823 2.87844 2.86093 2.84534 2.81876 2.79694 2.77871 2.76326 2.75000 2.72381 2.70446 2.67779 2.64790 2.62589 2.60063 2.58570 2.57583
12.7062 4.30265 3.18245 2.77645 2.57058 2.44691 2.36462 2.30600 2.26216 2.22814 2.20099 2.17881 2.16037 2.14479 2.13145 2.11991 2.10982 2.10092 2.09302 2.08596 2.07387 2.06390 2.05553 2.04841 2.04227 2.03011 2.02108 2.00856 1.99444 1.98397 1.97190 1.96472 1.95996
6.31375 2.91999 2.35336 2.13185 2.01505 1.94318 1.89458 1.85955 1.83311 1.81246 1.79588 1.78229 1.77093 1.76131 1.75305 1.74588 1.73961 1.73406 1.72913 1.72472 1.71714 1.71088 1.70562 1.70113 1.69726 1.68957 1.68385 1.67591 1.66691 1.66023 1.65251 1.64791 1.64485
3.07768 1.88562 1.63774 1.53321 1.47588 1.43976 1.41492 1.39682 1.38303 1.37218 1.36343 1.35622 1.35017 1.34503 1.34061 1.33676 1.33338 1.33039 1.32773 1.32534 1.32124 1.31784 1.31497 1.31253 1.31042 1.30621 1.30308 1.29871 1.29376 1.29007 1.28580 1.28325 1.28155
210
Tabulka 21: Hodnoty α-kvantilu n´ahodn´e veliˇciny se rozdˇelen´ım χ2 s ν stupni volnosti, χ2ν,α : P (X ≤ χ2ν,α ) = α pro X ∼ χ2ν ν
χ2ν,0.001
χ2ν,0.005
χ2ν,0.025
χ2ν,0.05
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 22 24 26 28 30 35 40 50 70 100 200 500
0.00000 0.00200 0.02430 0.09080 0.21021 0.38107 0.59849 0.85710 1.15195 1.47874 1.83385 2.21421 2.61722 3.04067 3.48268 3.94163 4.41609 4.90485 5.40682 5.92104 6.98297 8.08488 9.22213 10.3909 11.5880 14.6878 17.9164 24.6739 39.0364 61.9179 143.843 407.947
0.00004 0.00098 0.00393 0.01003 0.05064 0.10259 0.07172 0.21580 0.35185 0.20699 0.48442 0.71072 0.41174 0.83121 1.14548 0.67573 1.23734 1.63538 0.98926 1.68987 2.16735 1.34441 2.17973 2.73264 1.73493 2.70039 3.32511 2.15586 3.24697 3.94030 2.60322 3.81575 4.57481 3.07382 4.40379 5.22603 3.56503 5.00875 5.89186 4.07467 5.62873 6.57063 4.60092 6.26214 7.26094 5.14221 6.90766 7.96165 5.69722 7.56419 8.67176 6.26480 8.23075 9.39046 6.84397 8.90652 10.1170 7.43384 9.59078 10.8508 8.64272 10.9823 12.3380 9.88623 12.4012 13.8484 11.1602 13.8439 15.3792 12.4613 15.3079 16.9279 13.7867 16.7908 18.4927 17.1918 20.5694 22.4650 20.7065 24.4330 26.5093 27.9907 32.3574 34.7643 43.2752 48.7576 51.7393 67.3276 74.2219 77.9295 152.241 162.728 168.279 422.303 439.936 449.147
χ2ν,0.1
χ2ν,0.999
χ2ν,0.995
χ2ν,0.975
χ2ν,0.95
χ2ν,0.9
0.01579 0.21072 0.58437 1.06362 1.61031 2.20413 2.83311 3.48954 4.16816 4.86518 5.57778 6.30380 7.04150 7.78953 8.54676 9.31224 10.08519 10.86494 11.65091 12.44261 14.04149 15.65868 17.29188 18.93924 20.59923 24.79665 29.05052 37.68865 55.32894 82.35814 174.8353 459.9261
10.8276 13.8155 16.2662 18.4668 20.5150 22.4577 24.3219 26.1245 27.8772 29.5883 31.2641 32.9095 34.5282 36.1233 37.6973 39.2524 40.7902 42.3124 43.8202 45.3147 48.2679 51.1786 54.0520 56.8923 59.7031 66.6188 73.4020 86.6608 112.317 149.449 267.541 603.446
7.87944 10.5966 12.8382 14.8603 16.7496 18.5476 20.2777 21.9550 23.5894 25.1882 26.7568 28.2995 29.8195 31.3193 32.8013 34.2672 35.7185 37.1565 38.5823 39.9968 42.7957 45.5585 48.2899 50.9934 53.6720 60.2748 66.7660 79.4900 104.215 140.169 255.264 585.207
5.02389 7.37776 9.34840 11.1433 12.8325 14.4494 16.0128 17.5345 19.0228 20.4832 21.9200 23.3367 24.7356 26.1189 27.4884 28.8454 30.1910 31.5264 32.8523 34.1696 36.7807 39.3641 41.9232 44.4608 46.9792 53.2033 59.3417 71.4202 95.0232 129.561 241.058 563.852
3.84146 5.99146 7.81473 9.48773 11.0705 12.5916 14.0671 15.5073 16.9190 18.3070 19.6751 21.0261 22.3620 23.6848 24.9958 26.2962 27.5871 28.8693 30.1435 31.4104 33.9244 36.4150 38.8851 41.3371 43.7730 49.8018 55.7585 67.5048 90.5312 124.342 233.994 553.127
2.70554 4.60517 6.25139 7.77944 9.23636 10.6446 12.0170 13.3616 14.6837 15.9872 17.2750 18.5493 19.8119 21.0641 22.3071 23.5418 24.7690 25.9894 27.2036 28.4120 30.8133 33.1962 35.5632 37.9159 40.2560 46.0588 51.8051 63.1671 85.5270 118.498 226.021 540.930
211
ˇ a p´ısmena a jejich v´ Tabulka 22: Reck´ yslovnost mal´e velk´e ˇcteme α β γ δ ζ η θ ι κ λ µ ν ξ π ρ σ τ υ φ χ ψ ω
A B Γ ∆ E Z H Θ I K Λ M N Ξ Π P Σ T Υ Φ X Ψ Ω
212
alfa beta gama delta epsilon z´eta ´eta th´eta i´ota kappa lambda m´ı n´ y ks´ı p´ı r´o sigma tau ypsilon f´ı ch´ı ps´ı omega