Testy dobré shody Máme dvě veličiny a předpokládáme, že jsou nezávislé (platí nulová hypotéza nezávislosti). Často chceme naopak prokázat jejich závislost. K tomu slouží: TESTY DOBRÉ SHODY (angl. goodness-of-fit tests), které ověřují, zda reálné četnosti získané statistickým šetřením se statisticky významně odlišují od očekávaných četností, které vypočteme na základě platnosti nulové hypotézy. Mějme náhodné veličiny X a Y uspořádané do kontingenční tabulky. Nulovou hypotézu H0: veličiny X, Y jsou nezávislé zamítneme, když se pozorované četnosti nij budou významně lišit od očekávaných četností eij .
r
Testovým kritériem je statistika
s
c2 = åå i =1 j =1
(nij - eij ) 2 eij
,
která má asymptoticky (tj. pro dostatečně velké četnosti) rozdělení χ2 s (r - 1)(s - 1) stupni volnosti. Stupeň volnosti - je počet řádků (sloupců) tabulky, do kterých je možno vložit libovolnou hodnotu a přitom dodržet stanovený řádkový (sloupcový) součet.
Dostatečně velké četnosti jsou takové, kdy všechny očekávané četnosti jsou větší než 1 (>1) a naprostá většina očekávaných četností (alespoň 80%) je > 5.
Je-li testovací statistika větší než "kritická" hodnota rozdělení c pro zvolenou hladinu významnosti, zamítáme nulovou hypotézu o shodě empirického a teoretického rozložení. 2
Riziko, že hypotézu zamítneme neoprávněně, se rovná zvolené hladině významnosti α. V opačném případě přijímáme hypotézu o shodě. PŘÍKLAD: Chceme ověřit, zda hrací kostka je „fair“, tzn. že všech 6 možných výsledků má stejnou pravděpodobnost. Házíme tedy opakovaně kostkou a zaznamenáme četnosti dosažených výsledků: kód 1 2 3 4 5 6 Suma počet hodů 14 24 15 25 26 16 120 Testujeme nulovou hypotézu, že pravděpodobnosti pi = 1/6. Teoretické četnosti ei , které bychom očekávali za platnosti nulové hypotézy ze 120 hodů, vypočtem tedy jako ei = n × pi = 120 × (1/6) = 20 .
Nulovou hypotézu zamítneme, když se pozorované četnosti ni budou významně lišit od očekávaných četností ei . k ( ni - ei ) 2 X =å Testovým kritériem je statistika ei i =1 kde k je počet možných výsledků. V našem příkladu s hrací kostkou k = 6
Znamená to, že H0 zamítneme, pokud testová statistika je větší než kritická hodnota rozdělení χ2 pro zvolenou hladinou významnosti α. Řešení najdete v souboru 6c_hazeni_kostkou.xls (Hodnota testové statistiky je 7,7, kritická hodnota 11,07 - testová statistika neleží v kritickém oboru a nulovou hypotézu nemůžeme zamítnout).
Na základě našeho experimentu jsme prokázali, že kostka je „fair“, tj. že pro ni platí zákonitosti binomického rozdělení a výsledky hodů byly ovlivněny pouze náhodou. Rozdělení χ2 má ještě jednu zvláštnost: kromě krajně vysoké pravděpodobnosti obsahuje i krajně nízké pravděpodobnosti. Představme si, že bychom při 120 hodech kostkou hodili přesně 20x jedničku, 20x dvojku, 20x trojku, 20x čtyřku, 20x pětku a 20x šestku. Na první pohled vidíme, že by se jednalo o velmi zvláštní náhodu.
Vypočtená statistika odchylek by byla 0,0. Počet stupňů volnosti je 5. Podíváme-li se do tabulek distribuční funkce χ2 na hodnotu funkce pro pravděpodobnost 0,01, najdeme kritickou hodnotu statistiky 0,55 (nebo v programu funkci CHISQ.INV(0,01;5) = 0,554. Vidíme, že naše "vypočtená statistika = 0" nestačí na kritickou hodnotu a že požadovaný výsledek se hodí až příliš dobře, takže nebyl dán prostor náhodě a vzbuzuje to podezření, že se neuplatnilo binomické rozdělení a "hody byly zmanipulovány". Najdete v souboru 6c_hazeni_kostkou.xls na listu Hrací kostka-opačný test
Testy dobré shody pro spojité veličiny Pro spojité veličiny a spojitá rozdělení je test dobré shody podobný, jen postup o trochu pracnější. Testujeme shodu rozdělení našich pozorovaných hodnot s nějakým spojitým teoretickým rozdělením, známe tedy distribuční funkci F(x) tohoto rozdělení. Potřebujeme zjistit empirické četnosti ni a očekávané četnosti ei, tzn. předtím musíme obor hodnot empirických dat rozdělit na intervaly, v nich zjistit četnosti, spočítat k očekávané četnosti a vyhodnotit testové kriterium ( ni - ei ) 2 X =å ei i =1 Současně potřebujeme, aby očekávané četnosti byly větší než 5. (Zjednodušeně - viz dále) V příkladech používáme tuto symboliku: označíme-li očekávané četnosti jako Oi k a skutečně pozorované četnosti jako Pi, ( Pi - Oi ) 2 T = pak výpočet testovací statistiky T zapíšeme:
å i =1
Oi
OBECNÁ KONTINGENČNÍ TABULKA - sdružené rozdělení dvou diskrétních veličin Máme-li dvě nominální veličiny X, Y, kde X může nabývat hodnot x1 ,x2 , ..., xr a veličina Y může nabývat hodnot y1 , y2 ,..., ys , pak rozdělení četností pozorovaných hodnot můžeme vyjádřit kontingenční tabulkou: Proměnná Y - ve sloupcích
Proměnná X v řádcích
y1
y2
y3
x1
n11
n12
x2
n21
x3
…
ys
Celkem
n13
n1s
n1.
n22
n23
..
n2.
n31
n32
n3
..
n3.
Xr
nr1
..
..
nrs
nr.
Celkem
n.1
n.2
n.3
n.s
n..
…
Hodnoty nij jsou absolutní četnosti, tzn. počty sledovaných objektů, kdy veličina X má hodnotu xi a současně veličina Y má hodnotu yj. Četnosti v posledním řádku a v posledním sloupci se nazývají marginální a jsou definovány jako řádkové (sloupcové) součty. Obvyklou úlohou statistické analýzy je rozhodnout, zda náhodné veličiny X a Y jsou nezávislé či mezi nimi existuje nějaký vtah a také nějakou vhodnou charakteristikou případnou závislost kvantifikovat. Test nezávislosti dvou nominálních náhodných veličin X, Y je založen na tom, že můžeme odhadnout četnosti, které bychom pozorovali, kdyby opravdu veličiny X, Y nezávislé byly. Jsou-li X, Y nezávislé, pak pravděpodobnost jevu, že současně nastane jev X = xi a Y = yj lze vyjádřit jako součin
P( X = xi ) Ç (Y = y j ) = P( X = xi ) × P(Y = y j )
kde i = 1, 2,…,r,
j = 1, 2,…,s
Očekávané četnosti vypočteme z marginálních řádkových a sloupcových četností tak, že očekávanou četnost pro i-tý řádek a j-tý sloupec n ×n i.
vypočteme jako součin (ni. . n.j) dělený počtem všech pozorování n
.j
n..
Nulovou hypotézu H0, že veličiny X, Y jsou nezávislé, zamítneme, když se pozorované četnosti nij budou významně lišit od očekávaných četností eij . Testovým kritériem je statistika
r
s
c 2 = åå i =1 j =1
( nij - eij ) eij
2
r
s
= åå i =1 j =1
( nij -
ni. × n. j
n.. ni . × n. j
)2
n..
která má asymptoticky (tj. pro dostatečně velké četnosti) rozdělení χ2 s (r - 1)(s - 1) stupni volnosti.
Při užití tohoto testu je nutno posoudit, zda je splněna podmínka, že četnosti v tabulce jsou dostatečně velké. Obvykle se pro užití tohoto testu požaduje podmínka, aby všechny očekávané četnosti eij > 1 a naprostá většina (alespoň 80%) očekávaných četností byla eij > 5. Kritickým oborem proto tento test nezávislosti je : X Є [ χ2(r-1)(s-1) (α) ; +∞ ) Zamítneme-li hypotézu o nezávislosti veličin X a Y, pak nás obvykle zajímá, které pozorované četnosti (která políčka kontingenční tabulky) se od četností očekávaných při nezávislosti veličin významně odchylují. Říkáme, že vyhledáváme zdroje závislosti. Jedna z nejjednodušších metod posouzení těchto zdrojů závislosti je posouzení příspěvků jednotlivých políček tabulky k hodnotě testové statistiky r s (n - e ) 2
c 2 = åå i =1 j =1
ij
ij
eij
Velikost tohoto příspěvku je významná, když rozdíl pozorované a očekávané četnosti nelze považovat za náhodný, tj. tehdy, když pro obvykle užívanou hodnotu α = 0,05 je χ2 = 3,84 (viz tabulky χ2 rozdělení pro F(x) = 0,95). Pohodlnější je užít tzv. standardizovaná residua nij - eij , která mají přibližně eij normované normální rozdělení, tzn. významná jsou políčka s absolutní hodnotou standardizovaných residuí větší než 2. Užijeme-li standardizovaná residua, podle jejich znaménka vidíme, zda pozorovaná četnost je větší či menší než očekávaná. Příklad: Máme posoudit, zda veličiny Lokalita a Odruda (data BI97) jsou nezávislé. Jinými slovy, zda zastoupeni obou odrůd ve všech čtyřech lokalitách můžeme považovat za shodné. Nulová hypotéza H0: Lokalita a Odruda jsou nezávislé veličiny. Výpočet provedeme s pomocí programu NCSS.
Cross Tabulation Report Counts Section odruda 1 2 Total
1 20 1 21
2 13 7 20
lokal 3 17 10 27
Chi-Square Contribution Section 4 Total 14 64 9 27 23 91
odruda 1 2 Total
Expected Counts Assuming Independence Section lokal odruda 1 2 3 4 Total 1 14,8 14,1 19 16,2 64 2 6,2 5,9 8 6,8 27 Total 21 20 27 23 91
1 1,83 4,36 6,19
2 0,09 0,21 0,29
lokal 3 0,21 0,50 0,71
4 0,30 0,71 1,01
Total 2,42 5,78 8,20
Chi-Square Statistics Section Chi-Square 8,2002 Degrees of Freedom 3 Probability Level 0,04205 Reject Ho WARNING: At less one cell had a value less than 5
V řádku Chi-Square vidíme, že hodnota testové statistiky je 8,20, odpovídající p = 0,042, tedy je menší než hladina významnosti a = 0,05. Hypotézu o nezávislosti veličin Lokalita a Odruda můžeme zamítnout, k čemuž nás ostatně nabádá i vysvětlující text ve výstupu, Reject Ho.
Všechny očekávané četnosti jsou větší než 5, jak vidíme v části Expected Counts Assuming Independence Section. Podíváme-li se na zdroje závislosti (Chi-Square Contribution Section), vidíme, že pouze v jednom políčku (odruda = 2, lokalita = 1) je hodnota příspěvku políčka větší než 3,84. Celkově můžeme shrnout, že hypotézu o nezávislosti veličin Lokalita a Odruda jsme sice zamítli na hladině významnosti a = 0,05 , ale jen „s odřenýma ušima“ (hodnota p = 0,042 je jen o málo menší, než hladina významnosti) a navíc pouze jedno políčko tabulky přispívá významně k celkové hodnotě testové statistiky, takže zjištěnou závislost veličin Lokalita a Odruda můžeme přičítat jen malé četnosti odrůdy 2 v lokalitě 1.
Standardizované příspěvky políček odruda 1 2 3 4 1 1,35 0,29 0,46 0,55 2 2,09 0,45 0,71 0,84 Total 0,74 0,16 0,25 0,30
Total 0,05 0,08 0,03
Pokud příspěvky políček standardizujeme (viz vzorec pro výpočet standardizovaných reziduí), můžeme najít stejné políčko (odrůda 2 v prvním sloupci), kde je příspěvek políčka výrazně vyšší – zde znamená odchylku více než 2σ, protože porovnáváme se standardizovaným normálním rozdělením. Jelikož víme, že test je asymptotický, tedy pouze přibližný, je nutno se závěrem, že sledované veličiny nejsou nezávislé, zacházet velmi opatrně.
KONTINGENČNÍ TABULKA 2 x 2 Kontingenční tabulky často používáme v EPIDEMIOLOGII. Velmi často používáme právě tabulku 2 x 2 k zjištění, zda - výskyt vybrané diagnózy závisí na uvažované expozici - léčba nebo změna životního stylu má vliv na zdraví jedince - osvětové programy ovlivnily zdraví populace Náhodná veličina Y - např. onemocnění Náhodná veličina X - obvykle expozice
ANO
NE
Celkem
ANO
a
b
a+b
NE
c
d
c+d
Celkem
a+c
b+d
a+b+c+d=n
K popisu četností v této tzv. čtyřpolní tabulce používáme pouze 4 hodnoty, proto je i pro zápis zjednodušeného výpočtu označujeme a, b, c, d
χ2 test nezávislosti v tabulce 2 x 2 Vzorec pro výpočet statistiky chí-kvadrát se zjednoduší na tvar: ( ad - bc ) 2 2 c = ×n (a + b)(a + c)(b + d )(c + d ) Na příkladu testování vrozené vady kyčlí u dívek a chlapců (viz "6d_vady_kycli.xls") vidíme, že pro velké počty pozorovaných (a očekávaných) hodnot vychází CHITEST stejně jako výpočet podle zjednodušeného vzorce.
Pro malé pozorované (očekávané) četnosti můžeme test nezávislosti zpřesnit tzv. Yatesovou korekcí. Yatesova korekce n ( ad - bc - ) 2 2 c2 = ×n ( a + b)(a + c)(b + d )(c + d )
Tato veličina má opět rozdělení chí-kvadrát s jedním stupněm volnosti
Fischerův exaktní test Oba předchozí testy byly pouze přibližné a pro malé četnosti nejsou vhodné. V případě, že nejméně jedna očekávaná četnost je < 5 používáme Fischerův exaktní faktoriálový test. Spočívá v tom, že sestrojíme všechny možné tabulky, které mají stejné marginální četnosti jako původní tabulka a vybereme z nich ty, které jsou "vzdálenější" od hypotézy nezávislosti než původní tabulka, tj. jsou méně pravděpodobnější, pokud skutečně platí hypotéza nezávislosti. Sečteme-li pravděpodobnosti těchto tabulek, získáme tak součet P, který je hodnotou Fischerova testu. V praxi se tento přesný test používá opravdu pro malé četnosti, protože s rostoucím n roste dramaticky i počet možných tabulek. Pokud i nejmenší hodnota ve čtyřpolní tabulce je dostatečně velká (> 5), zmíněné testy chí-kvadrát nebo Yatesova korekce jsou pro tyto četnosti dostatečně blízké přesnému testu.
Princip Fisherova exaktního testu si ukážeme na příkladu této tabulky: Sportuje Kouří
ano ne Suma ano 5 5 10 ne 3 19 22 Suma 8 24 32
ano
ne
Suma
ano
ne
Suma
ano
6
4
10
ne
2
20
Suma
8
24
ano
ne
Suma
ano
7
3
10
ano
8
2
10
22
ne
1
21
22
ne
0
22
22
32
Suma
8
24
32
Suma
8
24
32
V první tabulce jsou naměřené četnosti u 32 studentů právnické fakulty a chceme zjistit, zda spolu souvisí sport a kouření u studentů. Četnosti jsou pro test chí-kvadrát malé - nelze jej použít. Vypočteme proto pravděpodobnost pro všechny tabulky podle vzorce: pi =
( a + b )! (c + d )! ( a + c )! (b + d )! , n! a! b! c! d !
kde n je celková četnost v tabulce a a,b,c,d je označení políček zleva doprava a dolů. Výsledná pravděpodobnost se určí jako součet pravděpodobností ve všech tabulkách, tj. p = å pi
V našem příkladu je to p = 0,036896 + 0,004611 + 0,000251 + 0,000004 = 0,041 Vypočtený výsledek nám sděluje, že první tabulka a tabulky ještě méně příznivé pro platnost hypotézy H0 mohou nastat s pravděpodobností 0,041, tj. 4,1 %. Na hladině významnosti α = 0,05 tedy zamítáme nulovou hypotézu a přijímáme alternativní hypotézu, že sportování a kouření u studentů spolu souvisí.
MÍRY VZTAHU DVOU ALTERNATIVNÍCH VELIČIN Předchozí teorie testovala jen závislost nebo nezávislost dvou diskrétních veličin. Neříkala však nic o míře závislosti. Uvažujme opět čtyřpolní tabulku. a Vzorcem a + b vypočteme pravděpodobnost onemocnění
u skupiny exponovaných, c vzorcem c + d u neexponovaných.
Náhodná veličina Y - např. onemocnění Náhodná veličina X obvykle expozice ANO
ANO
NE
Celkem
a
b
a+b
NE
c
d
c+d
Celkem
a+c
b+d
a+b+c+d
RELATIVNÍ RIZIKO Relativní riziko RR je podíl pravděpodobnosti onemocnění u exponovaných a neexponovaných:
a a × (c + d ) RR = a + b = c c × ( a + b) c+d
Pokud platí model nezávislosti, je očekávaná četnost v prvním políčku (a + b)( a + c) O11 = a + b + c + d , analogicky vypočteme očekávané četnosti v ostatních polích a dosadíme je do vzorce pro relativní riziko. Dostaneme RR=1. Pokud nemoc nezávisí na expozici, RR -> 1. Pokud je onemocnění u exponovaných osob častější než u neexponovaných, je RR > 1. Opačně RR < 1 by znamenalo, že onemocnění nastalo častěji u osob neexponovaných.
KŘÍŽOVÝ POMĚR, PODÍL ŠANCÍ, SÁZKOVÝ POMĚR - anglicky ODDS RATIO Tato charakteristika (častěji používaná v anglosaských zemích) není založena na pojmu pravděpodobnosti, ale na pojmu ŠANCE NA ONEMOCNĚNÍ. Termín je převzat z oblasti sázek, kde se nepoužívá termín pravděpodobnost výhry, ale ŠANCE NA VÝHRU, tj. poměr mezi "výhrou" a "prohrou". Vypočteme podíl nemocných a zdravých
a u exponovaných osob a i neexponovaných osob c . Křížový poměr je OR = b = ad c bc b d d Křížový poměr, podobně jako relativní riziko, je roven jedné, pokud jsou sledované veličiny nezávislé.
Jinak se ale hodnoty RR a OR liší: OR nabývá v případě kladné závislosti (vzniku onemocnění na expozici) vyšší hodnoty než než RR. V případě, že onemocnění nastalo častěji u osob neexponovaných, je OR nižší než RR (obě hodnoty jsou menší než jedna).
HYPOTÉZA SYMETRIE Mc Nemar Zatím jsme se zabývali hypotézou nezávislosti, ale v praxi nás zajímají i jiné hypotézy. Chceme například porovnat efekt léčby. Vlastně chceme pomocí tabulky četností provést obdobu "párového" testu, přestože nemáme jednotlivé páry hodnot, ale pouze počty naměřených hodnot. Na rozdíl od hypotézy nezávislosti zde naopak víme, že veličiny jsou závislé, protože jsme měřili na stejných datech. Představme si, že zjišťujeme, zda u dětí vybraného okresu závisí výskyt infektů horních cest dýchacích na věku. Výskyt onemocnění byl zjišťován v šesti měsících a ve třech letech věku.
Použití testu nezávislosti chí-kvadrát by bylo zcela chybné. U dětí, které byly zdravé v 6 měsících je zřejmě vyšší pravděpodobnost, že budou zdravé i ve 3 letech a naopak. Příslušné pozorované hodnoty jsou v tabulce: Onemocnění v 3. roce věku Onemocnění v 6. měsíci věku ANO NE Celkem
ANO
NE
Celkem
1439 663 2102
108 37 145
1547 700 2247
Nás spíše zajímá, zda jsou stejné pravděpodobnosti že děti, které byly zdravé v 6 měsících, jsou nemocné ve 3 letech a že děti, které byly nemocné v 6 měsících, jsou zdravé ve 3 letech.
Porovnáváme tedy políčka b a c v kontingenční tabulce.
Hypotéza vlastně ověřuje, zda je tabulka symetrická kolem hlavní úhlopříčky - platí-li p12 = p21. Takováto hypotéza je odlišná od hypotézy nezávislosti. Navíc nás v podstatě nezajímají hodnoty v polích a, d (p11 a p22), zajímají nás pouze případy, kdy došlo ke změně v jednom nebo druhém směru. (b - c) 2 K tomuto testu používáme tzv. Mc Nemarův test symetrie: M = b + c , kde M má rozložení chí-kvadrát s jedním stupněm volnosti viz 6e_symetrie_mcnemar.xls. Pokud test vyjde statisticky významný, znamená to, že tabulka není symetrická podle hlavní osy – významně převažují děti, kterých je více (které nebyly nemocné ve 3 měsících, ale byly nemocné ve 3 letech).
Na podobném principu jako Yatesova korekce je založena přesnější varianta Mc
1 ( b - c - )2 2 Nemarova testu: M = , b+c kde M má opět rozložení chí-kvadrát s jedním stupněm volnosti.
b p = Testujeme vlastně hypotézu, zda pravděpodobnosti p 1 , jejíž odhad je 1 b + c c p = a p 2 , jejíž odhad je 2 b + c , se rovnají. Protože p 1 + p 2 = 1 , testujeme hypotézu, že p 1 = 0,5 O Mc Nemarově testu se často hovoří jako o testu pro "párová" data.