Hipotézisvizsgálatok (hypothesis testing) A statisztikának egyik célja lehet a populáció tulajdonságainak, ismeretlen paramétereinek a becslése. A másik tipikus cél: valamely elmélet, hipotézis empirikus bizonyítása vagy cáfolata. Nullhipotézisnek (null hypothesis) (H0) nevezzük azt a hipotézist, amelyet pillanatnyilag nincs okunk megkérdőjelezni, amely a tudomány jelenlegi álláspontja szerint elfogadható, amelyet, ha a kísérlet/felmérés semmi újat nem hoz, továbbra is fenntartunk, amely helyett nekünk már jobb elméletünk van, és a kísérletet éppen ennek a bizonyítására (egyben a régi megcáfolására) szánjuk. Ellenhipotézisnek (alternative hypothesis) (H1) nevezzük azt a hipotézist, amelynek bizonyítását a kísérlettől várjuk (az “új elmélet”).
Megszoktuk, hogy általában valamely különbség, hatás, korreláció meglétét, azaz nemnulla voltát szeretnénk bizonyítani, tehát azt a hipotézist szoktuk H0-nak választani, hogy az illető dolog (különbség, stb.) egyenlő nullával. Teszt-statisztika (test statistic), próbastatisztika, próbafüggvény: az a mintából számított mennyiség, amelynek értéke alapján a döntést hozzuk. A teszt-statisztika – mivel a mintából számítjuk – véletlen változó. Olyan mennyiségnek kell lennie, amelynek eloszlása lehetőleg minél jobban eltér a H0 és a H1 fennállása esetén, például kisebb értékekre számíthatunk H0, nagyobbakra H1 esetén. Elutasítási vagy kritikus tartomány (rejection region): a döntési szabályt meghatározó számhalmaz, ha a teszt-statisztika értéke ide esik, a nullhipotézist elvetjük, ha nem, megtartjuk. A kritikus tartomány kiegészítő halmazát elfogadási tartománynak is nevezik. E két tartományt elválasztó érték(ek) az úgynevezett kritikus érték(ek) (critical value).
Elsőfajú hiba valószínűsége (Type I error rate), α , annak a valószínűsége, hogy H0-t elvetjük, pedig igaz. Az elsőfajú hiba, hogy a teszt-statisztika értéke a kritikus tartományba esik, bár a H0 igaz.
α a teszt-statisztika null-eloszlásától* (null distribution) és a kritikus tartomány megválasztásától függ. Szokásosan a kritikus tartományt úgy választjuk, hogy α = 5% (vagy 1%, esetleg 0.1%) legyen. Példa:
Ha arra vagyunk kíváncsiak, hogy egy pénzérme szabályos-e, akkor H0: az érme szabályos, azaz P(fej)=P(írás)=0.5 H1: az érme nem szabályos Minta: 6 dobás eredménye (csak a példa egyszerűsége kedvéért ilyen kicsi) *
a teszt-statisztika eloszlása H0 fennállása esetén
Teszt-statisztika: a fejek száma a 6-ból Null-eloszlás: (a fejek számának eloszlása H0 fennállása, azaz az érme szabályossága esetén): binomiális eloszlás n = 6 és p = 0.5 paraméterrel, azaz
érték valószínűség
0 0.0156
1 0.0938
2 0.2344
3 0.3125
4 0.2344
5 0.0938
6 0.0156
Döntési szabály: 0 vagy 6 fej esetén elvetjük H0-t. Az első fajú hiba valószínűsége: 0.0156+0.0156=0.0312 Mivel a tesztek nevüket általában a null-eloszlás után kapják, ezt binomiális tesztnek nevezik.
Másodfajú hiba (Type II error) : ha a H0-t megtartjuk, pedig H1 igaz. Valószínűségét β-val jelöljük, (1-β) a teszt ereje power .
Egy- és kétoldali ellenhipotézis A céljainktól függően a legtöbb tesztben két fajta ellenhipotézissel dolgozhatunk. Az első esetben az elfogadási tartomány mindkét oldalán van elutasítási tartomány. Az eredmény értékelésekor a feltételezett értéktől való mindkét irányú eltérés érdekes. Ez a kétoldali ellenhipotézis. H0: p=p0
H1: p≠p0
Időnként az egyik irányú eltérés érdektelen a kísérlet szempontjából, például ha egy új eljárást vizsgálunk a vércukorszint csökkentésére, akkor érdektelen az, hogy az érték nő vagy változatlan marad, csak a csökkenést van értelme kimutatni. Ez az egyoldali ellenhipotézis. H0: p≤p0
H1: p>p0, vagy
H0: p≥p0
H1: p
Figyeljük meg, hogy a nullhipotézisben mindig van egyenlőség. Az, hogy számunkra a nullhipotézis elutasítása vagy megtartása a kedvező, mindig a kísérleti elrendezéstől függ.
Normális eloszlású változó várható értékére vonatkozó próbák egy minta esetén z-próba vagy u-próba (u-test) „Tartható-e az az álláspont, hogy a vizsgált változó populációátlaga egy feltételezett µ 0 érték?” Feltétel: normális eloszlású változó, valamint (ismert σ szórás, vagy 30-nál nagyobb elemszám). Próba-statisztika: z = u =
x − µ0
σ
n
, ahol Z ~ N (0,1)
Nullhipotézis: H 0 : µ = µ 0
Nullhipotézis: H 0 : µ ≤ µ 0
Ellenhipotézis: H 1 : µ ≠ µ 0
Ellenhipotézis: H 1 : µ > µ 0
0,45
0,45
0,4
0,4
0,35
0,35
0,3
0,3
0,25
0,25
0,2
0,2
a/2
0,15
a/2
0,15
0,1
0,1
0,05
0,05
0 1
4
7 10 13 -zkrit
zkrit
16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61
0
Kritikus tartomány: K : { z > z krit }
a
0 1
4
zkrit
7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61
Kritikus tartomány: K : {z > z krit }
egymintás t-próba (one sample t-test) Feltétel: normális eloszlású változó (robosztus, elég ha szimmetrikus és unimodális) Próba-statisztika: t =
x − µ0 , s n
mely Student féle t eloszlású változó, n-1 szabadsági fokkal Minden más megegyezik a z-próbával. Az egyetlen különbség, hogy a szórás ismert, vagy a mintából kell becsülni. A t-próba értelemszerűen kevésbé hatékony, hiszen eggyel több becsült paramétert használ. Ha a mintaelemszám elég nagy (>30), akkor használható a z-próba is. A z-próbát csak a kézzel, táblázatból történő munka esetén preferáljuk. A számítógépes programokkal nyugodtan használhatjuk a t-próbát.
Normális eloszlású változó várható értékére vonatkozó próbák két minta esetén z-próba vagy u-próba „Tartható-e az az álláspont, hogy a vizsgált változók átlaga megegyezik a két populációban?”
Feltétel: független, normális eloszlású változók, valamint (ismert szórások, vagy 30-nál nagyobb elemszámok). Próba-statisztika: z = u =
x1 − x2
σ
2 1
n1
+
σ
2 2
, ahol Z ~ N (0,1)
n2
Nullhipotézis: H 0 : µ1 = µ 2 Minden más ugyanúgy megy, mint az egymintás esetben.
Kétmintás t-próba (two sample t-test) Feltétel: független, normális eloszlású változók ismeretlen, de vélhetően azonos szórással. x −x Próba-statisztika: t = , ahol s = 1 1 s⋅ + n n 1
2
1
(n
1
− 1)s + (n − 1)s n +n −2 2
1
1
2
2 2
2
2
Szanadsági fokok száma: n1 + n2 − 2 Nullhipotézis: H 0 : µ1 = µ 2 Ha a két szórás nem egyezik meg, akkor vagy megpróbáljuk transzformálni a mintákat, vagy közelítő próbát alkalmazunk. (Welch-próba)
Welch-próba (Welch-test) Feltétel: független, normális eloszlású változók. Próba-statisztika: t =
x1 − x2 s12 s22 + n1 n2
Szabadsági fokok száma: nW
(n1 − 1)(n2 − 1) = 2 2 (n1 − 1)c + (n2 − 1) 1 − c
(
s 22 n2
2 , ahol c = 2 s1 s 22 + n1 n2
)
Nagy mintákra (mindkét elemszám nagyobb, mint 30) a szórások jól becsülhetőek és a z-eloszlás kritikus értékei elég közel vannak a t-eloszlás kritikus értékeihez, ezért a zpróba használható a mintából becsült szórások esetén is. A t-próbát és a Welch-próbát kis mintákra használjuk attól függően, hogy a szórásokat azonosnak gondoljuk-e. Ha nem tudjuk, használhatjuk az F-próbát a szórások tesztelésére. A statisztikusok egy része ezt nem fogadja el, szerintük a két szórás sosem tekinthető azonosnak. A Welch-próba is csak közelítő eredményt ad, de használata széles körben elfogadott. A fenti módszerekkel nem csak az átlagok egyenlősége tesztelhető, hanem a köztük levő eltérés is. A számítógépes programok általában csak a t-próbát ismerik, a Welch-próbát is abba építik be.
Várható értékre vonatkozó próba két összefüggő minta esetén Páros t-próba (paired t-test) Ha a két minta összefügg (például ugyanazon egyedeken végeztük a mérést a kezelés előtt és a kezelés után, vagy ikerpárokon mérünk, …), akkor a kétmintás t-próbánál jóval erősebb a páros t-próba (paired t-test). Technikailag egy mintát képzünk, kiszámolva mindenütt a két változó értékének különbségét, és arra egymintás t-próbát alkalmazunk. Megjegyzések: A páros t-próba azért erősebb, mert információt hordoz, hogy melyik mérés melyikkel áll párban. A kapott különbségek szórása jóval kisebb lehet, mint a kétmintás próbában előálló szórás. Ha kezelés előtti és utáni eredményeink vannak, akkor a különbséget célszerű úgy képezni, hogy a későbbi mérés eredményéből vonjuk ki a korábbiét, ez esetben ugyanis a pozitív eredmény jelenti a növekedést.
Feltétel: a mérések ugyanazon az egyedeken, vagy más módon párosítható mintákon történtek (a minták nem függetlenek), valamint a két változó különbsége normális eloszlású (a változók nem kell, hogy azok legyenek). Nullhipotézis: H 0 : µ d = µ 0 Próba-statisztika: t =
d − µ0 sd n
Varianciaanalízis (ANOVA) Kettőnél több minta esetén annak a nullhipotézisnek a tesztelésére szolgál, hogy valamennyi részpopulációban, amelyekből a minták származnak, ugyanaz a várható érték. Az ellenhipotézis, hogy van olyan (egy vagy több) részpopuláció, melyben a várható érték eltér. A próba feltétele a változók normalitása és a szórásuk azonossága, valamint az adatok függetlensége. Számtalan módon előfordulhat az, hogy a nullhipotézis nem teljesül!
Populációban egy tulajdonság arányára vonatkozó próba z-próba „Tartható-e az az álláspont, hogy a vizsgált tulajdonság előfordulási valószínűsége a populációban a feltételezett p0 érték?”
Feltétel: mivel a próba a binomiális eloszlás közelítésén alapul, hagyományosan akkor tekintik elfogadhatónak, ha 5 ≤ npˆ ≤ n − 5 , ahol pˆ a mintabeli relatív gyakoriság. Nullhipotézis: H 0 : p = p0 Próba-statisztika: z =
pˆ − p0 p0 (1− p0 ) n
Ha a feltételek nem teljesülnek, akkor egzakt binomiális próbát kell csinálni. (Lásd konfidencia-intervallum meghatározás…)
Két valószínűség összehasonlítása „Származhat-e a két független minta adott tulajdonságra vonatkozóan azonos előfordulási valószínűségű populációból?” Nullhipotézis: H 0 : p1 = p 2 Próbastatisztika: z =
pˆ − pˆ 1
p (1 − p p
p
)
2
1 1 + n n 1
, ahol p p =
f1 + f 2 n1 + n2
2
Két valószínűség összehasonlítása homogenitás vizsgálatként, χ 2 -próbával is történhet.
Egy változó varianciájára vonatkozó próba χ 2 -próba „Tartható-e az az álláspont, hogy a vizsgált változó populációbeli varianciája egy feltételezett σ 02 érték?” Feltétel: a vizsgált változó normális eloszlású. Nullhipotézis: H 0 : σ 2 = σ 02 vagy H 0 : σ 2 ≥ σ 02 vagy …
( n − 1)s 2 Próba-statisztika: χ = 2 2
σ
Szabadsági fok: n-1
Kritikus tartomány: H 1 : σ 2 ≠ σ 02 esetén χ 2 : χ 2 ≤ χ 12+ p vagy χ 2 ≥ χ 12− p 2 2 H 1 : σ 2 < σ 02 esetén χ 2 : χ 2 ≤ χ 12+ p 2
Két változó varianciájának összehasonlítása F-próba (F-test) „Tartható-e az az álláspont, hogy a vizsgált változók varianciája megegyezik a két populációban?” Feltétel: normális eloszlású(!) független változók, s12 ≥ s 22 (sorszámozás kérdése…) Nullhipotézis: H 0 : σ 12 = σ 22 vagy H 0 : σ 12 ≥ σ 22 (harmadik nem lehet s12 ≥ s 22 miatt) Próba-statisztika: F =
s12 s 22
Szabadsági fok: n1-1 a számlálóban, n2-1 a nevezőben Kritikus tartomány: { F : F ≥ F1− p } illetve { F : F ≥ F1− p } 2
A normalitás nagy mintaelemszám esetén is kell.
Nemparaméteres próbák Ha az eddig megismert paraméteres próbák nem alkalmazhatóak, mert nem teljesülnek a feltételeik, akkor nemparaméteres próbákat kell alkalmazni. Ezek általában sokkal egyszerűbbek, mint a paraméteres próbák, sokkal megengedőbbek (feltételek), viszont jóval kisebb az erejük. A paraméteres és a nemparaméteres próbák összehasonlítása Nemparaméteres próbák Nagyjából függetlenek a változó eloszlásától. DE: azért nem minden eloszlásra, csak egy tágabb körre. Feltételeket ellenőrizni kell. Mediánok összehasonlítása. Gyakoriságok elemzésére alkalmas.
Paraméteres próbák Feltételezik, hogy ismert a változó eloszlása: (leggyakrabban) normális, exponenciális, binomiális, stb. Átlagok és varianciák összehasonlítása. A gyakoriságokat általában transzformálni kell előtte.
Származtatott adatok elemzésére is jó, pl. Származtatott adatokat arányok. transzformálni kell.
először
Előjelpróba (sign test) “Tartható-e az az álláspont, hogy a vizsgált változó mediánja egy feltételezett med0 érték?”
Feltétel: a vizsgált változó eloszlása folytonos. 6 < n < 30 Nullhipotézis: H 0 :med = med 0 Próba-statisztika: a medhipot-nál nagyobb mintaelemek száma. 1, ha xi > med 0 δi = , 0, ha xi < med 0
n
B = ∑δi i =1
Vigyázat! n-be azokat nem számoljuk bele, ahol xi = med 0 ! Kritikus tartomány: a null-eloszlás binomiális, n=mintaelemszám, p=0.5. A kritikus tartomány H 1 -től függően egy- vagy kétoldali.
Megjegyzések:
A próbát azért hívják előjelpróbának, mert eredetileg a medián(X) = 0 hipotézis tesztelésére találták ki, és ekkor a próbához a mintabeli értékeknek csupán az előjelét használjuk. Két párosított minta esetén a különbségekre alkalmazható. Feltételként az eloszlás folytonossága helyett elegendő annyi is, hogy P(med0) = 0. Nagy mintára a binomiális eloszlást a szokásos módon közelíthetjük Poissonnal vagy normálissal. Ugyanígy megy medián helyett tetszőleges kvantilisre.
Wilcoxon-féle előjeles rang-próba (Wilcoxon signed rank test) “Tartható-e az az álláspont, hogy a vizsgált változó mediánja egy feltételezett med0 érték?” Feltétel: a vizsgált változó eloszlása folytonos és szimmetrikus Szimmetrikus eloszlás esetén a medián és az átlag egybeesik, ezért mindegy, melyikkel fogalmazzuk meg a hipotéziseket. Csak hagyomány-tiszteletből írjuk fel mediánnal.
Nullhipotézis: H 0 : med = med0 Próba-statisztika: a megfigyelt értékek med0-tól való eltéréseit abszolút értékük nagysága szerint sorba rendezzük, és rangszámokat rendelünk hozzájuk. A statisztika a pozitív eltérésekhez tartozó rangok összege. Párosított minták esetén a különbségre alkalmazható.
Példa:
10 elemű minta: 1.4 3.3 5.0 5.0 6.2 7.5 10.1 10.5 13.0 18.1 med0 = 9 Eltérések: -7.6 -5.7 -4.0 -4.0 -2.8 -1.5 1.1 1.5 4.0 9.1 Rangszámok: 9 8 6* 6* 4 2.5§ 1 2.5§ 6* 10 * § Egyenlő abszolút eltérést adó értékek (ties) esetén mindegyikük az összesen rájuk jutó rangok átlagát kapja (kapcsolt rangok, tied ranks).
A pozitív eltérések rangösszege: T+ = 19.5 Kritikus tartomány: K : {T+ ≤ Tkrit }. A null-eloszlást kis mintaelemszámokra kiszámolták, a kritikus értékeket táblázatba foglalták. (Csak akkor érvényes, ha nincsenek kapcsolt rangok!) Nagyobb mintákra a null-eloszlás a µ =
n(n + 1) n( n + 1)( 2n + 1) , σ = paraméterű 4 24
normálissal közelíthető, a kritikus értékek ebből számolhatók.
Mann-Whitney-féle U-teszt (vagy: Wilcoxon-féle rangösszeg-teszt) “Tartható-e az az álláspont, hogy a vizsgált X és Y változókra igaz a P(X
Y) egyenlőség (azaz ha mindkét változót megfigyeljük, azonos esély van arra, hogy az egyik, illetve a másik lesz nagyobb)?” Feltétel: a változók eloszlása folytonos, sűrűségfüggvényeik azonos alakúak (eltolással egymásba átvihetők, varianciák megegyeznek); a két változóra két független mintánk van. Nullhipotézis: H 0 : a változók eloszlása megegyezik, azaz az eltolás 0. Ellenhipotézis: H 1 : az eltolás ≠ 0 (ez kétoldali ellenhipotézis, de megfogalmazható egyoldali is)
Kolmogorov-Smirnov próba “Tartható-e az az álláspont, hogy a vizsgált X és Y változók eloszlása azonos?” A kétmintás t-próba megfelelője nem egyező varianciák esetére. Feltételek: Ordinális vagy folytonos változók, független minták, azonos alakú eloszlások. Nullhipotézis: H 0 : F ( X ) ≡ F (Y ) Ellenhipotézis: H1 : F ( X ) ≡/ F(Y) Próbastatisztika: A két eloszlásfüggvény közötti maximális differencia. Nagyon kevéssé hatékony teszt.
Medián (Mood) próba “Tartható-e az az álláspont, hogy a két minta ugyanakkora mediánú populációból származik?” Nullhipotézis: H 0 : med1 = med 2 Számítás menete: Kiszámítjuk az összes adat közös mediánját. Készítünk belőle egy 2×2-es kontingencia táblázatot, és abból kiszámítjuk az alábbi χ 2 értéket: > Közös medián ≤ Közös medián
1. minta f11 f 21
2. minta f12 f 22
Próba-statisztika: 2
n f11 f 22 − f12 f 22 − 2 χ2 = ( f11 + f 21 )( f12 + f 22 )( f11 + f12 )( f 21 + f 22 )
Kritikus tartomány: H 1 : med1 ≠ med2 esetén
{ χ 2 : χ 2 ≤ χ 2 1 – α / 2 vagy χ 2 ≥ χ 2α / 2 },
H 1 : med1< med2 esetén
{ χ 2 : χ 2 ≤ χ 2 1 – α },
H 1 : med1> med2 esetén
{ χ 2 : χ 2 ≥ χ 2α },
ahol α az elsőfajú hiba megengedett szintje, χ 2α , χ 2α / 2 és χ 2 1 – α / 2 pedig az n-1 szabadsági fokú χ 2-eloszlás megfelelő kritikus értékei. Megjegyzés:
Sokkal gyengébb teszt, mint a kétmintás t-próba, illetve a M-W teszt, ha azok is alkalmazhatók. Ha néhány gyakoriság nagyon kicsi, akkor a Fischer-féle egzakt teszt alkalmazandó.
Példa:
X-re 8 elemű minta: 1, 3, 7, 8, 9, 15, 16, 17 Y-re 10 elemű minta: 5, 6, 8, 10, 12, 15, 18, 21, 23, 25 Összevont minta: 1, 3, 5, 6, 7, 8, 8, 9, 10, 12, 15, 15, 16, 17, 18, 21, 23, 25 Közös medián = 11 1. minta f11 =3 f 21 =5
> Közös medián ≤ Közös medián
2. minta f12 =6 f 22 =4
2
n n f11 f 22 − f12 f 22 − 2 χ2 = ( f11 + f 21 )( f12 + f 22 )( f11 + f12 )( f 21 + f 22 ) 2
18 18 ⋅ 3 ⋅ 4 − 6 ⋅ 5 − 18 ⋅ 9 2 2 = = 0,2045 < χ 02,05 = 3,841 = (3 + 5)(6 + 5)(3 + 6)(5 + 4) 8 ⋅11 ⋅ 9 ⋅ 9
⇒ H 0 -t nem vetjük el
Kruskal-Wallis-féle H teszt (Kruskal-Wallis H-test) Több mint két minta esetén használjuk, hasonlóan az ANOVA-hoz. Feltétel: a változók eloszlása folytonos, sűrűségfüggvényeik azonos alakúak (eltolással egymásba átvihetők); k változóra k független mintánk van. Nullhipotézis: H 0 : mind a k változó eloszlása megegyezik Ellenhipotézis: H 1 : nem mind azonos eloszlásúak Próba-statisztika: bonyolult… (lásd lejjebb) Kritikus tartomány: a null-eloszlás aszimptotikusan χ2 (k–1 szabadsági fokkal), ebből kaphatjuk a kritikus értékeket
Példa:
Egy biológus 4 mezőn (A, B, C, D) 5-5 véletlenszerűen kiválasztott kvadrátban számolja az orchideákat. Van-e különbség bármelyik két mező között az orchideák számát tekintve? A megf/mező 1 27 (12) 2 14 (7) 3 8 (4,5) 4 18 (9,5) 5 7 (3) A Kruskal-Wallis próba menete:
B 48 (16) 18 (9,5) 32 (13) 51 (17) 22 (11)
C 11 (6) 0 (1) 3 (2) 15 (8) 8 (4,5)
D 44 (15) 72 (19) 81 (20) 55 (18) 39 (14)
Készítsük el a fenti táblázatot. Oszloponként vannak a minták, zárójelben a megfigyelések rangja (összes mintaelemre együtt kiszámítva). Számítsuk ki mintánként a darabszámokat (ni) és adjuk össze: N. Számítsuk ki mintánként a rangösszeget: Ri. Emeljük négyzetre: Ri2 .
Ri2 Osszuk el a mintaelemszámmal és adjuk össze: ∑ . ni
Ri2 12 ⋅ A próbastatisztika ( χ eloszlású): K = ∑ − 3( N + 1) n N ( N + 1) i 2
2 Hasonlítsuk össze K-t a megfelelő χ krit értékkel. A szabadsági fok: a minták száma-1 2 2 (4-1=3). χ krit = 7.81. K > χ krit ⇒ elutasítjuk a H 0 -t.
Ezek szerint az orchideák számát tekintve a mezők nem tekinthetők egyformáknak. Csak azt tudjuk, hogy valamelyik kettő között biztos van különbség. Biztos, hogy a Ri legnagyobb és a legkisebb átlagos rangszámú különbözik, jelen példában a C és ni D mezők.
Megjegyzések:
Két minta esetén ugyanaz mint a Mann-Whitney próba. Szignifikancia esetén nem tudjuk megmondani, hogy ténylegesen melyikek különböznek (legkisebb-legnagyobb biztos). Ha a H 0 : med1 = med 2 = ... = med k hipotézis szeretnénk tesztelni, a medián próba kiterjeszthető több minta esetére. Nem független minták esetén a Friedman teszt használható.
Gyakoriságok elemzése Leszámolásos mintákra alkalmazható próbák. Klasszikus módszer: χ 2 próba. Alkalmazzák homogenitás, véletlenszerűség, függetlenség és illeszkedésvizsgálatra. Alapelv: megfigyelt gyakoriságokat összehasonlítása nullhipotézis alapján várt gyakoriságokkal. Ha az eltérés egy bizonyos kritikus értéknél nagyobb, akkor elutasítjuk a nullhipotézist. Lényeg: hogyan számítsuk ki a várt gyakoriságokat?
Illeszkedés vizsgálat (goodness-of-fit, GOF) „Tartható-e az az álláspont, hogy a vizsgált változó populációbeli eloszlása (eloszlásfüggvénye) egy feltételezett Fhipot eloszlás (eloszlásfüggvény)?”
χ 2 -próba Feltételek: a próbához a változó értékkészletét osztályokba kell sorolni és minden osztályra meghatározni az ei ún. várt gyakoriságot (a gyakoriság illeszkedés esetén várható értékét): a mintaelemszámot meg kell szorozni annak az i. osztálynak a feltételezett eloszlás szerinti valószínűségével. Akkora mintával kell dolgozni, vagy az osztályokat úgy megválasztani, hogy az ei-k ne legyenek 3-nál kisebbek, és 5-nél kisebbek is legfeljebb az osztályok 20%-ában.
H 0 :F ≡ F0
H1 : F ≠ F 0
P
0.4 0.3 0.2
2 4
6
10
0.1 5
10
15
20
χ
2
2 f i − ei ) ( , ahol fi a megfigyelt gyakoriság, ei a várt Próba-statisztika: χ = ∑ e k
2
i =1
i
gyakoriság, k pedig az osztályok száma. 2 Kritikus tartomány: K:{ χ 2 > χ krit } . A kritikus értéket a szignifikancia szintnek
megfelelően kell kikeresni. Tiszta illeszkedésvizsgálat: A feltételezett eloszlás típusa és paraméterei is ismertek. Szabadsági fok: k -1. Becsléses illeszkedésvizsgálat: Csak az eloszlás típusa ismert, a paramétereit becsüljük. Szabadsági fok: k-1-(becsült paraméterek száma).
Normalitást is ezzel a próbával vizsgálhatunk. k
df = 1 esetén szokták az ún. Yates korrekciót alkalmazni: χ 2 = ∑
( fi − ei
− 0.5)
2
,
ei de erről a statisztikusok véleménye különbözik, azt a módszert kell használni, amely a tudományterületen, vagy az adott folyóiratban szokásos. i =1
Példa:
Kockadobás. Az az elképzelésünk (modellünk), hogy a kocka szabályos, azaz minden szám egyforma (1/6) valószínűséggel fordulhat elő. A modell teszteléséhez dobáljuk a kockát, számoljuk az egyes előfordulások gyakoriságát, majd elvégezzük a χ 2 -próbát. Formálisan felírva a hipotéziseket:
érték
H0: A kocka szabályos H1: Nem szabályos 2 f i − ei ) ( χ =∑ , ahol fi a megfigyelt gyakoriság, e k
2
i =1
i
ei a várt gyakoriság, k pedig az osztályok száma.
1 2 3 4 5 6
megfigyelt (fi) várt (ei) gyakoriság 8 10 6 10 16 10 17 10 9 10 4 10
Behelyettesítve a képletbe:
( ( 8 − 10 )2 (6 − 10 )2 4 − 10 )2 χ = + + ... + 2
10 10 ⇒ elutasítjuk a nullhipotézist!
10
142 2 = = 14.2. > χ krit = 11.07 10
Kolmogorov-Szmirnov próba Az eloszlásfüggvények legnagyobb abszolút eltérését veszi csak figyelembe. Példa:
Házi rövidszőrű macskák étkezési preferenciáinak tesztelése. Ugyanaz a táp 5 féle nedvességtartalommal. 35 éhes macskát letettek egyenként az 5 táptól ugyanolyan távolságra. Melyiket választják? H0: A macskáknak nincs nedvesség preferenciája H1: Legalább egyfélét preferálnak Próba-statisztika: dmax=7 Táblázatból: dkrit(0.05, 5, 35)=7 K:{dmax ≥ dkrit} ⇒ H0-t elutasítjuk.
Nedves → száraz táp 1 2 3 4 5 fi 8 13 6 6 2 ei 7 7 7 7 7 kum fi 8 21 27 33 35 kum ei 7 14 21 28 35 di 1 7 6 5 0
Függetlenségvizsgálat – khi-négyzet próba „Tartható-e az az álláspont, hogy a két vizsgált változó független egymástól?” A próbához mindkét változó értékkészletét osztályokba kell sorolni (nem feltétlenül ugyanannyi osztályba!) és minden osztály-kombinációra (cellára) meghatározni az ún. várt gyakoriságot (eij) az alábbi képlettel: I
J
i =1
j =1
1
( ∑ f ij )( ∑ f ij )
eij =
I
J
,
∑ ∑ f ij
i =1 j =1
ahol I és J az egyik, illetve másik változó szerinti osztályok száma, fij pedig az i,j-edik cella mintabeli gyakorisága.
2
3
...
J-ik osztály
1 2 ... I-ik oszt.
ez a (2, 3)-ik
Feltételek: Akkora mintára van szükség, hogy az eij várt gyakoriságok ne legyenek 3nál kisebbek, és 5-nél kisebbek is legfeljebb a cellák 20 %-ában.
Nullhipotézis: H0: a két vizsgált változó független egymástól Ellenhipotézis: H1: nem függetlenek I
J
Próba-statisztika: χ 2 = ∑ ∑
( f ij − eij )2
, ahol fij a megfigyelt, eij a várt gyakoriság az
eij i,j-edik cellában, I és J pedig az egyik, illetve a másik változó szerinti osztályok száma. i =1 j =1
Elutasítási tartomány: {χ 2:χ 2≥χ χ2-eloszlás megfelelő kritikus értéke.
2
α},
ahol χ α2
az (I–1)(J–1) szabadsági fokú
Ha nem független két változó, akkor hogyan tudjuk mérni a kapcsolat erősségét? kontingencia táblázatok (nominális változók esetén) pl. asszociációs mértékekkel, ordinális skálák esetén pl. rangkorrelációval, intervallum skála esetén pl. a korrelációs együtthatóval.
Homogenitásvizsgálat „Tartható-e az az álláspont, hogy a vizsgált változó eloszlása (eloszlásfüggvénye) azonos a két populációban?”
Függetlenségvizsgálat A vizsgálatot visszavezethetjük függetlenségvizsgálatra egy új változó segítségével, amelynek értéke minden mintaelemre annak a populációnak a sorszáma, amelyből a mintaelem származik (1 vagy 2). Az, hogy a vizsgált változó ugyanolyan eloszlást követ a két populációban, ekvivalens azzal, hogy a vizsgált változó független ettől a sorszám-változótól. 1
A sorszám-változónak természetesen két osztálya van, a vizsgált változó értékeit pedig a függetlenségvizsgálat feltételeinek megfelelően kell osztályokba sorolni.
1 2 osztály (populáció)
2
3
...
J-ik osztály
Feltételek: lásd a függetlenségvizsgálatnál. Nullhipotézis: H0: F1=F2, ahol F1 és F2 az ismeretlen eloszlásfüggvények. Ellenhipotézis: H1: F1≠F2 Próba-statisztika: lásd a függetlenségvizsgálatnál. Elutasítási tartomány: lásd a függetlenségvizsgálatnál. Ezzel a módszerrel kettőnél több populációra is végezhető homogenitásvizsgálat. Ha nem lett volna érthető: mindkét mintát osztályokba soroljuk, azonos határokkal. A táblázat első sorába az első mintából, a második sorába a második mintából írjuk be a megfigyelt gyakoriságokat. Így az első sor az első mintára, a második a második mintára vonatkozik. Ha a két sorban az eloszlás azonos, az ugyanazt jelenti, mintha a két minta független lenne.
Fisher egzakt teszt 2x2-es kontingencia táblázatokra Ha túl kicsik a gyakoriságaink, akkor a χ 2 próba nem ad helyes eredményt (csak közelítés, nagy mintákra működik jól.) A Fisher egzakt teszt azt számítja ki, hogy az adott marginális eloszlások mellett mekkora az adott, illetve annál extrémebb táblázatok valószínűsége, ha feltételezzük a változók függetlenségét. Ha ez a valószínűség kicsi (<5%), akkor nem fogadjuk el a nullhipotézist. Példa:
Van 40 betegünk, akik részben pszichotikusok, részben neurotikusok, illetve részben éreznek öngyilkossági hajlamot, részben nem. Öngyilkossági pszichotikus neurotikus Összes hajlam Igen 2 6 8 Nem 18 14 32 Összes 20 20 40 Egy adott táblázat valószínűségét a hipergeometrikus eloszlás adja meg:
Az adott marginálisok mellett a táblázat valószínűsége:
Mit jelent az, hogy extrémebb? Kiválasztjuk azt az átlót, amelyben a gyakoriságok összege nagyobb, és azt még tovább növeljük (az adott irányú összefüggés irányába megyünk tovább.)
Itt úgy tűnik, mintha a neurotikusok kicsit hajlamosabbak lennének az öngyilkosságra, mint a pszichotikusok. Megnézzük, hogy mi a helyzet, ha még jobban eltoljuk ebbe az irányba a táblázatot:
Öngyilkossági hajlam Igen Nem Összes Öngyilkossági hajlam Igen Nem Összes
pszichotikus neurotikus Összes 1 19 20
7 13 20
8 32 40
pszichotikus neurotikus Összes 0 20 20
8 12 20
8 32 40
A példabeli táblázat valószínűsége, illetve a nála extrémebbeké:
Összesen:
Következtetés. A két tünet függetlennek tekinthető.