ANALÝZA VZTAHU DVOU SPOJITÝCH VELIČIN V dokumentu 7a_korelacni_a_regresni_analyza jsme řešili rozdíl mezi korelační a regresní analýzou. Budeme se teď věnovat pouze lineárnímu vztahu dvou veličin, protože je nejjednodušší a velmi často jej lze použít aspoň přibližně. Dále přijmeme předpoklad, že sledované veličiny jsou normální. V dalším textu se budeme zabývat speciálním případem REGRESNÍ ANALÝZY - metodou lineární regrese.
Základy lineární regrese Regrese je velmi často užívaná statistická metoda, která se zabývá problémem vysvětlení změn jedné veličiny závislostí na jedné nebo více jiných veličinách.
Uvažujme nejjednodušší případ, kdy vysvětlujeme veličinu Y lineární závislostí na jedné veličině X.
Lineární regrese Vidíme, že s rostoucí hodnotou veličiny x se zhruba lineárně mění i hodnota Y, body na obrázku kolísají kolem myšlené přímky, kterou bychom mohli naměřenými body proložit. Hodnoty veličiny Yi můžeme vyjádřit jako součet dvou složek:
Yi = β0 + β1xi + εi , kde i = 1,2,…,n (1) β0, β1 jsou neznámé koeficienty určující lineární závislost εi náhodná kolísání způsobená nepřesností měření, biologickou variabilitou a dalšími rušivými faktory Pokud střední hodnoty náhodného kolísání jsou nulové, pak E(εi) = 0 a rovnici (1) můžeme přepsat
E(Y | X = xi) = E(Yi) = β0 + β1xi
(2)
čili střední hodnoty náhodných veličin Yi za podmínky, že veličina X má hodnotu xi, leží na přímce dané rov. (2).
Lineární regrese Rovnice (1) a (2) formulují lineární regresní model jako vyjádření naší představy o závislosti veličiny Y na veličině X. - X je vysvětlující proměnná (regresor) - Y je vysvětlovaná proměnná. Neznámé koeficienty β0 , β1jsou parametry regresního modelu a říkáme jim regresní koeficienty. Odhad regresních koeficientů β0 a β1 z dat je jednou ze základních úloh regresní analýzy: potřebujeme nalézt takové hodnoty b0, b1, které by určovaly přímku
Ŷi = b0 + b1x1 co nejlépe prokládající naměřená data.
Hodnoty b0 , b1 jsou pak odhady regresních koeficientů β0 , β1 Ŷ je odhadem E( Y|x = xi) Co nejlepší proložení může být formulováno různými způsoby, nejčastěji se užívá metoda nejmenších čtverců (MNČ) (viz dále).
Lineární regrese - metoda nejmenších čtverců MNČ znamená, že hledáme takové hodnoty b0 (úsek, který vytíná přímka na ose Y) a b1 (směrnice přímky), aby součet čtverců odchylek pozorovaných hodnot Yi od hodnot Ŷi Se byl co nejmenší: n
Se = å i =1
(
Yi - Yˆi
Metodu nejmenších čtverců vysvětluje následující obrázek. Řešíme úlohu, jak volit hodnoty b0 a b1, aby součet ploch vyznačených čtverců byl co nejmenší.
) = å (Y - b - b x ) 2
n
i =1
2
i
0
1 i
® min
Nulová hypotéza Dokazovaná hypotéza o lineární závislosti obou veličin, jejímž modelem je regresní přímka, stojí proti nulové hypotéze, která říká, že mezi veličinami neexistuje žádný vztah a jejich uspořádání lze vysvětlit pouhou náhodou. Hypotézu nezávislosti veličin H0 modeluje přímka rovnoběžná s osou x protínající osu y ve střední hodnotě y a procházející bodem [x, y ]
Pokud bude statistický test významný, zamítáme hypotézu H0 a přijímáme hypotézu o lineární závislosti obou veličin. Princip testu spočívá v porovnání velikosti regresního a reziduálního rozptylu. Regresní rozptyl je vypočten pomocí vzdáleností od přímky H0 k regresní přímce, reziduální rozptyl pomocí vzdáleností od regresní přímky k naměřeným hodnotám - viz obrázek.
Lineární regrese Y – vysvětlovaná proměnná
H0
pro výpočet Reziduálního rozptylu
pro výpočet Regresního rozptylu
regresní přímka
X - vysvětlující proměnná
LINEÁRNÍ REGRESNÍ MODEL - příklad n
r. 1886 Francis Galton vytvořil model závislosti výšky prvorozených synů na výšce jejich otců n v této práci použil termín REGRESE n začal se používat jako název metody
n
Testujeme hypotézu H0: výška syna nezávisí na výšce otce n proti hypotéze H1: výška syna je lineárně závislá na výšce otce n cílem je zjistit, zda rozdíly mezi modely je možno vysvětlit pomocí náhody
n
Mějme dva matematické modely (v našem případě dvě přímky): n první přímka vyjadřuje nezávislost, je rovnoběžná s osou X (H0) n druhou přímku (H1) zkonstruujeme pomocí MNČ tak, aby svislé vzdálenosti pozorovaných hodnot byly od přímky co nejmenší n (svislé proto, že za závislou považujeme veličinu Y)
Model lineární regrese - vztah výšky otce a syna y
yi = b 0 + β1 xi + εi
180
160
170
Výška syna
reziduum – odchylka od modelu
190
x - nezávisle proměnná y - závisle proměnná i – jednotlivá pozorování
160
0
165
170
175
180
Výška otce
185
190
195
x
Lineární regrese
yi = α y.x + β y.x xi + εi
minimalizujeme
y 170
xi = α x.y + β x.y yi + εi
Výška syna
Co se stane když zaměním x ay?
180
190
minimalizujeme otec → syn =otec+zkreslení
Můžeme předpokládat kauzalitu? Jakou?
160
syn → otec =syn+zkreslení
x 160
165
170
175
180
Výška otce
185
190
195
LINEÁRNÍ REGRESNÍ MODEL Cílem regresního modelu je porovnat rozdíl mezi - modelem hypotetického rozdělení H0: výška syna nezávisí na výšce otce - a modelem HA: výška syna je lineárně závislá na výšce otce. H0 jsme stanovili jako přímku Y = b0 (b1 = 0) HA je regresní přímka Y = β0 + β1xi + εi Součet čtverců odchylek závisle proměnné Y od jejího odhadu můžeme rozdělit na dvě části: 1. variabilitu vysvětlenou regresním modelem (rozdíl mezi HA a H0) 2. a na část, kterou model nevysvětluje, která zbývá, tedy je residuální (rozdíl mezi HA a naměřenými hodnotami - tedy ε) Analogicky jako u analýzy rozptylu bude testovací statistika podíl součtu čtverců odchylek dělených počtem stupňů volnosti.
LINEÁRNÍ REGRESNÍ MODEL Testovací statistika se vypočte jako podíl - čtverců očekávaných odchylek HA - H0 dělený počtem stupňů volnosti - a čtverců reziduálního rozptylu dělený počtem stupňů volnosti. 2 S S reg .
p -1 F= 2 S S rez . n- p
počet stupňů volnosti v čitateli vypočteme jako počet parametrů regresního modelu mínus počet parametrů odhadovaných u H0 (p - 1) počet stupňů volnosti ve jmenovateli jako počet naměřených hodnot mínus počet parametrů regresního modelu (n - p) n … počet měření p … počet parametrů regresní přímky: p = 2 1 … počet odhadovaných parametrů hypotézy H0
Zobrazení vztahu dvou nezávislých spojitých veličin Dvojice náhodných SPOJITÝCH VELIČIN X a Y. Jejich sdružené rozložení má dvourozměrnou hustotu f(x,y)
Sdružená hustota dvou závislých veličin
ANALÝZA VZTAHU DVOU SPOJITÝCH VELIČIN Třírozměrný graf sdružené hustoty (sdruženého rozložení) dvou veličin na předchozím obrázku vyjadřuje závislost obou náhodných veličin. Průmětu jedné veličiny do roviny říkáme marginální hustota. Rozložení jedné veličiny např. X pouze u těch objektů, pro které platí Y = y (druhá veličina = konstantě) je tzv. podmíněném rozložení a můžeme si ho představit jako řez celkovým rozložením v bodu Y = y. Tyto podmíněné funkce hustoty jsou na rozdíl od marginální hustoty obvykle užší a to tím více, čím pevnější je vazba mezi X a Y.