Mendelova zemědělská a lesnická univerzita v Brně Institut celoživotního vzdělávání Fakulta regionálního rozvoje a mezinárodních studií
STATISTIKA pro TZP Modul 2: Pravděpodobnost a náhodné veličiny
Prof. Ing. Bohumil Minařík, CSc.
Brno 2009
2
Vysvětlení použitých symbolů
Průvodce studiem — objevuje se v úvodu a závěru modulu, zahajuje každou lekci, formuluje hlavní problémy, snaží se motivovat čtenáře, poukazuje na návaznosti v problematice Abecední rejstřík použitých pojmů v úvodní části každé lekce. Rekapituluje všechny důležité odborné termíny zavedené v lekci.
Σ
• • • • • • •
„Bleskové“ otázky/úkoly v textu. Pokud jsou číslovány, čtenář nalezne v závěru lekce příslušné odpovědi. Čtenář by se je měl snažit splnit dříve, než postoupí dál.
Souhrn problematiky lekce. Následuje po textu lekce.
Odpovědi na „bleskové“ otázky v textu lekce.
Cvičení k lekci. Pokud je to účelné a možné, nalezne čtenář řešení úkolů na konci modulu. Klíč ke cvičením ke všem lekcím v závěru modulu.
Struktura modulu
• • •
titulní list, použité symboly, struktura modulu a lekcí, obsah modulu, průvodce studiem modulu – úvod, jednotlivé lekce modulu, klíč ke cvičením ke všem lekcím, průvodce studiem modulu – závěr.
• • •
3
Struktura lekce průvodce studiem lekce, abecední rejstřík pojmů, text lekce proložený „bleskovými“ otázkami a úkoly, souhrn lekce, odpovědi na „bleskové“ otázky, cvičení k lekci.
Obsah modulu Průvodce studiem modulu — úvodní část
5
Lekce 1
6
1.1. 1.2. 1.3. 1.4. 1.5.
Náhodné jevy a pravděpodobnost
Náhodné jevy Klasická pravděpodobnost Statistická pravděpodobnost Počítání s pravděpodobnostmi Opakované pokusy
Lekce 2
6 8 8 10 11
Diskrétní náhodná veličina
15
2.1. Rozdělení pravděpodobnosti diskrétní náhodné veličiny 2.2. Charakteristiky diskrétní náhodné veličiny 2.3. Některé zákony rozdělení diskrétních veličin
Lekce 3
Spojitá náhodná veličina
15 17 18
22
3.1. Rozdělení pravděpodobnosti spojité náhodné veličiny 3.2. Charakteristiky spojité náhodné veličiny 3.3. Některé zákony rozdělení spojitých náhodných veličin 3.4. Výpočty s normálním rozdělením
22 24 26 29
Klíč ke cvičením
32
Průvodce studiem — závěrečná část
35
4
V našem životě, profesním, odborném i obecně lidském, se běžně stáváme svědky i přímými účastníky dějů, u nichž nelze s jistotou předpovědět jejich výsledek. A co víc — výsledek je nejistý, i když je vše zdánlivě pečlivě připraveno a pod kontrolou. Kromě jiného je to např. manažerské rozhodování, které jen výjimečně probíhá za jistoty (určité rozhodnutí přinese předem známý jistý výsledek), ale mnohem častěji za rizika (očekávaný výsledek se dostaví pouze s určitou pravděpodobností). Pojem pravděpodobnost, pravděpodobný, pravděpodobně jsou běžnou součástí hovorové řeči. My ovšem s tímto pojmem musíme zacházet opatrněji a kvalifikovaněji, protože pravděpodobnost je současně metodou kvantifikace možnosti nastoupení (nebo naopak nenastoupení) očekávaných jevů. O pravděpodobnosti se hovoří v souvislosti s náhodnými jevy a náhodnými veličinami, jejichž pravděpodobnostním chováním se hodláme v tomto modulu zabývat. Vedle několika jiných „definic“ pravděpodobnosti (zcela exaktně tento pojem definovat nebudeme), se budeme zabývat především rozdělením pravděpodobnosti náhodných veličin. Pojem „rozdělení“ jistě připomíná pojem rozdělení četností z prvního modulu. Analogie je zřejmá, což je podtrženo tím, že rozdělení četností při bodovém třídění má svůj protějšek v rozdělení pravděpodobnosti diskrétní náhodné veličiny, zatímco intervalové rozdělení četností nachází svůj protějšek v rozdělení pravděpodobnosti spojité náhodné veličiny.
Tento druhý modul se ve třech lekcích věnuje • • •
náhodným jevům, jejich pravděpodobnostem a počítání s nimi, rozdělením pravděpodobnosti diskrétní náhodné veličiny, rozdělením pravděpodobnosti spojité náhodné veličiny.
5
Lekce 1
Náhodné jevy a pravděpodobnost Výklad pravděpodobnosti musí začít nevyhnutelně od základních pojmů. Pravděpodobnost, velmi zjednodušeně řečeno, pojednává o náhodných jevech (slovně vyjádřených výsledcích náhodných pokusů) a o náhodných veličinách (výsledcích náhodných pokusů vyjádřených číselně). Tato první lekce zůstává na úrovni náhodných jevů. Vedle náhodných jevů operujeme rovněž s jevy jistými a nemožnými a také s jevy, které se svými vlastnostmi těmto jevům maximálně blíží (jev prakticky jistý, jev prakticky nemožný). Náhodné jevy se nevyskytují jednotlivě, ale minimálně ve dvojicích nebo i větších skupinách. Objevuje se tedy problém vztahů mezi jevy, který přináší množství pojmů, jako např. sjednocení jevů, průnik jevů, neslučitelnost, opačné jevy a jiné. Klíčovým pojmem první lekce bude pojem pravděpodobnosti, jako matematické veličiny, která kvantifikuje náhodu. Seznámíme se s několika speciálními případy pravděpodobnosti a jejími vlastnostmi. Univerzálně ovšem pojem pravděpodobnost zavádět nebudeme. Poznáme, že vedle „obyčejné“ pravděpodobnosti, která se vztahuje k jednomu náhodnému jevu, existují i komplikovanější případy podmíněné a úplné pravděpodobnosti, stejně jako pravděpodobnosti apriorní a aposteriorní. Poznáme jeden z klíčových vztahů ve dvojici nebo větší skupině náhodných jevů — nezávislost jevů. Vzhledem k tomu, že náhodné pokusy nejsou unikátní, neopakovatelné (sériová výroba, hromadná obsluha), budeme hovořit také o sériích za stejných podmínek vykonávaných pokusů — opakovaných pokusech. V této souvislosti se zmíníme také o výběru s opakováním a výběru bez opakování, které mají řadu praktických aplikací.
aposteriorní pravděpodobnost; apriorní pravděpodobnost; Bayesova pravděpodobnost; Bernoulliův vzorec; čtyřpolní tabulka; důsledek; elementární jev; jistý jev; klasická pravděpodobnost; náhodný jev; náhodný pokus; nemožný jev; neslučitelnost; nezávislé pokusy; nezávislost; opačné jevy; opakované pokusy; podmíněná pravděpodobnost; prakticky jistý jev; prakticky nemožný jev; průnik; sjednocení; statistická pravděpodobnost; úplná pravděpodobnost; úplná skupina; Vennův diagram; závislé pokusy
1.1 Náhodné jevy Každý děj, jehož výsledek nelze bezezbytku předpovědět (vyroben může být dobrý nebo vadný výrobek, technické měření může ale nemusí být zatíženo hrubou chybou, v určitém časovém intervalu může ale nemusí dojít k poruše zařízení atd.), nazýváme náhodný pokus. Slovně vyjádřené výsledky náhodných pokusů nazýváme náhodné jevy a pro jejich značení využíváme velká písmena ze začátku abecedy, tj, A, B, C,… Vedle náhodných jevů je vhodné zavést pojmy jistý jev (značíme I) a nemožný jev (značíme V). Význam těchto jevů je zřejmý z jejich názvů.
Najděte příklady náhodných pokusů, náhodných, jistých a nemožných jevů z Vašeho dosavadního studia či praxe.
Je-li výsledkem náhodného pokusu nastoupení jevu A, jde o případ příznivý jevu A.
Každému náhodném pokusu přísluší množina možných případů — elementárních jevů. Možné případy mají tyto vlastnosti
6
jsou neslučitelné (disjunktní) — nastane-li jeden, nemůže současně nastat jiný, tvoří úplnou skupinu — nemůže nastat žádný jiný případ, jsou nerozložitelné — každý z nich může nastat právě jedním způsobem. Každý náhodný jev je buď elementárním jevem nebo jevem složeným z elementárních jevů.
Ukažte elementární jevy na případu hodu hrací kostkou! Pojmenujte jevy „padnutí sudého čísla“, „padnutí nejméně trojky“ apod. Příklad házení kostkou volíme proto, že jde o názorný a všeobecné známý případ náhodného pokusu.
Pro dvojici jevů A, B můžeme formulovat tyto vztahy
Platí-li, že nastane-li jev A, nastane vždy současně i jev B, říkáme, že jev A je částí jevu B (nebo že jev B je důsledkem jevu A) a píšeme A ⊂ B . Pokud současně platí A ⊂ B, B ⊂ A , jsou jevy A, B totožné. Existuje jev, spočívající v tom, že nastane alespoň jeden z jevů A, B. Tento jev je sjednocením jevů A, B. Píšeme A ∪ B . Platí A ∪ B = B ∪ A , A ∪ A = A , A ∪ I = I , A ∪ V = A . Existuje-li jev, spočívající ve společném nastoupení jevů A, B, je tento jev průnikem jevů A, B. Píšeme A ∩ B . Jsou-li jevy A, B neslučitelné, je jejich průnik jevem nemožným, a tedy A ∩ B = V . Platí A ∩ B = B ∩ A , A ∩ A = A , A ∩ I = A , A ∩ V = V . Jev, spočívající v nenastoupení jevu A, se nazývá jevem opačným k jevu A. Opačný jev k jevu A označíme A . Platí A ∪ A = I , A ∩ A = V .
Ukažte výše uvedené vztahy mezi jevy na případu házení hrací kostkou! n
Operace sjednocení a průniku lze zobecnit pro n-tici jevů A1 , A2 ,..., An :
n
∪ Ai , ∩ Ai . i =1
i =1
Příklad 1.1 Pomocí výše uvedených vztahů zapíšeme, že jevy A1 , A2 ,..., An tvoří úplnou skupinu neslučitelných jevů. n
To, že jevy tvoří úplnou skupinu
i ≠ j.
∪A
i
= I , to, že jevy jsou po dvou neslučitelné Ai ∩ A j = V pro
i =1
Příklad 1.2 Vyjádříme nastoupení jevu A při nenastoupení jevu B (jde o rozdíl jevů A – B): A − B = A ∩ B .
Jak vyjádříme, že nastal právě jeden (libovolný) z jevů A,
B? (1–1)
Pro grafickou prezentaci vztahů mezi jevy se využívají všeobecně známé množinové Vennovy diagramy. Pomáhejte si jimi vždy, když si eventuálně s úlohou „nevíte rady“, např. pro úkol (1–1) hledáme vybarvenou část diagramu
7
1.2 Klasická pravděpodobnost Předpokládáme náhodný pokus s konečným počtem stejně možných případů n. Počet případů příznivých jevu A označíme m. Klasická pravděpodobnost jevu A je dána jako P ( A) =
m = p . Vzhlen
dem k vlastnostem m, n je 0 ≤ p ≤ 1 . Počet možných a příznivých případů je často značný. Proto k jejich vyčíslení využíváme kombinatorických výpočtů. Příklad 1.3 V krabici je 20 žárovek, z nichž tři jsou vadné. Z krabice je odebráno pět žárovek. Jaká je pravděpodobnost, že dvě z nich jsou vadné?
20 20! = = 15504 . 5 ( 20 − 5)!5!
Počet způsobů, kterými lze vybrat pět žárovek z 20:
Počet způsobů, kterými lze ze 17 dobrých žárovek odebrat tři a současně ze zbývajících tří vadných
17 3 17! 3! = = 680 ⋅ 3 = 2040 . 3 2 (17 − 3)!3! (3 − 2)!2!
vybrat dvě:
Pravděpodobnost jevu je tedy P ( A) =
2040 = 0,1316 . 15504
Jakou pravděpodobnost mají v příkladu 1.3 jevy, že (a) výběr bude obsahovat všechny tři vadné žárovky, (b) žádná žárovka ve výběru nebude vadná. (1–2)
Klasická pravděpodobnost je založena na logickém rozboru možných výsledků pokusu (který není třeba vykonávat) a vyžaduje konečný počet stejně možných případů.
1.3 Statistická pravděpodobnost Za stejných podmínek vykonáváme určitý náhodný pokus a zaznamenáváme jeho výsledky. Vždy po vykonání určitého počtu pokusů vyčíslíme relativní četnost příznivých případů (např. hodíme-li 20krát mincí, přičemž padlo 12 líců a 8 rubů a příznivým případem je padnutí líce, je relativní četnost padnutí líce
12 = 0,6 ). Pozorujeme-li, že relativní četnost se po vykonání určitého počtu pokusů sta20
bilizovala a další vykonané pokusy její hodnotu prakticky nemění, vyhlásíme tuto stabilizovanou relativní četnost za statistickou pravděpodobnost. Z vlastností relativní četnosti opět plyne 0 ≤ p ≤ 1 . Příklad 1.4 Při kontrole jakosti byla po vyšetření 10 výrobků zjištěna nulová relativní četnost vadných výrobků. Po vyšetření 50 výrobků byla zjištěna relativní četnost vadných výrobků 0,04. Po vyšetření 100 výrobků byla zjištěna relativní četnost vadných výrobků 0,03. Po vyšetření 200 a 300 výrobků byla shodně určena relativní četnost vadných výrobků 0,02. Pokus ukončíme s tím, že relativní četnost považujeme za stabilizovanou na hodnotě pravděpodobnosti P ( A) = 0,02 .
Znázorněte průběh pokusu graficky. Na vodorovnou osu vyneste počet pokusů a na svislou osu relativní četnost.
Statistická pravděpodobnost je založena na vykonání natolik početné série náhodných pokusů, která umožní stabilizovanou relativní četnost příznivých případů prohlásit za pravděpodobnost jevu.
8
Vlastnosti pravděpodobnosti formulujeme zobecněním vlastností klasické a statistické pravděpodobnosti Pravděpodobnost je nezáporná a nabývá maximální hodnoty jedna, 0 ≤ P ( A) ≤ 1 . Pravděpodobnost jistého jevu je rovna jedné, P ( I ) = 1 . Pravděpodobnost nemožného jevu je rovna nule, P (V ) = 0 . Pravděpodobnost nastoupení alespoň jednoho z n–tice neslučitelných jevů je rovna součtu jen
n
i =1
i =1
jich pravděpodobností (aditivita): P ( ∪ Ai ) = ∑ P ( Ai ) .
Jestliže jev B je důsledkem jevu A, platí P( A) ≤ P( B) . Pravděpodobnost opačného jevu je doplňkem pravděpodobnosti původního jevu do jedné, P( A) = 1 − P( A) . Vedle uvedené klasické a statistické pravděpodobnosti existují další koncepty pravděpodobnosti — pravděpodobnost geometrická — pravděpodobnost je prezentována jako míra (délka, plocha, objem) geometrického útvaru (hodí se např. při grafické prezentaci jevů pomocí Vennových diagramů) nebo pravděpodobnost subjektivní (odborně nebo laicky odhadovaná, např. pravděpodobnost zvýšení pojistného v závislosti na vývoji na pojistném trhu). Nejdůležitějším případem pravděpodobnosti bude pro nás rozdělení pravděpodobnosti náhodné veličiny v dalších lekcích. Všechny tyto koncepty jsou zvláštními případy tzv. axiomatické definice pravděpodobnosti, která je společně zastřešuje.
1.4 Počítání s pravděpodobnostmi Jsou dány obecné (slučitelné) jevy A, B se známými pravděpodobnostmi P ( A), P ( B ) . Pak pravděpodobnost jejich sjednocení je rovna P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B ) , přičemž pravděpodobnost jejich průniku nelze z pouhé znalosti pravděpodobností P ( A), P ( B ) dovodit. Pravděpodobnost průniku P ( A ∩ B ) vyplyne z rekapitulace pravděpodobností všech možných kombinací nastoupení jevů A, A, B, B ve čtyřpolní tabulce Jev Součet B B
A
P( A ∩ B )
P( A ∩ B )
P ( A)
A
P( A ∩ B ) P( B )
P( A ∩ B )
P ( A) P( I )
Součet
P( B )
Všimněme si v této chvíli, že např. platí P ( A) = P ( A ∩ B ) + P ( A ∩ B ) a podobně i pro
P ( A) , P ( B ), P ( B ) . Tyto vztahy za chvíli využijeme. Příklad 1.5 Při přejímací kontrole bylo nalezeno 5 % výrobků s funkční vadou (jev A) a 8 % výrobků se vzhledovou vadou (jev B). Obě vady současně mělo 2 % výrobků. Považujme tyto podíly za stabilizované a sestavme čtyřpolní tabulku pravděpodobností Jev
B
Součet 0,02 0,03 0,05 A 0,06 0,89 0,95 A Součet 0,08 0,92 1,00
B
9
Vyjádřete slovně jev, který má v tabulce pravděpodobnost 0,89. Najděte pravděpodobnost nalezení výrobku, který má jen vzhledovou vadu.
Příklad 1.6 Najdeme nyní pravděpodobnosti nalezení výrobku se vzhledovou vadou mezi výrobky, které mají/nemají funkční vadu (víme, že tato pravděpodobnost mezi všemi výrobky je rovna 0,08). Hledané pravděpodobnosti označíme P ( B | A), P ( B | A) a stanovíme jako
P( B | A) =
P( A ∩ B ) 0,02 = = 0,40 (hodnoty bereme z prvního řádku tabulky), P( A) 0,05
P( A ∩ B ) 0,06 = = 0,0632 (hodnoty bereme z druhého řádku tabulky). 0,95 P( A) Z výsledků vyplývá, že je mnohem pravděpodobnější (0,40) najít výrobek se vzhledovou vadou mezi výrobky, které mají funkční vadu, než mezi výrobky, které funkční vadu nemají (0,0632). P( B | A) =
Jaký vztah je mezi všemi třemi pravděpodobnostmi?
P( B ) = P( A ∩ B ) + P( A ∩ B ) = P( B | A) P( A) + P( B | A) P( A) = = 0,02 + 0,06 = 0,40 ⋅ 0,05 + 0,0632 ⋅ 0,95 = 0,08 Podmíněná, úplná a aposteriorní pravděpodobnost, nezávislost Jsou dány jevy A, H ( H ≠ V ). Pravděpodobnost P ( A | H ) =
P( A ∩ H ) se nazývá podP( H )
míněná pravděpodobnost jevu A za podmínky H. Pravděpodobnost P ( A) = P ( A | H ) P ( H ) + P ( A | H ) P ( H ) se nazývá úplná pravděpodobnost jevu A. Pravděpodobnost průniku jevů A, H stanovíme jako P ( A ∩ H ) = P ( A | H ) P ( H ) . Podmíněná pravděpodobnost P ( A | H ) se rovná úplné pravděpodobnosti P ( A) , pokud P ( A ∩ H ) = P ( A) P ( H ) . Vztah mezi jevy A, H v tomto posledním případě se nazývá nezávislost. Pravděpodobnost P ( H | A) =
P( A ∩ H ) se nazývá aposteriorní (Bayesovskou) pravděpoP ( A)
dobností jevu H. Všechny uvedené pravděpodobnosti využijeme v následujícím příkladu. Příklad 1.7 Odběratel odebírá součástky od dvou výrobců. První výrobce dodává 2 % vadných součástek a druhý 8 %. Od prvního dodavatele pochází 60 % dodaných součástek. Označíme jev H , P ( H ) = 0,6 , že součástka pochází od prvního a H , P ( H ) = 0,4 , že součástka pochází od druhého výrobce. Podmíněná pravděpodobnost nalezení vadné součástky mezi součástkami od prvního výrobce je P ( A | H ) = 0,02 , mezi součástkami druhého výrobce P ( A | H ) = 0,08 . Vidíme, že zadány jsou podmíněné pravděpodobnosti. Vypočteme úplnou pravděpodobnost nalezení vadné součástky bez ohledu na to, od kterého výrobce pochází P ( A) = 0,02 ⋅ 0,6 + 0,08 ⋅ 0,4 = 0,044 .
10
Vypočteme pravděpodobnost, že nalezená vadná součástka (mezi všemi) pochází od prvního výrobce P ( A ∩ H ) = 0,02 ⋅ 0,6 = 0,012 . Vypočteme, jaká by byla tato pravděpodobnost, pokud by pravděpodobnost nalezení vadné součástky nezávisela na výrobci P ( A ∩ H ) = 0,044 ⋅ 0,6 = 0,0264 . Konečně vypočteme pravděpodobnost, že součástka pochází od prvního výrobce, pokud je vadná.
0,012 = 0,273 . Vidíme, že po zjištění, že součástka je vadná, se původní pravděpodob0,044 nost, že pochází od prvního výrobce (0,60) snížila na 0,273.
P( H | A) =
Jaká by v příkladu 1.5 byla pravděpodobnost, že výrobek nemá žádnou vadu/má současně obě vady, pokud by výskyt vzhledové a funkční vady byly nezávislé jevy? (1–3)
Z výše uvedených vztahů upozorníme na to, že jsme našli metodu stanovení pravděpodobnosti průniku dvojice jevů ve zcela obecném případě a kromě toho jsme zavedli pojem nezávislé jevy. K nezávislosti dvojice jevů stačí, aby pravděpodobnost jejich průniku byla rovna součinu jejich pravděpodobností. Aposteriorní pravděpodobnost předpokládá, že původní (apriorní) pravděpodobnost jevu lze korigovat na základě známého výsledku náhodného pokusu. Nezávislost můžeme zobecnit na n–tici jevů A1 A2 ,..., An . Pokud jsou tyto jevy vzájemně nezán
n
i =1
i =1
∩ Ai ) = ∏ P( Ai ) . Při tom
vislé, musí (ovšem kromě jiného!) splňovat i P (
∏
je symbol součinu.
1.5 Opakované pokusy Nezávislé opakované pokusy Jsou-li výsledky opakovaných pokusů nezávislé jevy, využijeme poznatky o nezávislosti z předešlého odstavce. Jev, jehož pravděpodobnost v jediném pokusu je p, má pravděpodobnost, že nastane ve dvou nezávislých pokusech p ⋅ p = p 2 , ve třech p 3 atd. Principem je stanovit pravděpodobnost, že bude dosaženo určitého počtu (x) úspěchů (tj. nastoupení jevu A) v sérii n ( n ≥ x ) pokusů, je-li známa pravděpodobnost nastoupení jevu A v jediném pokusu P ( A) = p . Pravděpodobnost, že jev nastane právě x–krát, je rovna p x , pravděpodobnost, že ve zbývajících n – x pokusech nenastane, je rovna (1 − p ) n − x . Mají-li oba jevy nastoupit společně, musí být p x (1 − p ) n − x . Nejde však o úspěch v určitých x pokusech, nýbrž v libovolných pokusech, bez ohledu na pořadí. Je tedy třeba ještě zjistit, kolika možnými způsoby se úspěchy a
n
neúspěchy mohou v daném případě „prostřídat“. Tento počet je dán kombinačním číslem . x
Pravděpodobnost, že mezi n nezávislými opakovanými pokusy se vyskytne právě x úspěchů, je
n P (n; p; x) = p x (1 − p ) n− x . Tento vzorec je známý pod označením Bernoulliův vzorec. x Příklad 1.8 Kontrola vrací k opravě nebo doplnění 15 technických výkresů ze sta. Určíme pravděpodobnost, že z pěti výkresů (a) nebude vrácen žádný, (b) budou vráceny dva, (c) budou vráceny všechny. Vrácení výkresu je jev A s pravděpodobností P ( A) =
11
15 = 0,15; n = 5; x = 0;2;5 . 100
5 0 5 c) P (5;0,15;5) = 0,15 5 0,85 0 = 8 ⋅ 10 −5 . 5
5 2
a) P (5;0,15;0) = 0,15 0 0,85 5 = 0,444 , b) P (5;0,15;2) = 0,152 0,853 = 0,138 ,
Vypočtěte pravděpodobnosti pro všechny zbývající v úvahu přicházející hodnoty počtu vrácených z pěti výkresů. Tyto pravděpodobnosti budete později potřebovat.
Zvláštní pozornost věnujme nyní výsledku c). Jevy, které sice nejsou (absolutně) nemožné/jisté, ale jejich pravděpodobnost je extrémně blízká nule/jedné, označujeme jako jevy prakticky nemožné/prakticky jisté. Kalkulujeme s tím, že v jednom pokuse jev prakticky jistý nastane, zatímco jev prakticky nemožný nenastane. Pravděpodobnost, že očekávaný výsledek nenastane, je nízká a nazývá se riziko. Význam právě takových jevů s „očekávatelným“ chováním už v jediném pokusu, je v mnoha úvahách zcela zásadní.
Závislé opakované pokusy Formulujme tuto situaci: Z konečného souboru N jednotek, z nichž M (M < N) má nějakou vlastnost, je současně (jedním tahem) odebráno n (n < N) jednotek, z nichž u předem neznámého počtu x ( max{0; M − N + n} ≤ x ≤ min{n; M }) se rovněž objeví daná vlastnost. Úkolem je určit pravděpodobnost x pro zadaná N, M, n, kterou označíme jako P(N;M;n;x). Při tom
M N − M x n − x P( N ; M ; n; x) = . N n Pokud jde o příklad, odkazujeme zcela na příklad 1.3 v odstavci 1.2. Vzhledem k tomu, že v technických aplikacích opakované pokusy často souvisí s vybíráním, je třeba uvést, že zatímco výsledky výběru s opakováním (vracením) představují nezávislé opakované pokusy, jde u výběru bez opakování (vracení) o závislé opakované pokusy. Rozdíl mezi oběma výběry se stírá tím více, čím menší je podíl vybíraných jednotek z jejich celkového počtu.
Při výběru s opakováním se každá prošetřená jednotka před dalším tahem vrací mezi ostatní. Odpovězte na otázky kolikrát se určitá jednotka může objevit ve výběru, jak se změní množina ze které vybíráme po provedení např. k tahů, jaký je maximální počet tahů, který lze provést a jak rozsáhlý výběr (alespoň teoreticky) lze tudíž pořídit. (1–4)
Na stejné otázky odpovězte, pokud vybranou jednotku nevracíme.
12
Σ
1. Mnoho dějů různého charakteru, které můžeme kolem sebe pozorovat, má charakter náhodných pokusů. Jejich slovně vyjádřené výsledky se nazývají náhodné jevy. 2. Každý náhodný pokus má svoji množinu možných případů — elementárních jevů. 3. Pro dvojici (někdy i pro větší skupinu) jevů můžeme formulovat vztahy jako důsledek, sjednocení, průnik, rozdíl. 4. Dva jevy, které tvoří úplnou skupinu neslučitelných jevů, se nazývají jevy opačné. 5. Konečný počet stejně možných případů vede ke klasické pravděpodobnosti. 6. Stabilizace relativních četností s rostoucím počtem pokusů vede ke statistické pravděpodobnosti. 7. Pravděpodobnost jako matematická veličina má řadu vlastností. 8. Snaha o stanovení pravděpodobnosti sjednocení a průniku jevů nás dovede k podmíněné a úplné pravděpodobnosti. 9. Speciální vlastností pro dvojici nebo větší skupinu jevů je jejich (vzájemná) nezávislost. 10. Aposteriorní pravděpodobnost předpokládá, že apriorní pravděpodobnost jevu lze korigovat na základě známého výsledku vykonaného pokusu. 11. Bernoulliův vzorec popisuje pravděpodobnost, že v řadě nezávislých pokusů zaznamenáme právě určitý počet úspěchů. 12. Tuto pravděpodobnost lze rovněž stanovit pro řadu závislých pokusů. 13. Modelovým případem nezávislých pokusů je výběr s opakováním. Modelovým případem závislých pokusů je výběr bez opakování. 14. Ve výkladu jsme narazili na pojmy prakticky jistý a prakticky nemožný jev. Tyto jevy společně s pojmem riziko mají v řadě aplikací klíčový význam.
( A − B ) ∪ ( B − A) = A ∩ B ∪ A ∩ B .
(1–1)
Jde o sjednocení
(1–2)
Pro x = 0 to bude
(1–3)
P ( A ∩ B ) = P ( A) P ( B ) = 0,874; P ( A ∩ B ) = 0,004 .
(1–4)
Libovolněkrát, množina je identická, není omezený, nekonečně rozsáhlý.
6 ⋅ 10 −5 , pro x = 5 to bude 0,3991 .
1. Nakreslete Vennovy diagramy pro A ⊂ B; A ∪ B; A ∩ B; A − B; A, A . 2. Odběratel provádí při přejímce suroviny kontrolu, která označí produkt jako „kvalitní“, pokud skutečně takový je, s pravděpodobností 0,995. Naopak za „nekvalitní“ označí produkt (pokud skutečně nekvalitní je) s pravděpodobností 0,98 (žádná kontrolní metoda není 100% spolehlivá!). Dodavatel je schopen dodávat produkt, který splňuje pod-
13
mínky kvality, s pravděpodobností 0,97 (žádný produkt není 100% kvalitní!). Uvozovkami rozlišujeme skutečný stav produktu (kvalitní, nekvalitní) a výsledek kontroly („kvalitní“, „nekvalitní“), což jsou dvě různé kategorie. Označíme-li jako jev H to, že produkt je kvalitní, je P ( H ) = 0,97 ( P ( H ) = 0,03) , označíme-li jev A, že produkt prošel kontrolou jako „kvalitní“, za podmínky, že takový skutečně byl, je P ( A | H ) = 0,995 a že nekvalitní produkt byl označen jako „nekva-
P( A | H ) = 0,98 . Naproti tomu pravděpodobnost, že výrobek projde kontrolou jako „kvalitní“ (ať už kvalitní je nebo není) je úplná pravděpodobnost P ( A) a naopak, litní“
že výrobek bez ohledu na kvalitu neprojde kontrolou, je P ( A) . Je zřejmé, že výsledek kontroly není stoprocentně v souladu se skutečností a existují dva druhy chybných výsledků kontroly: • Nekvalitní produkt je označen jako „kvalitní“. Tímto výsledkem je poškozen odběratel. Pravděpodobnost, že tato situace nastane, se nazývá riziko odběratele. • Kvalitní výrobek je označen jako „nekvalitní“ a je odběratelem odmítnut. Tímto výsledkem je poškozen dodavatel. Pravděpodobnost této situace se nazývá riziko dodavatele. Stanovíme obě rizika a současně pravděpodobnosti správných rozhodnutí a sestavíme je do čtyřpolní tabulky
Skutečnost kvalitní nekvalitní Součet (jev H) (jev H ) „kvalitní“ (jev A) Výsledek kontroly „nekvalitní“ (jev A ) Součet 0,97000
0,03000 1,00000
3. Ve stejné tabulce jako v předchozím příkladě vyplňte pravděpodobnosti za předpokladu, že výsledek kontroly by byl nezávislý na skutečné kvalitě produktu. 4. Pro příklad 1.7 vypočtete pravděpodobnost, že součástka pochází od prvního výrobce, pokud není vadná. 5. Kolik nezávislých pokusů je třeba vykonat, aby jev, jehož pravděpodobnost v jednom pokusu je rovna p, nastal s pravděpodobností π → 1 alespoň jednou.
P ( X > 0) = 1 − P ( X = 0) = 1 − (1 − p ) n = π . 6. Vypočtěte úlohu 5 pro π = 0,99; p = 0,5 . 7. Pro závislé opakované pokusy je N = 20, n = 12, M = 14 ( M = 7) . Určete interval možných hodnot x pro obě varianty čísla M. Nápověda: Hledáme
14
Lekce 2
Diskrétní náhodná veličina Výsledek náhodného pokusu může být vyjádřen slovně — to vede k zavedení pojmu náhodného jevu. Výsledek náhodného pokusu můžeme někdy vyjádřit i číselně, což vede k pojmu náhodné veličiny. Např. při hodu kostkou můžeme hovořit buď o „padnutí šestky“ nebo můžeme říci, že náhodná veličina X, kterou je počet ok na kostce, se realizovala v hodnotě x = 6 . Žádnou preciznější definici náhodné veličiny nebudeme uvádět. Pro diskrétní náhodnou veličinu je klíčová izolovanost jejích hodnot a počet možných realizací, který je buď konečný nebo nejvýše spočetně nekonečný. Na věci nic nemění, že diskrétní náhodná veličina často nabývá celočíselných hodnot, mnohdy navíc pouze nezáporných (počet poruch za jednotku času, počet požadavků na obsluhu, počet měření zatížených hrubou chybou apod.)
alternativní rozdělení; binomické rozdělení; diskrétní veličina; distribuční funkce; hypergeometrické rozdělení; konečnostní násobitel; kovariance; nezávislost; parametry; Poissonovo rozdělení; pravděpodobnostní funkce; rozdělení pravděpodobnosti; rozptyl; směrodatná odchylka; sdružená distribuční funkce; sdružená pravděpodobnostní funkce; střední hodnota; úroveň; variabilita; variační koeficient; zákon rozdělení
2.1 Rozdělení pravděpodobnosti diskrétní náhodné veličiny Klíčovým pojmem pro diskrétní náhodnou veličinu je pravděpodobnostní funkce. Tato funkce udává pravděpodobnost, že diskrétní náhodná veličina X se realizuje v hodnotě x, P ( x ) = P ( X = x ) . Funkce může být vyjádřena tabulkou hodnot, vzorcem nebo graficky. Příklad 2.1 Rozdělení pravděpodobnosti náhodné veličiny, která se může realizovat v hodnotách x = −1, 0,1 , vyjádřené pravděpodobnostní funkcí je uvedeno v tabulce 2.1. Tab. 2.1 Pravděpodobnostní funkce diskrétní náhodné veličiny x -1 0 1 Součet P (x ) 0,400 0,333 0,267 1,000 Grafické znázornění pravděpodobnostní funkce úsečkovým (hůlkovým) grafem je na obrázku 2.1. Obr. 2.1 Pravděpodobnostní funkce diskrétní náhodné veličiny
P(x)
x
15
5 − x pro x = − 1, 0,1 Pravděpodobnostní funkci lze vyjádřit vzorcem P ( x) = 15 . 0 jinak Pravděpodobnostní funkce je nezáporná a normovaná, 0 ≤ P ( x) ≤ 1,
∑ P( x) = 1 . x
Další funkcí pomocí níž lze popsat rozdělení pravděpodobnosti náhodné veličiny je distribuční funkce. Distribuční funkce je definována jako pravděpodobnost, že náhodná veličina X nepřesáhne hodnotu x, F ( x ) = P ( X ≤ x ) . Příklad 2.1 — pokračování Rozdělení pravděpodobnosti popíšeme pomocí distribuční funkce, kterou vyjádříme tabulkou (tab. 2.2), graficky (obr. 2.2) a vzorcem. Tab. 2.2 Distribuční funkce diskrétní náhodné veličiny x -1 0 1 Součet F (x ) 0,400 0,733 1,000 x Obr. 2.2 Distribuční funkce diskrétní náhodné veličiny
F(x)
x 0 pro x < −1 [x ] 5 − t Distribuční funkci lze rovněž vyjádřit vzorcem F ( x) = ∑ pro − 1 ≤ x ≤ 1 , 15 t = − 1 1 pro x > 1 kde [x ] je celá část čísla x. Zápis distribuční funkce vzorcem je poměrně obtížný, takže autoři se mu zpravidla vyhýbají.
Srovnejte, jaké hodnoty nabývá pravděpodobnostní a distribuční funkce v příkladu 2.1 pro realizace náhodné veličiny x = −5; 0,5; 1,5; 20 . Srovnejte rozdělení relativních a kumulativních četností při bodovém třídění v Modulu 1 a rozdělení pravděpodobnosti diskrétní náhodné veličiny. Zejména si všimněte pojmu četnostní funkce.
Rozdělení pravděpodobnosti diskrétní náhodné veličiny může být popsáno pomocí pravděpodobnostní nebo distribuční funkce, které mohou být vyjádřeny tabulkou, graficky nebo vzorcem.
16
2.2 Charakteristiky diskrétní náhodné veličiny Klíčovými vlastnostmi každé náhodné veličiny je její úroveň a variabilita. Charakteristikou úrovně náhodné veličiny je střední hodnota, která pro diskrétní náhodnou veličinu X je definována jako E ( X ) = xP ( x ) .
∑ x
Charakteristikou variability náhodné veličiny je rozptyl, který je pro diskrétní náhodnou veličinu X
definován jako D 2 ( X ) = E [x − E ( X )] = 2
∑ [x − E ( X )] P( x ) . Alternativně lze rozptyl vyjádřit po 2
x
2
úpravě jako E ( X ) − E ( X ) = ∑ x P ( x ) − ∑ xP ( x ) . x x 2
2
2
Druhou odmocninou rozptylu je směrodatná odchylka D ( X ) . Bezrozměrnou charakteristikou variability je variační koeficient V ( X ) =
D( X ) . E( X )
Srovnejte charakteristiky úrovně a variability datového souboru z Modulu 1 a právě uvedené charakteristiky diskrétní náhodné veličiny. Zejména si všimněte způsobu výpočtu z relativních četností.
Pro diskrétní náhodnou veličinu z odstavce 2.1 vypočteme hodnoty charakteristik.
Příklad 2.2 Charakteristiky diskrétní náhodné veličiny. Střední hodnota E ( X ) = −1 ⋅ 0,4 + 0 ⋅ 0,333 + 1 ⋅ 0,267 = −0,133 . Rozptyl (po úpravě vzorce) D 2 ( X ) = ( −12 ⋅ 0,4 + 0 2 ⋅ 0,333 + 12 ⋅ 0,267) − ( −0,133) 2 = 0,6493 . Směrodatná odchylka D ( X ) = 0,6493 = 0,8058 . Hodnotu variačního koeficientu nebudeme v tomto případě určovat. Úroveň a variabilitu náhodné veličiny měříme pomocí střední hodnoty a rozptylu, případně od něj odvozených charakteristik — směrodatné odchylky a variačního koeficientu.
Vlastnosti střední hodnoty a rozptylu X , Y jsou náhodné veličiny, přičemž platí Y = kX + c , kde k, c jsou konstanty. Mezi středními hodnotami a rozptyly platí E (Y ) = kE ( X ) + c, D 2 (Y ) = k 2 D 2 ( X ) , W = X ± Y jsou náhodné veličiny, přičemž E (W ) = E ( X ) ± E (Y ) , D 2 (W ) = D 2 ( X ) + + D 2 (Y ) ± 2COV ( X , Y ) . Jsou-li veličiny X, Y nezávislé, je kovariance COV ( X , Y ) = 0 . Nezávislost diskrétních náhodných veličin V případě dvojice diskrétních náhodných veličin X, Y je jejich společné rozdělení popsáno pravděpodobnostní a distribuční funkcí, které jsou funkcemi dvou proměnných: P ( x, y ), F ( x , y ) a nazývají se sdružené. Platí-li P ( x, y ) = P ( x ) P ( y ) a F ( x , y ) = F ( x ) F ( y ) , jsou X, Y nezávislé náhodné veličiny.
5 y − xy , kde X je náhodná veličina z 2.1. Jaký 150 tvar má funkce P ( y ) , pokud nezávislá veličina Y se realizuje v hodnotách 1, 4, 5? (2–1) Sdružená pravděpodobnostní funkce
P ( x, y ) =
17
2.3 Některé zákony rozdělení diskrétních veličin Binomické rozdělení
Diskrétní náhodná veličina X, jejíž realizace x ( x = 0,1, 2,..., n ) udává počet nastoupení jevu A v n
nezávislých opakovaných pokusech, má binomické rozdělení Bi[n; θ ] , kde θ je pravděpodobnost jevu A v jednom pokusu. Konstanty n, θ jsou parametry binomického rozdělení. V hodnotách parametrů se binomicky rozdělené náhodné veličiny mohou vzájemně více či méně shodovat nebo lišit. Pravděpodobnostní funkce binomického rozdělení je pro hodnoty x = 0,1, 2,..., n dána Bernoulliovým vzorcem. Ze známých parametrů n, θ lze určit střední hodnotu a rozptyl binomického rozdělení
E ( X ) = nθ , D 2 ( X ) = nθ (1 − θ ) . Použití binomického rozdělení je zřejmé z definice veličiny X. Příklad 2.3 Vypočítáme střední hodnotu počtu správně vyřešených úkolů v testu odborné způsobilosti s 10 nezávislými úkoly, jestliže plný počet splněných úkolů mělo z 80 uchazečů pět. Pro stanovení střední hodnoty potřebujeme znát n a θ , přičemž ze zadání vyplývá, že n = 10 . Parametr θ určíme ze vztahu
10 10 5 θ (1 − θ )0 = = 0,0625 , z čehož θ = 0,758 80 10 E ( X ) = 10 ⋅ 0,758 = 7,6 (správných odpovědí). Mimochodem — slabým místem úlohy je předpoklad, že všichni respondenti jsou stejně připraveni a všechny úkoly jsou stejně obtížné (konstantní pravděpodobnost úspěchu v jednom pokusu). Nejpravděpodobnější (typickou, modální) hodnotu binomického rozdělení najdeme s použitím vztahu E ( X ) − (1 − θ ) ≤ xˆ ≤ E ( X ) + θ .
Jakou hodnotu má modus počtu správně vyřešených úkolů v příkladu 2.3? (2–2)
Alternativní rozdělení
Zvláštním případem binomického rozdělení je rozdělení pro n = 1 , Bi[1; θ ] . Jde o rozdělení nulajedničkové náhodné veličiny a nazývá se rozdělení alternativní. Po vzoru binomického rozdělení jsou jeho charakteristiky E ( X ) = θ , D 2 ( X ) = θ (1 − θ ) . Alternativní rozdělení je nejjednodušším myslitelným případem rozdělení pravděpodobnosti náhodné veličiny.
Poissonovo rozdělení
Zvláštním případem binomického rozdělení pro n → ∞, θ → 0 , je-li při tom nθ = λ > 0 , je rozdělení vzácných jevů — Poissonovo rozdělení Po[λ ] s pravděpodobnostní funkcí P ( x ) =
e −λ λx pro x!
x = 0,1, 2,... . S rostoucím x hodnota pravděpodobnostní funkce rychle klesá k nule, takže prakticky stačí vzít v úvahu jen několik málo prvních hodnot x. Parametr λ má současně význam střední hodnoty i rozptylu, takže E ( X ) = D 2 ( X ) = λ . Poissonovo rozdělení má zvláštní význam a řídí se jím množství diskrétních náhodných veličin. Poissonovo rozdělení má tzv. Poissonovský proud jevů, kterým se modeluje např. počet požadavků na obsluhu za jednotku času u mnoha obslužných zařízení (telefonní ústředny, čerpací stanice, servisní dílny, myčky vozidel apod.). Je-li střední hodnota (tzv. intenzita) Poissonovského proudu jevů rovna λ , má za časový interval délky t střední hodnotu tλ . Součet n nezávislých náhodných veličin se stejným parametrem λ má střední hodnotu nλ .
18
Příklad 2.4 Pobočka pojišťovny uzavírá pojistné smlouvy, přičemž očekávaná (tj. střední) hodnota počtu uzavřených smluv pro běžný pracovní den je λ = 3 smlouvy. Určíme pravděpodobnost, že v náhodně vybraném (a) „běžném pracovním dni“, (b) pětidenním pracovním týdnu, nebude uzavřena žádná smlouva. Řešení: (a) P (0) =
e −3 30 = 0,0498 0!
(b) P (0) =
e −15150 = 3 ⋅ 10 −7 0!
S jakou pravděpodobností během „běžného pracovního dne“ uzavřou tři pobočky pojišťovny (se stejným parametrem λ = 3 ) takový počet smluv, který právě odpovídá parametru lambda rozdělení počtu jimi společně uzavřených smluv? (2–3)
Hypergeometrické rozdělení Diskrétní náhodná veličina X, jejíž realizace x udává počet nastoupení jevu A v n závislých opakovaných pokusech, má tříparametrické hypergeometrické rozdělení H [N ; M ; n ] . Parametry opět souM M N −n a D 2 ( X ) = n (1 − ) . visejí s charakteristikami úrovně a variability, neboť E ( X ) = n N N N −1 N −n Výraz < 1 je konečnostní násobitel. Hypergeometrické rozdělení proto má za jinak srovnatelN −1 ných podmínek menší rozptyl, než rozdělení binomické, což vyplyne z příkladu 2.5. Příklad 2.5 Zadané veličiny jsou binomická veličina s n = 3, θ = 0,5 , hypergeometrická s N = 10, M = 5, n = 3 , (tj. také
M = 0,5 ) a veličina s Poissonovým rozdělením s parametrem λ = 3 ⋅ 0,5 = 1,5 . N
Vypočteme střední hodnoty a rozptyly těchto tří diskrétních veličin. Tab. 2.3 Přehled charakteristik tří diskrétních veličin Rozdělení Binomické Hypergeometrické Poissonovo Realizace 0, 1, 2, 3 0, 1, 2, 3 0, 1, 2, … Střední hodnota 1,5 1,5 1,5 Rozptyl 0,75 0,5833 1,5 Vidíme, že střední hodnoty se zcela shodují, nejmenší rozptyl 0,75 10 − 3 = 0,5833 má hypergeomet10 − 1
rické rozdělení. Nápadně vyšší hodnota rozptylu Poissonova rozdělení je způsobena podstatně širším oborem možných realizací náhodné veličiny ( P ( X > 3) je větší než 0,3).
Σ
Zkontrolujte (přesným výpočtem) předešlé tvrzení o
P ( X > 3) .
1. Diskrétní náhodná veličina se vyznačuje izolovaností hodnot, kterých je nejvýše spočetně nekonečný počet. Často jde o nezáporné celočíselné hodnoty, není to však podmínkou. 2. Rozdělení pravděpodobnosti diskrétní náhodné veličiny může být popsáno pomocí pravděpodobnostní funkce, která pro každou hodnotu náhodné veličiny stanoví pravidlo, že se náhodná veličina realizuje 19
právě v této hodnotě. 3. Rozdělení pravděpodobnosti diskrétní náhodné veličiny může být rovněž popsáno pomocí distribuční funkce, která pro každou hodnotu náhodné veličiny stanoví pravidlo, že se náhodná veličina realizuje nejvýše v této hodnotě. 4. Klíčovými vlastnostmi náhodné veličiny je její úroveň a variabilita. 5. Úroveň náhodné veličiny měří její střední hodnota. 6. Variabilitu náhodné veličiny měří rozptyl a z něj odvozené charakteristiky — směrodatná odchylka a variační koeficient. 7. Náhodné veličiny mohou být ve dvojici závislé nebo nezávislé. 8. Poznali jsme binomické, alternativní, Poissonovo a hypergeometrické rozdělení jako příklady rozdělení diskrétních náhodných veličin. 9. Každé rozdělení má určitý počet parametrů, které jsou v určitých vztazích s jeho charakteristikami.
(2–1)
P( y ) =
(2–2)
xˆ = 8 .
(2–3)
P (9) =
1.
2.
y pro y = 1,4,5 . 10
e −9 9 9 = 0,13 . 9!
X je náhodná veličina z příkladu 1.8. Popište její rozdělení pravděpodobnosti pomocí pravděpodobnostní a distribuční funkce, které vyjádříte vzorcem, tabulkou a graficky. P( X = 0) pro náhodnou veličinu s Poissonovým rozdělením pro parametry λ = 0,5; 1; 1,5; 2; 3; 5 . Hranice prakticky nemožného jevu je stanovena na 0,01. Lze pro některé zadané hodnoty λ tvrdit, že je prakticky nemožné, aby došlo k realizaci x = 0 ? Sestavte tabulku, ve které vyjádříte
3.
Porovnejte graficky distribuční funkce binomického a hypergeometrického rozdělení z úlohy 2.5.
4.
Pro jakou hodnotu parametru
5.
Jaká část vozidel odjíždí neobsloužena z ruční myčky za těchto podmínek: Proud požadavků má Po 3 hod.-1 Kapacita myčky je 2 vozidla hod.-1 Pokud není myčka volná, vozidlo nečeká a odjíždí. Jaká je střední hodnota počtu obsloužených vozidel za minutu (můžete pomocí ní stanovit využití kapacity linky)?
6.
Podívejte se na předchozí příklad z pohledu řidiče a vypočtěte pravděpodobnost, že uspěje u myčky až na třetí pokus.
7.
Určete střední hodnotu, modus, rozptyl, směrodatnou odchylku a variační koeficient pro náhodnou veličinu z úlohy 1 tohoto cvičení.
8.
Kterou charakteristiku binomického rozdělení lze vyjádřit jako
θ
má veličina
Bi[1; θ ] největší rozptyl?
[]
20
1−θ ? nθ
9.
Určete střední hodnotu a rozptyl rozdílu nezávislých náhodných veličin kud
P( x) =
5− x y pro x = −1;0;1 a P ( y ) = pro y = 1;4;5 . 15 10
X − Y , po-
X − E( X ) , kde X je náhodná veličina, se nazývá normování. Určete D( X ) E (U ), D 2 (U ) .
10. Operace
U=
21
Lekce 3
Spojitá náhodná veličina Případ spojité náhodné veličiny je komplikovanější, než je tomu u veličiny diskrétní. Je to dáno především tím, že jednotková pravděpodobnost jistého jevu se rozkládá mezi nekonečně mnoho realizací spojité náhodné veličiny (každý interval reálné osy obsahuje nekonečně mnoho reálných čísel). To neumožňuje použít pravděpodobnostní funkci, která sloužila jako jeden z prostředků popisu rozdělení pravděpodobnosti diskrétní náhodné veličiny. Pravděpodobnostní funkce byla analogií četnostní funkce při bodovém třídění datového souboru. Alternativou četnostní funkce při intervalovém třídění datového souboru byla četnostní hustota. V souvislosti se spojitou náhodnou veličinou budeme hovořit o hustotě pravděpodobnosti. Vedle hustoty pravděpodobnosti lze k popisu rozdělení pravděpodobnosti spojité náhodné veličiny využít také distribuční funkci, jejíž definice je na typu náhodné veličiny nezávislá.
distribuční funkce; exponenciální rozdělení; Gaussova křivka; hustota pravděpodobnosti; medián; nezávislost; normální rozdělení; normované normální rozdělení; normování; p–kvantil; pravděpodobnostní element; parametry; rovnoměrné rozdělení; rozdělení pravděpodobnosti; spojitá veličina; směrodatná odchylka; střední hodnota; variační koeficient; zákon rozdělení pravděpodobnosti
3.1
Rozdělení pravděpodobnosti spojité náhodné veličiny
U spojitých náhodných veličin přejdeme od pravděpodobnosti k hustotě pravděpodobnosti, což je „množství“ pravděpodobnosti připadající na jednu (určitou) jednotku šířky intervalu možných hodnot spojité náhodné veličiny. Hustota pravděpodobnosti je ovšem spojitou veličinou, takže její jednotkovou hodnotu (příslušející jistému jevu) vyjadřujeme jako určitý integrál. Hustota pravděpodobnosti nemá vlastnosti pravděpodobnosti. Označíme-li hustotu pravděpodobnosti jako f (x ) , platí f ( x ) ≥ 0 (hustota tedy může nabýt i hodnoty větší než jedna, což uvidíme později). Pomocí hustoty pravděpodobnosti může být rozdělení pravděpodobnosti spojité náhodné veličiny vyjádřeno vzorcem nebo graficky. Příklad 3.1 Dobu trvání výrobní operace považujeme za konstantní s délkou trvání 5 minut. Pozorovatel přichází v náhodně zvoleném okamžiku. Spojitou náhodnou veličinou X je doba, která uplyne od příchodu pozorovatele do skončení operace. Náhodná veličina se může realizovat v intervalu x ∈ (0; 5) a její výskyt na celém intervalu je všude stejně možný. Pravděpodobnost, připadající na jednotku intervalu če-
1 . 5 1 pro 0 < x < 5 Hustota pravděpodobnosti f ( x) = 5 a její grafické znázornění je na obr. 3.1. 0 jinak kací doby, je konstantní a je rovna
Všimněme si ještě hranic intervalu pro spojitou náhodnou veličinu. Nezáleží na tom, zda jedna či obě krajní hodnoty do intervalu patří či nepatří, takže pro spojitou (ale výhradně pro spojitou!) náhodnou veličinu jsou zápisy P ( x1 ≤ X ≤ x2 ) a P ( x1 < X < x2 ) naprosto ekvivalentní.
Co můžeme říci o náhodné veličině, pro kterou
22
P (2 ≤ X ≤ 3) > P (2 < X < 3) . (3–1)
Obr. 3.1 Hustota pravděpodobnosti spojité náhodné veličiny
f(x)
x Distribuční funkce spojité náhodné veličiny je (analogicky jako pro diskrétní veličinu) definována jako pravděpodobnost F ( x ) = P ( X ≤ x ) , tentokrát ovšem pro − ∞ < x < +∞ . Doplníme nyní příklad 3.1 o distribuční funkci, která (podobně jako hustota) pro spojitou náhodnou veličinu se vyskytuje v podobě vzorce nebo grafu. Příklad 3.1 — pokračování Distribuční funkce na intervalu (0; 5) lineárně roste, zatímco pro x ≤ 0 nabývá nulové hodnoty a pro
0 pro x ≤ 0 x 5 ≤ x hodnoty jedna, tj. F ( x) = pro 0 < x < 5 . 5 1 pro x ≥ 5 Obr. 3.2 Distribuční funkce spojité náhodné veličiny
F(x)
x Vlastnosti distribuční funkce (společné pro d.f. diskrétní i spojité n.v.) Distribuční funkce je pravděpodobnost, z čehož plyne 0 ≤ F ( x ) ≤ 1 .
Distribuční funkce je neklesající (pravděpodobnost je nezáporná) a tudíž pro x2 > x1 je F ( x2 ) ≥ F ( x1 ) . Z toho plyne užitečný vztah: P ( x1 < X ≤ x 2 ) = F ( x 2 ) − F ( x1 ) . V bodech plus a mínus nekonečno je distribuční funkce F ( −∞) = 0, F ( +∞) = 1 , i když z našich příkladů vidíme, že je běžné, že těchto hodnot distribuční funkce nabývá podstatně dříve, než v nekonečnu.
Pokud je na nějakém intervalu náhodná veličina X spojitá, je spojitá i distribuční funkce. Na grafu distribuční funkce diskrétní náhodné veličiny vidíme, že do libovolných bodů na distribuční funkci lze dospět z jejich pravého (nikoli již levého) okolí. Z toho plyne formulace, že distribuční funkce je vždy alespoň zprava spojitá.
23
Nyní zbývá zabývat se vztahem distribuční funkce a hustoty spojité náhodné veličiny. Je-li distribuční funkce F (x ) spojitá, tudíž k ní existuje derivace. Derivací F (x ) je hustota pravděpodobnosti
f ( x) =
dF ( x ) . A opačně — distribuční funkce je primitivní funkcí k hustotě. Mezi oběma funkcemi dx t
je tedy vzájemně jednoznačný vztah a F (t ) =
∫ f ( x )dx .
−∞
Vlastnosti hustoty pravděpodobnosti Hustota je derivace neklesající funkce, nemůže tedy být záporná a f ( x ) ≥ 0 . Shora není hodnota hustoty pravděpodobnosti nijak omezena. +∞
∫ f ( x )dx = 1 . Jde o pravděpodobnost jistého jevu, která odpovídá jednotkové ploše pod −∞
křivkou hustoty pravděpodobnosti. x2
P( x1 ≤ X ≤ x 2 ) = ∫ f ( x )dx . Pravděpodobnost realizace spojité náhodné veličiny na inx1
tervalu ( x1 ;x 2 ) nebo x1 ; x2 je určitým integrálem v hranicích x1 , x 2 .
Plochu pod křivkou hustoty pravděpodobnosti lze interpretovat jako součet ploch elementárních obdélníků, tzv. pravděpodobnostních elementů f ( x )dx ≈ f ( x ) ⋅ ∆x , kde ∆x → 0 je délka vodorovné strany obdélníku.
3.2
Charakteristiky spojité náhodné veličiny Klíčovými vlastnostmi každé náhodné veličiny je její úroveň a variabilita. Charakteristikou úrovně náhodné veličiny je střední hodnota, která pro spojitou náhodnou veličinu
X je definována jako E ( X ) =
+∞
∫ xf ( x )dx .
−∞
Charakteristikou variability náhodné veličiny je rozptyl, který je pro spojitou náhodnou veličinu X definován jako D 2 ( X ) = E [x − E ( X )] = 2
+∞
∫ [x − E ( X )]
2
f ( x )dx . Alternativně lze rozptyl vyjádřit
−∞
2
+∞
+∞ po úpravě jako E ( X ) − E ( X ) = ∫ x f ( x )dx − ∫ xf ( x ) dx . −∞ −∞ 2
2
2
Druhou odmocninou rozptylu je směrodatná odchylka D ( X ) . Bezrozměrnou charakteristikou variability je variační koeficient V ( X ) =
D( X ) . E( X )
Pro spojitou náhodnou veličinu z odstavce 3.1 vypočteme hodnoty charakteristik. Příklad 3.2 Charakteristiky spojité náhodné veličiny +∞
5
x2 1 Střední hodnota E ( X ) = ∫ xf ( x )dx = ∫ x dx = = 2,5 . 5 10 0 −∞ 0 5
24
5
x3 1 Rozptyl (po úpravě vzorce) D ( X ) = ∫ x dx − 2,52 = − 2,52 = 2,0833 . 5 15 O 0 Směrodatná odchylka D ( X ) = 2,0833 = 1,4434 . 5
2
2
Čemu je roven variační koeficient z náhodné veličiny z příkladu 3.2? (3–2)
Úroveň a variabilitu náhodné veličiny měříme pomocí střední hodnoty a rozptylu, případně od něj odvozených charakteristik — směrodatné odchylky a variačního koeficientu.
Vlastnosti střední hodnoty a rozptylu Tyto jsou pro spojitou náhodnou veličinu identické s vlastnostmi charakteristik diskrétní náhodné veličiny.
Kvantily spojitých náhodných veličin Pojem kvantilu je nám nepochybně znám (včetně pojmů jako medián, dolní kvartil, prostřední decil, horní percentil apod.). Omezíme se pouze na kvantily spojitých náhodných veličin (pro diskrétní náhodné veličiny kvantily existují také, ale my je nebudeme v žádné souvislosti používat). S kvantily některých spojitých náhodných veličin budeme naopak později pracovat zcela běžně. p–kvantil (nebo také 100p% kvantil) spojité náhodné veličiny X je číslo x p , které dělí obor možných hodnot této veličiny na dvě části, z nichž do levé padá tato veličina s pravděpodobností p a do pravé s pravděpodobností 1–p, tj. P( X ≤ x p ) = p, P( X ≥ x p ) = 1 − p . Přitom pravděpodobnost p můžeme chápat jako plochu pod křivkou hustoty pravděpodobnosti nebo jako bod na křivce distribuční funkce. Situace je znázorněna na obr. 3.3, kde má součastně průběh hustoty pravděpodobnosti a jí odpovídající distribuční funkce reálnou podobu (my jsme se ovšem s podobným rozdělením zatím nesetkali). Obr. 3.3 p–kvantil spojité náhodné veličiny
F ( x)
f (x)
p
1− p
p xp
x
xp
Situaci na obr. 3.3 můžeme současně vyjádřit: xp
Pomocí hustoty pravděpodobnosti P( X ≤ x p ) = ∫ f ( x )dx = p . −∞
Pomocí distribuční funkce P( X ≤ x p ) = F ( x p ) = p .
25
Příklad 3.3 Vypočteme libovolný p–kvantil spojité náhodné veličiny z odst. 3.1 (zatím žádnou jinou k dispozici x0 , 25 1 nemáme). Zvolíme-li např. p = 0,25 (tj. určíme 25% kvantil — dolní kvartil), bude ∫0 5 dx = 0,25 . x0 , 25
Z toho x 5 0
= 0,25 a nakonec x 0, 25 = 1,25 .
Pro příklad 3.3 určete 90% kvantil.
Zatímco medián ( x0,50 ) může být vhodnou charakteristikou úrovně, tak krajní kvantily mohou sloužit k vymezení intervalu, kam náhodná veličina padá prakticky jistě (např. 1% a 99% kvantil společně vymezí interval, kam náhodná veličina padá s pravděpodobností 0,98 — pro představu si to ukažte na obr. 3.3). Pokud je pravděpodobnost 0,98 pro daný případ stanovenou pravděpodobností prakticky jistého jevu, můžeme předpokládat, že jev „padnutí náhodné veličiny mimo interval vymezený oběma kvantily“ je jevem prakticky nemožným a nekalkulujeme, že skutečně nastane, i když je např. − ∞ ≤ X ≤ +∞ , a náhodná veličina může ve skutečnosti (ovšem velmi vzácně) nabýt jakkoli velké záporné či kladné hodnoty. Tento „trik“ s náhodnou veličinou budeme využívat později.
Nezávislost spojitých náhodných veličin V případě dvojice spojitých náhodných veličin X, Y je jejich společné rozdělení popsáno hustotou pravděpodobnosti a distribuční funkcí, funkcemi dvou proměnných f ( x, y ), F ( x, y ) , které se opět nazývají sdružené. Platí-li f ( x, y ) = f ( x ) f ( y ) a F ( x, y ) = F ( x ) F ( y ) , jsou X, Y nezávislé náhodné veličiny.
3.3
Některé zákony rozdělení spojitých náhodných veličin
Rovnoměrné rozdělení Rovnoměrné rozdělení jsme již poznali, protože nám posloužilo jako modelový případ spojité náhodné veličiny v odst. 3.1. Nabývá-li spojitá náhodná veličina X hodnot z intervalu α ; β a její výskyt na tomto intervalu je všude stejně možný, má rovnoměrné rozdělení s hustotou pravděpodobnosti
1 f ( x) = β − α 0
pro α ≤ x ≤ β
. Čísla α , β , kterými se jednotlivé rovnoměrně rozdělené ná-
jinak
hodné veličiny vzájemně liší, jsou parametry. Rovnoměrné rozdělení označíme R[α ; β ] . Řekli jsme sice, že se používá např. při stanovení doby čekání na v pravidelných intervalech se opakující jevy nebo že si jím vypomáháme za situace, kdy skutečný tvar rozdělení spojité veličiny není znám, ale jeho význam je hlavně metodický, protože je nejjednodušším spojitým rozdělením. Z tohoto titulu není obtížné na něm ukázat např. výpočet charakteristik pomocí integrálů (příklad 3.2). Tento výpočet není ovšem nutné provádět, protože jeho charakteristiky lze snadno určit z parametrů:
E( X ) =
α+β
, D2 ( X ) =
( β − α )2 . p–kvantil rovnoměrně rozdělené náhodné veličiny určíme ze 12
2 vztahu x p = α + p( β − α ) .
26
Jaká je pravděpodobnost, že rovnoměrně rozdělená náhodná veličina
E ( X ) ± D ( X ) ? (3–3)
R[0;100] padne do intervalu
Exponenciální rozdělení Podobně jako Poissonovo rozdělení, má i exponenciální rozdělení význam především pro technické jevy. Tak jako diskrétní Poissonovský proud jevů charakterizuje toky událostí pokud jde o četnost jejich výskytů (počet poruch za jednotku času, počet požadavků na obsluhu, počet průjezdů vozidel, počet vad na výrobcích), exponenciální rozdělení spojité náhodné veličiny X ( x > 0) charakterizuje dobu (případně vzdálenost), která uplyne mezi výskyty těchto událostí (doba mezi dvěma poruchami, doba od objevení do odstranění poruchy, doba mezi průjezdy vozidel, ale také vzdálenost sousedních vad na pásu tkaniny apod.). Za exponenciálně rozdělenou můžeme za jistých okolností považovat i životnost součástí a výrobků (zejména pokud k ukončení „života“ výrobku dojde v důsledku náhodné události — typicky žárovky, akumulátory automobilů a další elektrické součástky, k jejichž „smrti“ dochází v důsledku zkratu, přepětí elektrické sítě apod.). Hustota pravděpodobnosti exponenciálního rozdělení je monotónní klesající funkce
1 −x δ f ( x) = e δ 0
pro x > 0 ,
kde δ > 0 je jediný parametr tohoto rozdělení. Jeho význam je
jinak
E( X ) = δ , D2 ( X ) = δ 2 . Distribuční funkcí exponenciálního rozdělení je funkce
pro x ≤ 0 0 x F ( x) = − 1 − e δ pro x > 0
.
Příklad 3.4 Pojišťovna registruje při určitém typu pojištění u 50 % pojistníků, v okamžiku dosažení doby pojištění 36 měsíců, bezeškodní průběh. Doba bezeškodního průběhu pojištění je náhodná veličina s exponenciálním rozdělením. U jaké části pojistníků dojde k pojistné události až po uplynutí dvou let bezeškodního průběhu pojištění? Při řešení místo určitých integrálů hustoty pravděpodobnosti využijeme rovnou dosazení do vzorce distribuční funkce:
F(36) =1− e
36 −
δ
= 0,50 , z čehož δ = 52 a 1 − F (24) = e
−
24 52
= 0,6303 .
Hranici dvou let bezeškodního průběhu pojištění překoná jen 63 % pojistníků (37 % pojistníků zaznamená pojistnou událost před uplynutím 24 měsíců).Jakou střední hodnotu by musela náhodná veličina mít, aby hranici dvou let bezeškodního průběhu překonalo 90 % pojistníků? Obr. 3.4 Distribuční funkce dvou exponenciálních rozdělení −
1 − F (24) = 0,90 = e δ , z čehož získáme δ = 228 měsíců, což je 19 let. Obě exponenciální rozdělení (skutečné a ideální) viz obr. 3.4, kde je pro první rozdělení vyznačena hodnota F (36) = 0,50 a pro druhé F ( 24) = 0,10 .
F(x)
δ = 52
0.75
δ = 228
0.5
0.25
0
0
50
100
150
200
250
24
x
Funkce P ( X > x ) = 1 − F ( x ), kde F ( x ) je distribuční funkce některé náhodné veličiny, se nazývá funkce přežití. Tato funkce má značný význam při modelování procesů dožívání, ať již předmětů nebo živých organizmů, včetně lidí.
27
Znázorněte graficky hustoty pravděpodobností náhodných veličin, jejichž distribuční funkce jsou na obr. 3.4!
Normální rozdělení Hustota pravděpodobnosti normálního rozdělení ve zcela obecném případě je dána jako funkce − 1 f ( x) = e σ 2π
(x−µ)2 2σ 2
, pro − ∞ < x < +∞ . Funkce má symetrický zvonovitý tvar se dvěma in-
flexními body a jmenuje se Gaussova křivka (viz obr. 3.5). Konstanty ve vzorci hustoty pravděpodobnosti, tj. čísla µ , σ 2 , jsou parametry normálního rozdělení. Jejich geometrický význam je patrný z obr. 3.5 a jejich vztah k charakteristikám rozdělení je jednoduchý: E ( X ) = µ , D 2 ( X ) = σ 2 . Obr. 3.5 Normální rozdělení N [−2;2 2 ], N [0;1], N [1;0,52 ] F(x)
f(x) 0.75
0.75
µ = −2
σ =2 0.5
0.5
0.25
0.25
0
-7
-6
-5
-4
-3
-2
-1
0
1
2
3
x
0
-7
-6
-5
-4
-3
-2
-1
0
1
2
3
x
První z parametrů tedy reprezentuje střední hodnotu (parametr polohy) a druhý je rozptyl. Je zřejmé, že σ = D (X ) (parametr měřítka, vzdálenost souřadnice inflexního bodu od souřadnice vrcholu křivky) je směrodatnou odchylkou. Obecné normální rozdělení zapisujeme jako N [ µ ;σ 2 ] . Vzorec distribuční funkce (vyjadřuje plochu pod křivkou hustoty), která je pravidelnou esovitou křivkou s inflexním bodem o souřadnici [ µ ; 0,5] (viz obr. 3.5), neuvádíme (i když tabelované hodnoty této funkce budeme často využívat). Z grafů hustot i distribučních funkcí na obr. 3.5 vyplývá, že pravděpodobnost odlehlých hodnot je skutečně zanedbatelná a za „odlehlou“ můžeme např. prohlásit už hodnotu, která je od střední hodnoty vzdálena více než ± 2σ .
Normované normální rozdělení Je zřejmé, že obecných normálních rozdělení je nekonečně mnoho, protože každé kombinaci parametrů µ a σ 2 > 0 vyhovuje nějaké normální rozdělení. Při normování zavedeme normovanou veliči-
X − E( X ) X − µ = , která má (pokud veličina X má obecné normální rozdělení) normované D( X ) σ normální rozdělení N [0;1] . Prostřední z normálních rozdělení na obr. 3.5 je současně normovaným normálním rozdělením. Jeho hustotu pravděpodobnosti (kterou označujeme φ (u ) ) znázorníme samostatně na obr. 3.6. Distribuční funkci normovaného normálního rozdělení budeme označovat Φ (u ) . nu U =
Z obr. 3.6 znovu vyplývá, že za odlehlé (a tudíž zanedbatelné) je možno prohlásit např. už i hodnoty, které se od střední hodnoty liší o více než ± 2 (když budeme hodně přísní, tak ± 3 ). Smysl
28
normování je v tom, že nekonečně mnoho náhodných veličin s obecným normálním rozdělením převedeme na náhodnou veličinu, která se pro zadané u vyznačuje stálou hodnotou vzdálenosti křivky od osy x a stálou plochou pod křivkou, zatímco pro zadanou hodnotu p obdržíme vždy stejnou hodnotu p–kvantilu. Tyto hodnoty, které lze „ručně“ vypočítat jen obtížně (srovnejme např. s rovnoměrným rozdělením!), je proto vhodné tabelovat, a to dokonce i v dnešní době, která umožňuje jejich stanovení pomocí k tomu určených počítačových programů (v MS Excelu např. funkce NORMDIST a NORMINV pro obecné a NORMSDIST a NORMSINV pro normované normální rozdělení). Obr. 3.6 Hustota pravděpodobnosti normovaného normálního rozdělení φ(u) 0.4
0.2
0
-3
-2
-1
0
1
2
u
3.4 Výpočty s normálním rozdělením Při práci s normálním rozdělením přichází v úvahu tyto tři typy úloh:
k zadané hodnotě náhodné veličiny určit hustotu pravděpodobnosti, k zadané hodnotě náhodné veličiny určit distribuční funkci (plochu pod křivkou hustoty pravděpodobnosti), k zadané pravděpodobnosti p určit hodnotu p–kvantilu náhodné veličiny. Úlohy pro obecné normální rozdělení se tradičně řeší s využitím rozdělení normovaného. Proto se při řešení všech tří typů úloh setkáváme s tabelovanými hodnotami normovaného normálního rozdělení. Stručné výtahy z těchto tabulek (které dnes už nejsou nutně jen v papírové podobě) jsou v tabulkách 3.1 až 3.3. Tab. 3.1 Hustota normovaného normálního rozdělení u 0,00 0,50 1,00 1,50 2,00 2,50 3,00 φ (u ) 0,399 0,352 0,242 0,130 0,054 0,018 0,004 Obr. 3.7 Náčrt k tab. 3.1 φ(u)
φ ( −u ) = φ ( u ) 0.4
Z hodnot v tab. 3.1 plyne, že vrchol křivky má souřadnici 0,399 a že vlevo i vpravo od vrcholu křivka rychle klesá k vodorovné ose. Ze symetrie křivky vyplývá, že není třeba tabelovat pro záporné hodnoty náhodné veličiny.
0.2
0
-3
-u
-1
0
1
u
3
29
Tab. 3.2 Distribuční funkce normovaného normálního rozdělení u 0,00 0,50 1,00 1,50 2,00 2,50 3,00 Φ (u ) 0,500 0,691 0,841 0,933 0,977 0,994 0,999 Z tabulky vyplývá, že s rostoucím u se hodnoty distribuční funkce se velmi rychle blíží jedné. Při tom ze symetrie plyne Φ ( −u ) = 1 − Φ (u ) . Tabulkové hodnoty využijeme, pokud k zadané hodnotě (hodnotám) hledáme pravděpodobnost. Příklad 3.5 Plnicí linka při správné funkci plní lahve takovým způsobem, že množství produktu v obalu je náhodná veličina s normálním rozdělením N [500;52 ] . Jaká část lahví vykáže obsah nižší než 495 ml nebo vyšší než 510 ml? Hledáme součet P ( X ≤ 495) + P ( X ≥ 510) pro náhodnou veličinu N [500;52 ] . Provedeme normování obou hodnot a pro normované hodnoty stanovíme pravděpodobnosti:
495 − 500 ) = P (U ≤ −1) = Φ ( −1) = 1 − Φ (1) = 0,159 , 5 510 − 500 P( X ≥ 510) = 1 − P( X ≤ 510) = 1 − P(U ≤ ) = 1 − P(U ≤ 2) = 1 − Φ( 2) = 0,023 5 Součet obou pravděpodobností je 0,183. Takže je to přibližně téměř každá pátá láhev. P ( X ≤ 495) = P (U ≤
Na grafu hustoty pravděpodobnosti normovaného normálního rozdělení 3.7 vyznačte obě vypočtené pravděpodobnosti!
Tab. 3.3 Kvantily normovaného normálního rozdělení p 0,500 0,900 0,950 0,975 0,990 0,995 0,999 u p 0,000 1,282 1,645 1,960 2,326 2,576 3,090 Tab. 3.3 je inverzní k tab. 3.2, protože k zadaným pravděpodobnostem (plochám pod křivkou hustoty pravděpodobnosti, hodnotám distribuční funkce) uvádí hodnotu příslušného kvantilu, tj. up
P (U ≤ u p ) = Φ(u p ) = ∫ φ (u )du = p . Vzhledem k symetrii je tentokrát −∞
u1− p = −u p (např. u 0,01 = −u 0,99 = −2,326 ), takže není nutno tabelovat hodnoty pro p < 0,5 . Příklad 3.6 Určíme interval symetrický kolem střední hodnoty, ve kterém se z hlediska obsahu nachází 95 % naplněných lahví. Náhodná veličina má opět N [500;52 ] . Ze zadání vyplývá, že hledáme 2,5% a 97,5% kvantil této náhodné veličiny (mezi nimi leží náhodná veličina s pravděpodobností 0,95). Provedeme normování: u0,025 =
x0, 025 − 500
u 0,025 = −u 0,975 = −1,96, u 0,975
, u0,975 =
x0,975 − 500
a z tab. 3.3 určíme
5 5 = 1,96 . Dosazením do vztahů pro normované hodnoty získáme
x0,025 = 490, x0,975 = 510 . Takže P ( 490 ≤ X ≤ 510) = 0,95 .
Ukažte tento interval na náčrtu hustoty pravděpodobnosti rozdělení
30
N [500;52 ] !
Σ
1. Spojitá náhodná veličina může nabývat jakékoli reálné hodnoty z celé číselné osy, případně libovolné její části. 2. Rozdělení pravděpodobnosti spojité náhodné veličiny může být popsáno pomocí hustoty pravděpodobnosti, která určuje pravděpodobnost, připadající na jednotku intervalu možných hodnot náhodné veličiny. 3. Rozdělení pravděpodobnosti spojité náhodné veličiny může být rovněž popsáno pomocí distribuční funkce, která pro každou hodnotu náhodné veličiny stanoví pravidlo, že se náhodná veličina realizuje nejvýše v této hodnotě, 4. Pro distribuční funkci i hustotu pravděpodobnosti jsme uvedli řadu důležitých vlastností. 5. Úroveň a variabilita spojité náhodné veličiny se měří pomocí stejných charakteristik jako veličiny diskrétní. 6. Pro spojité náhodné veličiny jsme zavedli rovněž systém kvantilů. 7. Poznali jsme rovnoměrné, exponenciální, normální a normované normální rozdělení. 8. Normální rozdělení je vůbec nejdůležitějším rozdělením a má mnoho aplikací, mj. i v oblastech, do kterých je směrován tento text.
(3–1)
Jde o diskrétní náhodnou veličinu, nabývající nejméně jednu z hodnot 2, 3.
(3–2)
V (X ) =
(3–3)
P ( 21,13 ≤ X ≤ 78,87) = 0,7887 − 0,2113 = 0,5774 .
1.
2.
1,4434 = 0,5774 2,5
Spojitá náhodná veličina X , x ∈ (1;10) má distribuční funkci F ( x ) = log x . Stanovte a graficky znázorněte její hustotu pravděpodobnosti, vypočtěte střední hodnotu a rozptyl této náhodné veličiny. Určete všechny její kvartily. Stanovte pravděpodobnost P ( 4 ≤ X ≤ 6) . Rovnoměrné rozdělení má střední hodnotu a rozptyl Určete jeho parametry
α, β
E ( X ) = 30, D 2 ( X ) = 33, 3 .
.
3.
Stanovte pravděpodobnost, že veličina s exponenciálním rozdělením s parametrem δ = 10 nabude hodnoty z intervalu E ( X ) ± D( X ) .
4.
Stanovte pravděpodobnost, že náhodná veličina s normovaným normálním rozdělením nabude hodnoty z intervalu E ( X ) ± D ( X ) .
5.
Pro náhodnou veličinu s normálním rozdělením platí
P ( X ≤ 115) = 0,841 a sou-
časně P ( X ≤ 70) = 0,023 . Určete parametry µ , σ . Pořiďte náčrt hustoty pravděpodobnosti tohoto rozdělení a zadané pravděpodobnosti na něm vyznačte. 2
6.
V návaznosti na příklad 3.6 v textu lekce určete intervaly rovněž pro pravděpodobnosti 0,90 a 0,99.
7.
Šířka stavebního otvoru má normální rozdělení se střední hodnotou 81 cm a směrodatnou odchylkou 2 cm. Šířka rámu určeného ke vsazení do tohoto otvoru má nor-
31
mální rozdělení se střední hodnotou 80 cm a směrodatnou odchylkou 0,5 cm. Určete pravděpodobnost, s jakou půjde náhodně vybraný rám vsadit do náhodně vybraného otvoru. Pro jednoduchost stačí, aby rozměr rámu X byl menší než rozměr otvoru Y. X, Y budeme považovat za nezávislé náhodné veličiny a označíme-li Z = X − Y , hledáme P ( Z < 0). 8.
Určete pravděpodobnost, že náhodně vybraný rám z úlohy 7 se podaří usadit do náhodně vybraného otvoru nejvýše na třetí pokus.
Lekce 1 1.
Například pro
A
A ⊂ B bude Vennův diagram
B
2.
Skutečnost kvalitní nekvalitní Součet (jev H) (jev H ) „kvalitní“ 0,96515 (jev A) Výsledek kontroly „nekvalitní“ 0,00485 (jev A ) Součet 0,97000 Např.
0,00060 0,96575 0,02940 0,03425 0,03000 1,00000
P ( A ∩ H ) = P ( A | H ) P ( H ) = 0,995 ⋅ 0,97 = 0,96515 P ( A ∩ H ) = P ( A | H ) P ( H ) = 0,98 ⋅ 0,03 = 0,02940
Pravděpodobnosti chybných rozhodnutí jsou zvýrazněny. 3.
Skutečnost kvalitní nekvalitní Součet (jev H) (jev H ) „kvalitní“ 0,93678 (jev A) Výsledek kontroly „nekvalitní“ 0,03322 (jev A ) Součet 0,97000 Např.
0,02897 0,96575 0,00103 0,03425 0,03000 1,00000
P ( A ∩ H ) = 0,97 ⋅ 0,96575 = 0,93678 atd.
0,08 ⋅ 0,4 = 0,033 (1 − 0,044) log(1 − π ) 5. n = log(1 − p ) log 0,01 6. n = = 6,6 ⇒ n = 7 , tj. nejméně 7 pokusů. log 0,50 7. Pro M = 14 je x v rozmezí 6 až 12. Pro M = 7 je x v rozmezí 0 až 7. 4.
P ( H | A) =
32
Lekce 2 1.
Všechny potřebné pravděpodobnosti jsme spočítali v příkladu 1.8 a v následujícím „bleskovém“ úkolu.- Při zpracování úlohy se inspirujte příkladem 2.1. Např. distri-
pro x < 0 0 [ x ] 5 t 5−t buční funkce je F ( x ) = ∑ 0,15 (1 − 0,15) pro 0 ≤ x ≤ 5 t t = 0 1 pro x > 5 2.
λ
0,5
1
1,5
2
3
5
P ( X = 0) = e − λ
0,6065
0,3679
0,2231
0,1353
0,0498
0,0067
Pravděpodobnost prakticky nemožného jevu je zvýrazněna. 3.
Znázorníme distribuční funkce jejichž hodnoty jsme vypočetli v tabulce
x
0
1
2
3
Bi[3; 0,5] 0,125 0,500 0,875 1,000 H [10; 5; 3] 0,083 0,500 0,917 1,000
θ (1 − θ )
4.
První derivaci
5.
Distribuční funkce
podle
θ
položíme rovnu nule a vypočteme
θ = 0,5 .
Po[3] pro x = 2 , F (2) = 0,4232 , obslouženo je tedy jen 42 %
vozidel a 58 % odjíždí neobslouženo. Střední hodnota počtu obsloužených vozidel je
E ( X ) = 0 ⋅ 0,0498 + 1 ⋅ 0,1494 + 2 ⋅ 0,8008 = 1,751 z čehož využití kapacity
1,751 100 = 88 % . 2 6.
Jde o pravděpodobnost (1 − 0,4232) kusech následuje úspěšný).
E ( X ) = 5 ⋅ 0,15 = 0,75; 7.
8.
9.
10.
0,4232 = 0,1408 (po dvou neúspěšných po-
xˆ = 0; D 2 ( X ) = 5 ⋅ 0,15(1 − 0,15) = 0,6375;
D( X ) = 0,7984; V ( X ) = 1−θ = nθ
2
0,7984 = 1,0645. 0,75
nθ (1 − θ ) D( X ) = = V (X ) . nθ E( X )
E ( X − Y ) = E ( X ) − E (Y ) = −0,133 − 4,200 = −4,333 D 2 ( X − Y ) = D 2 ( X ) + D 2 (Y ) = 0,6493 + 1,3600 = 2,0093
X − E( X ) E( X ) − E( X ) E (U ) = E =0 = D( X ) D( X ) X − E( X ) D2 ( X ) D (U ) = D =1 = 2 D( X ) D ( X ) 2
2
33
.
.
Lekce 3 1 pro x ∈ (1; 10) tj. monotónně klesající funkce procházející body x ln 10 10 [1; 0,4343] a [10; 0,0434] . E ( X ) = ∫ x 1 dx = 3,91 , D 2 ( X ) = 6,4265 , x ln 10 1 f ( x) =
1.
x0 , 25
∫ 1
2.
1 dx = 0,25 , z čehož x0, 25 = 1,78 a dále x0,50 = 3,16; x0,75 = 5,62 . x ln 10
α+β 2
= 30
(β − α )2 = 33, 3 z čehož α = 20; β = 40 . 12 −
20 10
3.
P (0 < X ≤ 20) = F (20) = 1 − e
4.
Φ(1) − Φ (−1) = Φ(1) − (1 − Φ(1)) = 2Φ (1) − 1 = 0,682 .
5.
P (U ≤
115 − µ
σ
115 − µ
= 1;
σ
) = 0,841; P (U ≤
70 − µ
σ
= 0,8647 . 70 − µ
σ
) = 0,023 z čehož s pomocí tab. 3.2 plyne
= −2 takže µ = 100; σ = 15; σ 2 = 225 .
6.
P ( 491,7 ≤ X ≤ 508,3) = 0,90; P ( 487 ≤ X ≤ 513) = 0,99 .
7.
P ( Z < 0) = P (U <
Z − E ( Z ) 0 − ( −1) = = 0,5) = 0,691 , protože D( Z ) 2,09
E ( Z ) = E ( X ) − E (Y ) = −1, D 2 ( Z ) = D 2 ( X ) + D 2 (Y ) = 0,52 + 2 2 = 2,09 2 Hledaná pravděpodobnost je tedy menší (výsledek je pouze přibližný) než 0,7. 8. Tato pravděpodobnost je součtem pravděpodobností neslučitelných jevů, že se to podaří na první pokus, na druhý pokus nebo na třetí pokus
34
0,7 + 0,3 ⋅ 0,7 + 0,32 0,7 = 0,973 .
Ve druhém modulu jsme objevili známé pojmy takříkajíc v novém hávu. Pravděpodobnost, chápaná jako stabilizovaná relativní četnost po provedení velkého počtu pokusů, nás zavede od relativní četnosti datového souboru k pravděpodobnostní funkci diskrétní náhodné veličiny a od četnostní hustoty k hustotě pravděpodobnosti spojité náhodné veličiny. Ale při hledání analogií můžeme zařadit i „ zpátečku“ — četnostní funkce relativních kumulativních četností z prvního modulu můžeme nyní zpětně označit jako empirické distribuční funkce. Po prostudování tohoto modulu by měl student zvládnout počet pravděpodobnosti na elementární úrovni • znát vztahy mezi náhodnými jevy a zvládnout základní operace s nimi, • pochopit klasickou a statistickou pravděpodobnost, • umět určit úplnou pravděpodobnost a aposteriorní pravděpodobnost a chápat jejich význam, • pracovat s nezávislými a závislými opakovanými pokusy, • umět pracovat s diskrétní náhodnou veličinou a jejím rozdělením, • umět pracovat se spojitou náhodnou veličinou a jejím rozdělením. Takříkajíc „rodinným stříbrem“ tohoto modulu je princip praktické jistoty a nemožnosti jevu a symetrické chápání rizika, jako pravděpodobnosti, že se dostaví jiný než očekávaný výsledek (tedy ani „dobrý“ ani „špatný“ — prostě jiný). Ale věnujme se raději poznatkům, které hodláme v dalších modulech rozvíjet. Jedna možná cesta od rozdělení pravděpodobnosti náhodných veličin vede k náhodným výběrům z těchto rozdělení. Jen málokdy totiž můžeme tvrdit, že známe zákon rozdělení konkrétní náhodné veličiny včetně parametrů. Typická je situace spíše opačná — buď je známý jen zákon rozdělení, ale neznáme jeho parametry, nebo dokonce neznáme ani samotný zákon. V tom případě nastupuje studium náhodné veličiny prostřednictvím náhodného výběru, což nás (ovšem v nové kvalitě) zavede znovu k datovému souboru a jeho popisu pomocí charakteristik. Druhou cestou, kterou je možno v této chvíli se vydat, je zkoumat dvojice náhodných veličin, které nejsou nezávislé. Tato cesta nás zavede k měření závislostí náhodných veličin a dále k dvourozměrnému datovému souboru a jeho popisu pomocí charakteristik závislosti. V dalším studiu doporučujeme v této chvíli pokračovat modulem 3 — Náhodný výběr, odhady a testy hypotéz.
35