LMeasurement.tex, March 2, 2010
M´ er´ es ´ Altal´ anosan, b´armilyen m´er´es annyit jelent, mint meghat´arozni, h´anyszor van meg a m´erend˝o mennyis´egben egy m´asik, a m´erend˝ovel egynem˝ u, o¨nk´enyesen egys´egnek v´alasztott mennyis´eg. A m´er´es eredm´eny´et teh´at k´et adat fejezi ki: a m´ert´eksz´am ´es a m´ert´ekegys´eg. A m´er´est eredm´eny´et egy m´er˝osz´am ´es mennyis´eg dimenzi´oja adja meg. Tegy¨ uk fel, hogy egy t´eglalap alak´ u asztal egyik oldal´at kell megm´ern¨ unk. Egy m´er˝oruddal tehetj¨ uk ezt meg. Minden m´er´es eset´eben meg kell adni a m´er´es eredm´eny´et ´es azt hogy ezt az eredm´enyt mekkora hib´aval m´ert¨ uk. A m´er´es hib´aja miatt ´erdemes a m´er´est t¨obbsz¨or megism´etelni ´es a m´ert´ert´eknek a k¨oz´ep´ert´eket tekinteni.
A m´ er´ es ´ es hib´ aja Minden m´er´esnek van hib´aja. A m´er´esi eredm´enyeket a hib´aval egy¨ utt kell k¨oz¨olni. A m´er´es hib´aj´at a m´er´esi adatokb´ol kell becs¨ ulni. Tegy¨ uk fel, hogy egy a mennyis´eget m´er¨ unk, legyen a m´er´es eredm´enye a ¯, a becs¨ ult hiba pedig δa. A hib´at u ´ gy kell becs¨ ulni, hogy nagy val´osz´ın˝ us´eggel igaz legyen a k¨ovetkez˝o egyenl˝otlens´eg: a ¯ − δa < a < a ¯ + δa .
M´asr´eszr˝ol a hib´at annyira kicsire kell v´alasztani, amennyire csak lehet. Legyen egy a1 mennyis´eg. Ennek a mennyis´egnek legyen a ¯1 a m´ert ´ert´eke, b1 pedig a m´er´es hib´aja. Legyen egy m´asik a2 mennyis´eg, amelynek a m´ert ´ert´eke a ¯2 , a hib´aja pedig b2 . Ekkor a k¨ovetkez˝ot a´ll´ıthatjuk nagy val´osz´ın˝ us´eggel: a ¯ 1 − α × b 1 < a1 < a ¯ 1 + α × b1 ,
a ¯ 2 − α × b 2 < a2 < a ¯ 2 + α × b2 ,
ahol α = 3, 4. Azt p´eld´aul azonban, hogy
a1 < a 2 , csak akkor a´ll´ıthatjuk nagy val´osz´ın˝ us´eggel, ha: a ¯ 1 + α × b1 < a ¯ 2 − α × b2 .
A m´ er´ es pontoss´ aga A m´er´es pontoss´ag´anak k´et k¨ ul¨onb¨oz˝o jelent´ese van (accyuracy ´es precision): • A m´er´es pontoss´ag´anak egyik jelent´ese azt fejezi ki, hogy a m´er´es eredm´enye milyen k¨ozel esik a val´odi ´ert´ekhez (accuracy). • A m´er´es pontoss´ag´anak m´asik jelent´ese azt fejezi ki, hogy a m´er´es mennyire prec´ız, f¨ uggetlen¨ ul att´ol, hogy mi a val´odi ´ert´eke annak a mennyis´egnek, amit m´er¨ unk (pecision). 1
A k¨ oz´ ep ´ ert´ ek v´ arhat´ o´ ert´ eke ´ es sz´ or´ asa A m´er´es pontoss´ag´at n¨ovelhetj¨ uk, hib´aj´at pedig cs¨okkenthetj¨ uk, ha a m´er´eshez t¨obb m´er´es k¨oz´ep´ert´ek´et haszn´aljuk. Legyen N m´er´esi eredm´eny¨ unk. A m´er´esi eredm´enyek legyenek: x1 , x2 , . . . , x N . K´epezz¨ uk a k¨oz´ep´ert´eket: x¯ =
x1 + x 2 + . . . + x N . N
V´ arhat´ o´ ert´ ek Fen´all, hogy xν ≈ a, ez´ert < x¯ >= a: < x¯ >=
< x1 > + < x2 > +...+ < xN > N
Teh´at: < x¯ >= a .
Sz´ or´ as A m´er´esi eredm´enyek egym´ast´ol f¨ uggetlenek: p(x1 , x2 , ..., xN ) = p(x1 )p(x2 )...p(xN ) . X = N x¯ = x1 + x2 + ... + xN . Mivel < (δxν )2 >= σ 2 ,
ν = 1, 2, ..., N < (δX)2 >=
N X
< (δxν )2 >= N σ 2 .
ν=1
< (δ x¯)2 >= Teh´at:
D δX 2 E
N
σ σ ¯=√ . N
2
=
σ2 , N
Hossz´ us´ agm´ er´ es Az A ´es B pont k¨oz¨otti t´avols´agot egy m´er˝or´ uddal o¨sszehasonl´ıtva m´erj¨ uk. Az A ´es B pont k¨oz¨otti t´avols´agot egy f´enyforr´as ´es egy detektor seg´ıts´eg´evel is m´erhetj¨ uk, tudva hogy a f´eny a´lland´o sebess´eggel egyenes vonal ment´en terjed. Az egyszer˝ us´eg kedv´e´ert t´etelezz¨ uk fel, hogy a f´eny kibocsd´at´as´anak idej´et nagy pontoss´aggal ismerj¨ uk ´es ez´ert ezzel a m´er´es ki´ert´ekel´esekor nem kell t¨or˝odni. T´etelezz¨ uk fel, hogy a detekt´alt fotonok eloszl´asa Gauss-eloszl´ast k¨ovet: f (t; µ, σ) = √
(t−µ)2 1 e− 2σ2 . 2πσ 2
Ha a fotonok kibocs´at´asa is Gauss-eloszl´as szerint t¨ort´enik, akkor a k´et Gausseloszl´as eset´en, ha x ´es y egym´ast´ol f¨ uggetlen val´osz´ın˝ us´egi v´altoz´o ´es az eloszl´asok 2 2 param´eterei µx ´es σx , illetve µy ´es σy , akkor a k´et eloszl´as egy¨ uttes eloszl´asa szint´en 2 2 2 Gauss-eloszl´as´ u µz = µx + µy ´es σz = σx + σy param´eterekkel. Legyen N m´er´esi eredm´eny¨ unk: t1 , t2 , . . ., tN . A maximum-likelihood f¨ uggv´eny: LF =
N Y
√
i=1
(ti −µ)2 1 e 2σ2 . 2πσ 2
A f¨ uggv´eny logaritmus´anak a maximuma, ugyanazon a helyen tal´alhat´o mint a f¨ uggv´eny maximuma: ln LF =
N X
ln f (ti ; µ, σ) =
N X i=1
i=1
N X
1 (ti − µ)2 ln √ − = 2σ 2 σ 2π
N X 1 (ti − µ)2 (xi − µ)2 = N ln √ − = −N (ln σ + ln 2π) − 2σ 2 σ 2π i=1 2σ 2 i=1
´Igy a szorz´as helyett az egyszer¨ ubb o¨sszead´ast haszn´aljuk. E f¨ uggv´eny maximum´anak kell megtal´alni a hely´et. ∂ ln LF ∂µ
=
N N X X 1 ∂ h 2(ti − µ)(−1) (ti − µ)2 i N √ − = − = 2 ∂µ σ 2π i=1 2σ 2σ 2 i=1
= −
N X i=1
2(ti − µ)(−1) =
N X i=1
(ti − µ) =
N X i=1
ti − N µ = 0
´ ´ıgy: Es N X
ti = N µ
;
µ ˆ=
i=1
A v´arhat´o ´ert´ek hib´aja:
∂ 2 ln LF N =− 2 2 ∂µ σ
;
σµ =
N P
i=1
N
s
ti .
σ2 σ =√ . N N
Gauss eloszl´as eset´eben, vagy m´as f (t; µ, a ¯) eloszl´as eset´eben is, elj´arhatunk u ´ gy is, hogy keress¨ uk az eloszl´as µ v´arhat´o ´ert´ek´et, azt az ´ert´eket, amelyn´el a LF 3
likelihood f¨ uggv´enynek maximuma van. Az ´ıgy kapott µ ´ert´eket tekintj¨ ul a probl´ema megold´as´anak. Az extremum a v´arhat´o ´ert´ek meghat´aroz´as´ahoz az egyenletrendszer a k¨ovetkez˝o: N X xi − µ ∂ ln LF = =0 ∂µ σ2 i=1
N X ∂ ln LF N (xi − µ)2 = − + =0. ∂(σ 2 ) 2σ 2 i=1 2σ 4
´es
A megold´asa ennek az egyenletrendszernek a v´arhat´o ´ert´ek becs¨ ult ´ert´eke ´es hib´aja: µ ˆ=
n 1 X xi = x¯ N i=1
N 1 X σˆ2 = (xi − µ ˆ ) 2 = s2 . N i=1
´es
a) Ha σ ismert, akkor σµ µ hib´aja: ∂ 2 ln LF N = − ∂µ2 σ2
and so
σµ =
s
σ2 σ =√ . N N
b) Ha µ ismert, akkor a σ 2 sz´or´asn´egyzet hib´aja σσ2 : N X ∂ ln LF (xi − µ)2 N =− 2+ ∂(σ 2 ) 2σ 2σ 4 i=1
∂ 2 ln LF ∂(σ 2 )2
N N N 2 X 1 X N 2 − − (x − µ) = + (xi − µ)2 = i 2σ 4 2σ 6 i=1 2σ 4 σ 6 i=1 N N σˆ2 N N N = + 4 − 6 =+ 4 − 4 =− 4 2σ σ 2σ σ 2σ
= +
´es ´ıgy: s
2 2 σ . N Ezt a m´odszert terjesztettem ki a 3D esetre. σσ =
4
A maximum-likelihood m´ odszer (A legnagyobb val´ osz´ın˝ us´ eg m´ odszere) Egy konkr´et x1 , x2 , ..., xn teh´at n-elem˝ u minta eset´en vizsg´aljuk meg az LF = f (x1 ; a)f (x2 ; a) . . . f (xn ; a) =
n Y
f (xi ; a)
i=1
szorzatot, a likelihood f¨ uggv´enyt, mint a f¨ uggv´eny´et, amely valamilyen, az x1 , x2 , . . . , xn ´ert´ekekt˝ol f¨ ugg˝o a ˆ = aˆ(x1 , x2 , . . . , xn ) helyen felveszi a maximum´at. A param´eter val´odi ´ert´ek´ere ez az egyenl˝os´eg term´eszetesen a´ltal´aban nem teljes¨ ul, m´egis az a ˆ=a ˆ(x1 , x2 , . . . , xn ) statisztik´at tekintj¨ uk a val´odi ´ert´ek becsl´es´enek. (Az x1 , x2 , . . . , xn mintabeli v´altoz´ok egy tetsz˝oleges f¨ uggv´eny´et, statisztikai f¨ uggv´enynek, vagy r¨oviden statisztik´anak nevezz¨ uk. Az a param´eter k¨ozel´ıt´es´ere konstru´alt statisztik´at az a param´eter becsl´es´enek nevezz¨ uk.) ´ Altal´ aban egyszer¨ ubb´e v´alik a feladat, ha a szorzat helyett ennek logaritmus´aval dolgozunk. Mivel a logaritmusf¨ uggv´eny monoton n¨ovekv˝o, a f¨ uggv´eny maximumhelyei megegyeznek a megfelel˝o likelihood-f¨ uggv´enynek a maximumhelyeivel. ln LF =
n X
ln f (xi ; a) .
i=1
Teh´at az a param´eter becsl´es´et a ∂ ln LF =0 ∂a egyenlet adja a hib´aj´at pedig a σa2 = − egyenlet.
1 M
∂ 2 ln LF ) ∂a2
= −M
∂ 2 ln LF ) −1
∂a2
Estimation of Gaussian Parameters The mean µ and the variance σ 2 = a of the Gaussian distribution are estimated with the maximum likelihood method from the x1 , x2 , ..., xn observed values. The function of the parameters, for a given observed x value, is given by f (x; µ, a) = √
(x−µ)2 1 e− 2a . 2πa
The likelihood function is LF =
n Y
i=1
√
(xi −µ)2 1 e− 2a 2πa
5
ln LF = ln
n Y
i=1
√
n X (xi −µ)2 (xi − µ)2 1 n . e− 2a = − ln 2π + ln a − 2 2a 2πa i=1
The system of equations for the extremum is given by n X ∂ ln LF xi − µ = =0 ∂µ a i=1
n X ∂ ln LF n (xi − µ)2 =− + =0. ∂a 2a i=1 2a2
and
The solution of the system of equations is given by µ ˆ=
n 1X xi = x¯ n i=1
and
a ˆ=
N 1X (xi − µ ˆ ) 2 = s2 . n i=1
a) When a is known, then the error of the estimated mean value σµ : ∂ 2 ln LF n =− 2 ∂µ a
and so
σµ =
r
a = n
s
σ σ2 =√ . n n
b) When µ is known, then the error of the estimated variance σa : ∂ ln LF ∂a ∂ 2 ln LF ∂a2
= −
n n 1 X + 2 (xi − µ)2 2a 2a i=1
n n ∂ n 1 X 1 X n 2 − 2− 3 = (xi − µ) = + 2 − 3 (xi − µ)2 ∂a 2a a i=1 2a a i=1 nˆ a n n n n = + 2 − 3 =+ 2 − 2 =− 2 2a a 2a a 2a
and so σa =
s
2 a= n
s
2 2 σ . n
Estimation of Gaussian Parameters The mean µ and the variance σ of the Gaussian distribution are estimated with the maximum likelihood method from the x1 , x2 , ..., xN observed values. The function of the parameters, for a given observed x value, is given by f (x; µ, σ) = √
(x−µ)2 1 e− 2σ2 . 2πσ
The likelihood function is LF =
n Y
i=1
√
(xi −µ)2 1 e− 2σ2 . 2πσ
The logarithm of the likelihood function is ln LF = ln
n Y
i=1
√
n X (xi −µ)2 (xi − µ)2 n 1 . e− 2σ2 = − ln 2π + ln σ 2 − 2 2σ 2 2πσ 2 i=1
6
The system of equations for the extremum is given by n X xi − µ ∂ ln LF = =0 ∂µ σ2 i=1
n X (xi − µ)2 ∂ ln LF n =− 2+ =0. ∂(σ 2 ) 2σ 2σ 4 i=1
and
The solution of the system of equations is given by n 1X xi = x¯ n i=1
µ ˆ=
n 1X σˆ2 = (xi − µ ˆ ) 2 = s2 . n i=1
and
a) When σ is known, then the error of the estimated mean value σµ : ∂ 2 ln LF n =− 2 2 ∂µ σ
and so
σµ =
s
σ2 σ =√ . n n
b) When µ is known, then the error of the estimated variance σσ2 : n X n ∂ ln LF (xi − µ)2 = − + ∂(σ 2 ) 2σ 2 i=1 2σ 4
∂ 2 ln LF ∂(σ 2 )2
n n n 2 X 1 X n 2 − − (x − µ) = + (xi − µ)2 = i 2σ 4 2σ 6 i=1 2σ 4 σ 6 i=1 nσˆ2 n n n n = + 4 − 6 =+ 4 − 4 =− 4 2σ σ 2σ σ 2σ
= +
and so σσ =
s
2 2 σ . n
Estimation of Parameters of Poisson Distribution The mean µ and the variance σ of the Poisson distribution are estimated with the maximum likelihood method from the x1 , x2 , ..., xN observed values. The obseved values are integer numbers. f (x; m) =
mn −m e . n!
the likelihood function is: ln LF = ln
N Y
N N mxi −m X mxi −m X e = ln e = xi ln m − ln(xi !) − m = xi ! i=1 xi ! i=1 i=1
ln m
N X i=1
xi −
n X i=1
ln(xi !) − N m .
N 1 X ∂ ln LF = xi − N = 0 ∂m m i=1
7
and so:
PN
i=1
m= −
∂ 2 ln LF −1
∂m2
and so σm =
xi
N
=− −
v u u m2 tP m i=1
xi
=
= x¯ .
N −1 1 X 2 x = σm i m2 i=1
s
m2 = mN
r
m . N
Estimation of Parameters of Binomial Distribution The binomial distribution is given by !
n k f (k; n, p) = p (1 − p)(n−k) . k A likelihood f¨ uggv´eny: LF =
N Y
i=1
ln LF =
N X i=1
∂ ln LF ∂p
= =
!
n ki p (1 − p)(n−ki ) . ki !
n + ki ln p + (n − ki ) ln(1 − p) . ln k
n h i X 1 (1 − p)ki − p(n − ki ) p(1 − p) i=1 N X 1 ( ki − pnN ) . p(1 − p) i=1
A p param´eter ´et´ek´et a
egyenlet megold´asa adja: X
N X 1 ( ki − pnN ) = 0 p(1 − p) i=1
ki = pnN
;
p=
ki . nN
P
Ez a p param´eter maximum-likelihood becsl´ese. A kapott eredm´eny interpret´al´as´ahoz vegy¨ uk figyelembe, hogy a binomi´alis eloszl´as v´arhat´o ´ert´eke < k >= pn . Teh´at a v´arhat´o ´ert´ek n-ed r´esze.
k p= ∼ n nN P
; 8
k ∼< k > . N
P
A hiba becsl´ese: hX i ∂ 1 ∂2 LF = k − pnN = i ∂p2 ∂p p(1 − p) hX i 1 ∂ hX ∂ 1 = ki − pnN + ki − pnN ] = ∂p p(1 − p) p(1 − p) ∂p nN . = − p(1 − p)
σp2 =
p(1 − p) , Nn
ahol σp2 =
σ2 . N 2n
9
σ 2 = N p(1 − p) .
Spherical Detector x 10 2 4500 4000 3500 3000 2500 2000 1500 1000 500 0
0
20
40
60
80
100
120
140
160
180
200
104
105
Figure 1: Length measurement (photon distribution) Spherical Detector 5000
4000
3000
2000
1000
0
95
96
97
98
99
100
101
102
103
Figure 2: Length measurement (mean value) 10
Spherical Detector 90000 80000 70000 60000 50000 40000 30000 20000 10000 0
0
2
4
6
8
10
12
14
16
18
20
104
105
Figure 3: Length measurement (photon distribution) Spherical Detector 5000
4000
3000
2000
1000
0
95
96
97
98
99
100
101
102
103
Figure 4: Length measurement (mean value) 11