SIGNAALANALYSE Ton van Lunteren
Jenny Dankelman
July 6, 2005
Inhoud 1 Inleiding
1
2 Systeemidentificatie met deterministische ingangssignalen 2.1 Beschrijving van lineaire systemen . . . . . . . . . . . . . . . 2.1.1 Het bodediagram . . . . . . . . . . . . . . . . . . . . 2.2 Identificatie van lineaire systemen zonder ruis . . . . . . . . 2.3 Identificatie van systemen met ruis . . . . . . . . . . . . . . 2.4 Niet-lineaire systemen zonder ruis . . . . . . . . . . . . . . . 2.5 Grenzen aan de mogelijkheden . . . . . . . . . . . . . . . . .
. . . . . .
5 5 6 8 11 18 24
. . . .
27 27 28 28 30
. . . . . . . .
30 32 34 36 36 39 43 43
4 Discrete tijd lineaire systemen 4.1 De z-transformatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Afleiding van de z-transformatie uitgaande van de laplacetransformatie . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Enkele eigenschappen van de z-transformatie . . . . . . . . . . 4.1.3 De z-transformatie voor het beschrijven van diskrete systemen 4.2 Relatie tussen transformaties en vormen van systeembeschrijvingen . 4.2.1 Van z-transformatie naar DFT . . . . . . . . . . . . . . . . . 4.2.2 Overzicht van transformaties . . . . . . . . . . . . . . . . . . . 4.2.3 Systemen, transformatievariabelen en operatoren . . . . . . .
45 45
3 Bemonsterde signalen in het frequentiedomein 3.1 De diracfunktie en de kam van dirac . . . . . . . . . . . . 3.1.1 De diracfunktie . . . . . . . . . . . . . . . . . . . . 3.1.2 De kam van dirac . . . . . . . . . . . . . . . . . . . 3.2 Bemonsterde signalen . . . . . . . . . . . . . . . . . . . . . 3.2.1 Transformatie van bemonsterde signalen naar het tiedomein . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Het theorema van Shannon . . . . . . . . . . . . . 3.2.3 Recapitulatie bemonsterde signalen . . . . . . . . . 3.3 De Fourier Transformatie . . . . . . . . . . . . . . . . . . . 3.3.1 De diskrete fouriertransformatie (DFT) . . . . . . . 3.3.2 De Fast Fourier Transform . . . . . . . . . . . . . . 3.3.3 Stelling van Parseval . . . . . . . . . . . . . . . . . 3.3.4 Recapitulatie DFT en FFT . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . . . . . . . . . . . . . . . . frequen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45 47 49 49 49 51 53
vi
Inhoud
4.3
Bodediagram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.1 Continue systemen . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.2 Discrete systemen . . . . . . . . . . . . . . . . . . . . . . . . . 56
5 Waarschijnlijkheidsrekening 5.1 Kans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Random variabele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Verdelingsfunktie en verdelingsdichtheidsfunktie . . . . . . . . 5.2.2 Verwachtingswaarde . . . . . . . . . . . . . . . . . . . . . . . 5.2.3 Enkele kansverdelingen . . . . . . . . . . . . . . . . . . . . . . 5.3 De ongelijkheid van Tschebycheff . . . . . . . . . . . . . . . . . . . . 5.4 Funkties van twee random variabelen . . . . . . . . . . . . . . . . . . 5.4.1 De tweedimensionale verdelingsfunktie en verdelingsdichtheidsfunktie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Gemiddeld produkt, covariantie en correlatie . . . . . . . . . . 5.5 Meerdimensionale verdelingen . . . . . . . . . . . . . . . . . . . . . .
59 59 60 60 61 63 67 68 68 74 78
6 Schattingstheorie 83 6.1 Eigenschappen van schatters . . . . . . . . . . . . . . . . . . . . . . . 84 6.2 Schatter voor de gemiddelde waarde en de variantie . . . . . . . . . . 88 7 Stochastische processen 93 7.1 Stochastische processen en hun kenmerkende grootheden . . . . . . . 93 7.2 Continue tijd stochastische processen . . . . . . . . . . . . . . . . . . 94 7.2.1 Verdelingsfunkties en verdelingsdichtheidsfunkties . . . . . . . 94 7.2.2 Gemiddelde produktfunkties, covariantiefunkties en correlatiefuncties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 7.3 Discrete tijd stochastische processen . . . . . . . . . . . . . . . . . . . 106 7.4 Diskrete ruis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 7.5 Ergodiciteit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 8 Stochastische processen in het frequentie-domein 8.1 Spectrale dichtheden . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Een gemodificeerde fouriertransformatie . . . . . . . . . . . . . . . 8.3 De coherentie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121 . 121 . 126 . 128
9 Identificatie van systemen met stochastische ingangen 9.1 Identificatie van lineaire systemen . . . . . . . . . . . . . . . . . . . 9.1.1 Bepaling van overdrachtsfunkties en andere relaties uit spectrale dichtheden via het tijdsdomein . . . . . . . . . . . . . . 9.1.2 Bepaling van overdrachtsfunkties uit spectrale dichtheden via directe relaties in het frequentiedomein. . . . . . . . . . . . . 9.1.3 Schatten in een gesloten keten. Wat kan er mis gaan? . . . . 9.2 Identificatie van niet-lineaire systemen . . . . . . . . . . . . . . . . 9.2.1 Coherentie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
131 . 132 . 132 . . . .
134 135 137 140
Inhoud
vii
10 Schatten van spectrale dichtheden en overdrachtsfunkties 143 10.1 Schatten van gemiddelde produkt-, covariantie- en correlatiefunkties . 144 10.1.1 Uitdrukkingen voor de schatters . . . . . . . . . . . . . . . . . 144 10.1.2 Eigenschappen van de beschouwde schatters . . . . . . . . . . 145 10.2 Schatten van spectrale dichtheden . . . . . . . . . . . . . . . . . . . . 147 10.2.1 Schatten van spectrale dichtheden via de covariantiefunktie . . 149 10.2.2 Transformatievensters (windowing) . . . . . . . . . . . . . . . 151 10.2.3 Schatten van spectrale dichtheden via transformatie van signalen157 10.3 Eigenschappen van schatters in het frequentiedomein. . . . . . . . . . 162 10.3.1 Schatter voor spectrale dichtheid . . . . . . . . . . . . . . . . 162 10.3.2 Schatter voor de coherentiefunctie . . . . . . . . . . . . . . . . 164 10.3.3 Schatter voor de overdrachtsfunktie in open keten. . . . . . . . 166 10.3.4 Schatter voor de overdrachtsfunctie in een gesloten keten. . . . 168
Hoofdstuk 1 Inleiding Het college ”Signaalanalyse” houdt zich bezig met dynamische verschijnselen. Op zich zijn onderwerpen als systemen en signalen al naar voren gekomen in de tweedejaars vakken systeemtheorie en inleiding regeltechniek. De signalen die hier beschouwd werden, waren steeds deterministisch, d.w.z. ze zijn exact bekend als funktie van de tijd. Voorbeelden van dit soort signalen zijn stapfunkties en sinussen, maar ook ingewikkelder funkties van de tijd. In de praktijk hebben we veelal te maken met signalen die een ruisvormig karakter hebben, dat wil zeggen met signalen die niet exact voorspelbaar zijn. De theorie die zich met dit soort signalen bezighoudt staat bekend als de stochastiek. Waarom stochastiek? Het belang van de stochastiek in de opleiding komt naar voren bij het beschouwen van de werktuigbouwkunde, zoals blijkt uit het binnen de afdeling verrichte, dan wel lopende onderzoek. Het gedrag van bijvoorbeeld voertuigen wordt mede bepaald door de oneffenheden van het wegdek waarop het voertuig rijdt. Deze oneffenheden leveren een ruisvormig ingangssignaal op het voertuig. Zowel voor de bestuurbaarheid als voor het rijcomfort is het van belang het voertuig zodanig te ontwerpen dat de invloed van de wegdekoneffenheden zo klein mogelijk is. Bij het onderzoek op het gebied van de voertuigdynamica speelt de stochastiek dan ook een belangrijke rol, zowel bij de theoretische modelvorming als bij de experimentele verificatie van deze modellen. Bij verspanende bewerkingen wil men de oppervlakteruwheid zo goed mogelijk beheersen. Dit vraagt enerzijds een classificatie van deze ruwheden, waarin niet alleen de verdeling van de hoogten van de oneffenheden van belang is, maar ook de verdeling van de golflengten. Anderzijds wil men weten, waardoor de eigenschappen van deze oneffenheden kunnen worden be¨ınvloed, zodat bepaalde gewenste specificaties op de meest economische wijze kunnen worden bereikt. Bij het onderzoek aan turbulentieverschijnselen in stromingen heeft men eveneens te maken met fluktuaties die niet meer met deterministische beschrijvingswijzen te karakteriseren zijn. Bij transport van vloeistoffen, of mengsels van vaste stoffen met vloeistoffen of gassen in een leiding meet men soms snelheden door op twee plaatsen in de leiding de fluctuaties in dichtheid of temperatuur te meten. Door deze
2
1
Inleiding
ruissignalen met een computer te bewerken kan de informatie over de gemiddelde snelheid uit deze schijnbaar ongeordende gegevens worden verkregen. Op overeenkomstige wijze is het mogelijk om wiskundige modellen te maken van de dynamica van processen in bijvoorbeeld de chemische industrie. Dergelijke modellen worden gebruikt om een regeling te ontwerpen. Omdat veelal gewerkt wordt met gelineariseerde modellen van niet-lineaire systemen, moeten deze modellen worden bepaald onder bedrijfsomstandigheden. Alle informatie moet dan verkregen worden uit een aantal signalen met een ruisvormig karakter. Deze problematiek treft men overal aan waar een regelsysteem moet worden ontworpen. Voorbeelden zijn het walsen van staalplaat, de produktie van stoom in een electrische centrale, elektriciteitsproduktie met behulp van windmolens, maar ook bij onderzoek aan systemen die door een mens bestuurd moeten worden, zoals vliegtuigen, voertuigen en vaartuigen. Doel van het college Het college ”Signaalanalyse” heeft als doel om de student werktuigbouwkunde een zodanige hoeveelheid basiskennis te geven, dat hij enig inzicht heeft in de mogelijkheden van de thans ter beschikking staande signaalverwerkingstechnieken. Een verdere uitwerking van deze basis, wordt gegeven in de colleges ”Systeemidentificatie A (wb2301)” en ”Systeemidentificatie B (wb2403)”. Het dictaat sluit aan bij de stof van de vakken ”Systeemtheorie (wb2203)” en ”Inleiding Regeltechniek (wb2204)”. Beide vakken vormen de basis voor de twee poten van de meet- en regeltechniek, namelijk de analyse (meten) en de synthese (regelen). De stof van de vakken wb2203 en wb2204 wordt dan ook bekend verondersteld (b.v begrippen als convolutie en fouriertransformatie), evenals de stof van het vak ”Kansrekening en Statistiek (wi380)”. In het volgende hoofdstuk wordt het Bodediagram nog een keer behandeld en wel omdat dit nu wordt gehanteerd vanuit de vraagstelling: Gegeven het bodediagram, hoe ziet de overdrachtsfunktie van het systeem er uit? Dit als onderdeel van de centrale vraagstelling van het gehele college. Deze luidt als volgt:
3
Gegeven een onbekend systeem, waarvan het ingangssignaal en het uitgangssignaal gemeten kunnen worden. Verder is bekend, dat het uitgangssignaal verstoord is door een onbekend ruissignaal. Gevraagd een lineaire beschrijving die het verband tussen de gemeten ingangs- en uitgangssignalen zo goed mogelijk weergeeft. Opbouw van het dictaat In de praktijk zal steeds eerst gekeken moeten worden of deze vraag op een eenvoudige manier te beantwoorden is. Wanneer het gaat om een systeem of deelsysteem waaraan men zelf een testsignaal naar keuze kan toevoeren kan men vaak met betrekkelijk eenvoudige en doorzichtige methoden te werk gaan. Het gebruik van deterministische signalen als stapfunkties en sinussen biedt de mogelijkheid om de invloed van de ruis goeddeels te elimineren. Hoofdstuk 2 is dan ook geheel gewijd aan deze methoden, die nog geen groot beroep doen op kennis van de stochastiek. In hfst. 3 en 4 wordt de overgang gemaakt van continu naar diskreet, omdat bij de praktische toepassing uiteindelijk de gemeten signalen worden omgezet in getallenreeksen die verder verwerkt worden met behulp van een computer. Indien men niet in staat is zelf een eenvoudig deterministisch testsignaal te introduceren, zal men een beroep moeten doen op zwaarder mathematisch gereedschap. Dit is het geval als zowel het ingangssignaal als de verstoring een ruisvormig karakter hebben. Het gemeten uitgangssignaal is dan niet meer op eenvoudige wijze te splitsen in een responsie op het ingangssignaal en een verstoring. Om deze reden wordt de stochastiek ge¨ıntroduceerd. De stochastiek berust enerzijds op de waarschijnlijkheidsrekening, anderzijds op de deterministische signaaltheorie. In hfst. 5 wordt daarom eerst een recapitulatie gegeven van de benodigde basisbegrippen uit de waarschijnlijkheidsrekening. In hfst. 7 worden de basisbegrippen van de stochastiek behandeld in hun relatie tot het systeemidentificatieprobleem. In hfst. 8 wordt aangegeven hoe spectrale dichtheden kunnen worden bepaald. In hfst. 9 wordt aangegeven hoe met behulp van deze spectrale dichtheden overdrachtsfuncties kunnen worden afgeleid. In hfst. 10 wordt het schatten van de in hfst. 9 behandelde grootheden uit gemeten signalen behandeld. Hiervoor zal in hfst. 6 een overzicht gegeven van het relevante deel van de schattingstheorie. De tot hier toe behandelde technieken veronderstellen geen voorkennis omtrent de struktuur van het te identificeren systeem. De resultaten komen beschikbaar in de vorm van bodediagrammen. Zodra men op grond van deze bodediagrammen de struktuur van het systeem kan vastleggen in de vorm van een overdrachtsfunktie, kan men het systeemidentificatieprobleem omzetten naar een parameterschattingsprobleem. Dit vormt dan ook het onderwerp van het college ”Systeemidentificatie B”. Literatuur Het schatten van spectrale dichtheden van stochastische processen en het daaruit weer schatten van overdrachtfunkties is een techniek die in de vijftiger jaren tot ontwikkeling gekomen is (Blackman en Tukey, 1958). In de zestiger jaren werd met name aandacht geschonken aan het afleiden van betrouwbaarheidsintervallen voor de verkregen schattingen (Jenkins en Watts, 1969). Werk dat vooral gericht is op
4
1
Inleiding
toepassingen in diskrete tijd is dat van Priestley (1981). Enkele meer recentere boeken zijn: Fante (1988), Therrien (1992), S¨oderstr¨om (1994) en Zelniker en Taylor (1994). Ten aanzien van het onderwerp parameterschatting is Ljung (1987) een goed boek. - Blackman, R.B. and Tukey, J.W. (1958). The Measurement of Power spectra. Dover, New York, 190 p. - Jenkins, G.M. and Watts, D.G. (1969). Spectral Analysis and its applications. Holden Day, San Francisco, 525 p. - Priestley, M.B. (1981). Spectral Analysis and Time Series. Academic Press, London - Ljung, L. (1987) System Identification: Theory for the User. Prentice Hall, Englewood Cliffs, 519 p. - Fante, R.L. (1988) Signal Analysis and Estimation - An Introduction. John Wiley and Sons, 448p - Therrien C.W. (1992) Discrete Random Signals and Statistical Signal Processing, Prentice Hall, 727 p. - S¨oderstr¨om T. (1994) Discrete-Time Stochastic Systems - Estimation and Control, Prentice Hall, 335 p. - Zelniker G., Taylor F.J. (1994) Advanced Digital Signal Processing - Theory and Aplications, Marcel Dekker Inc. 666 p.
Hoofdstuk 2 Systeemidentificatie met deterministische ingangssignalen In dit hoofdstuk wordt ingegaan op de vraag op welke wijze een beschrijving te krijgen is van een systeem op grond van een gemeten responsie op een bekend ingangssignaal. De behandeling wordt beperkt tot lineaire beschrijvingswijzen. Daarom wordt begonnen met de bespreking van de beschrijving van lineaire systemen met behulp van de overdrachtsfunktie en de weergave daarvan in een bodediagram. Vervolgens wordt ingegaan op de identificatie van lineaire systemen met behulp van deterministische ingangssignalen voor het geval er geen ruis is. In par. 2.3 wordt besproken welke technieken er toegepast kunnen worden als het uitgangssignaal van het systeem, als responsie op een deterministisch ingangssignaal, door ruis verstoord wordt. In par. 2.4 wordt het lineariseren van niet-lineaire systemen besproken. Aan het eind worden de grenzen van de mogelijkheden van de behandelde methoden aangegeven en de noodzaak voor een andere benadering voor deze gevallen wordt gesignaleerd.
2.1 Beschrijving van lineaire systemen E´en van de meest voor de hand liggende beschrijvingswijzen van een systeem is de differentiaalvergelijking die het gedrag van het systeem karakteriseert. Deze differentiaalvergelijking is veelal af te leiden door toepassing van fysische wetten, meestal in de vorm van een balansvergelijking, zoals een krachtenbalans, massabalans, energiebalans. Door gebruik te maken van de fouriertransformatie kan deze differentiaalvergelijking in het tijdsdomein omgezet worden in een algebra¨ısche vergelijking in het frequentiedomein: Y (ω) = H(ω)U (ω), met H(ω) = F{h(t)} =
Z
∞ −∞
h(t)e−jωt dt
[2.1]
De grootheid h(t) staat bekend als als de impulsresponsie van het systeem. De
6
2
Systeemidentificatie met deterministische ingangssignalen
grootheid H(ω)1 staat bekend als de overdrachtsfunktie van het systeem. vergelijking Y (ω) = H(ω)U (ω) kan teruggetransformeerd worden naar het tijdsdomein met h(t) = F
−1
1 Z∞ {H(ω)} = H(ω)ejωt dω 2π −∞
[2.2]
Aangezien een produkt in het frequentiedomein een convolutie in het tijdsdomein oplevert wordt de vergelijking dan y(t) = h(t) ∗ u(t) =
Z
∞ −∞
h(τ )u(t − τ )dτ =
Z
∞ −∞
h(t − τ )u(τ )dτ
[2.3]
Gezien de eenvoud van de beschrijvingswijze in het frequentiedomein wordt deze zeer veel gebruikt. Dit komt met name naar voren bij het beschrijven van systemen die opgebouwd zijn uit een combinatie van deelsystemen.
2.1.1 Het bodediagram De overdrachtsfunktie H(ω) is een complexe funktie, d.w.z. voor een bepaalde waarde van ω wordt hij gekarakteriseerd door 2 getallen, hetzij het re¨ele en imaginaire deel: H(ω) = ReH(ω)q+ jImH(ω), hetzij modulus en argument: H(ω) = 6 |H(ω)|ej H(ω) , met |H(ω)| = Re(H(ω)2 + Im(H(ω)2 en 6 H(ω) = arctan ImH(ω) . ReH(ω) In het bodediagram worden modulus en argument, ook vaak amplitude en fase genoemd, van de funktie H(ω) afgebeeld. Hierbij zijn de amplitude en de frequentie op een logarithmische schaal uitgezet, de fase op een lineaire schaal. Het voordeel hiervan wordt duidelijk als we kijken naar de overdrachtsfunktie van systemen in serie. Hiervoor geldt: H(ω) =
n Y
Hk (ω)
[2.4]
k=1
of uitgedrukt in amplitude en fase: log |H(ω)| = 6
H(ω) =
n X
k=1 n X 6
log |Hk (ω)|
[2.5]
Hk (ω)
k=1
Dit betekent dat het bodediagram van H(ω) eenvoudig op te bouwen is uit de bodediagrammen van de systemen afzonderlijk. Hiervoor is het nodig dat men die van een aantal eenvoudige typen kent. In het vak ”Systeemtheorie” zijn de bodedia1 grammen van enkele eenvoudige systemen afgeleid (b.v versterker: K, integrator jω , 1 differentiator: jω, PD-regleaar: (1+jωτ ), 1e orde systeem: 1+jωτ , 2e orde systeem). 1
In deze notatie is H(ω) een functie van de radiaalfrequentie ω in [rad/s]. Soms wordt deze funktie weergegeven als funktie van de frequentie f in [Hz], waarbij Rω = 2πf . Bij het gebruik van R 1 . . . dω. ω moet men zich realiseren dat bijvoorbeeld . . . df overgaat in 2π
2.1
7
Beschrijving van lineaire systemen
2
Magnitude
10
1
10
0
10 −2 10
−1
10
0
10
0
10
10
1
10
2
1
10
Phase deg
90
0
−90 −2
10
Figuur 2.1: K(1+jωτ1 ) (1+jωτ2 )(1+jωτ3 )
−1
10
10 Frequency (rad/sec)
2
Bodediagram van een systeem met overdrachtsfunktie: H(ω) = voor het geval dat τ1 > τ2 > τ3 .
Voorbeeld Aan de hand van een voorbeeld wordt toegelicht hoe een wat ingewikkelder bodediagram kan worden opgebouwd. Gegeven een systeem gekarakteriseerd door de overdrachtsfunktie: H(ω) =
K(1 + jωτ1 ) (1 + jωτ2 )(1 + jωτ3 )
[2.6]
Deze overdrachtsfunktie bestaat uit 4 termen waarvan er voor wat de vorm betreft 3 verschillend zijn. De parameter K bepaalt alleen de plaats van de schaal langs de verticale as in de amplitudekarakteristiek, maar heeft geen enkele invloed op de fasekarakteristiek. De waarden van de tijdconstanten τ1 , τ2 en τ3 bepalen wel de uiteindelijke vorm van zowel de amplitudekarakteristiek als de fasekarakteristiek. De tijdconstanten τ 2 en τ3 zijn onderling verwisselbaar zonder dat dit invloed heeft op de vorm. Van belang is, de grootte van de tijdkonstante τ1 ten opzichte van τ2 en τ3 . In fig. 2.1 is een geval afgebeeld, nl.: τ1 > τ2 > τ3 . Als τ1 = τ2 dan is het systeem vereenvoudigd tot een eerste orde systeem doordat een tellerterm en een noemerterm tegen elkaar wegvallen. Wat alle mogelijkheden met elkaar gemeen hebben is, dat in het laagfrequente gebied het bodediagram het karakter heeft van een versterker met versterkingsfactor K; in het hoogfrequente gebied het karakter van een integrator. Dit volgt ook uit de overdrachtsfunktie H(ω) door te kijken naar het geval ωτ 1 waarbij τ de grootste tijdconstante is, en naar het geval ωτ 1, waarbij τ de kleinste tijdconstante is.
Het figuur uit het voorbeeld illustreert, dat voor een combinatie van de genoemde simpele elementen het bodediagram vrij eenvoudig te construeren is. Omgekeerd kan uit het bodediagram de struktuur van de overdrachtsfunktie met de numerieke
8
2
Systeemidentificatie met deterministische ingangssignalen
waarden van de parameters teruggevonden worden. Deze informatie is voornamelijk te halen uit de asymptoten van de amplitudekarakteristiek. De juistheid is dan te verifi¨eren door het tekenen van de bijbehorende fasekarakteristiek. De overdrachtsfunktie is te reconstrueren door het bodediagram van laagfrequent naar hoogfrequent te analyseren. De helling k van de eerste asymptoot geeft namelijk aan dat er een term aanwezig is van de macht (jω)k , bijvoorbeeld k = 1 (differentiator), k = 0 (versterker), k = −1 (integrator), k = −2 (dubbele integrator), enz. Naar rechtsgaand in de amplitudekarakteristiek geeft de verandering van de helling in een knikpunt aan of er een term (1+jωτ ) in de teller dan wel in de noemer aanwezig is. Verandert de helling van k naar k +1 dan is er een tellerterm, verandert hij van k naar k −1 dan is er een noemerterm. Het snijpunt van de twee opeenvolgende asymptoten geeft dan de waarde van τ . Deze volgt namelijk uit ω = τ1 . Aldus naar rechts gaand langs de frequentieas kan men de verschillende termen vinden voor het frequentiegebied waarin het bodediagram getekend is.
2.2 Identificatie van lineaire systemen zonder ruis Zoals blijkt uit het voorgaande kan men uit de amplitude- en fasekarakteristieken van het bodediagram de overdrachtsfunktie van het systeem in principe volledig bepalen, d.w.z. zowel de structuur als de parameters. Praktisch kan het wel moeilijkheden opleveren om bijvoorbeeld de ligging van de verschillende asymptoten in de amplitudekarakteristiek te bepalen. Dit houdt dan echter alleen in dat het dan niet meer met grafische technieken moet gebeuren maar analytisch. Als we er echter van uitgaan dat we het bodediagram exact bepaald hebben, kunnen we in principe de overdrachtsfunktie H(ω) in formulevorm bepalen. Exacte kennis van het bodediagram betekent dat we dit diagram, of althans een aantal punten van dit diagram, ruisvrij hebben kunnen meten. Praktisch meten we nooit exact ruisvrij, maar alvorens de invloed van de ruis in onze beschouwing mee te nemen in par. 2.3 zullen we eerst het geval zonder ruis behandelen. Om met behulp van ´e´en of meer experimenten een bodediagram te bepalen hebben we een ingangssignaal nodig. We zullen daarom de toepassingsmogelijkheden van een aantal ingangssignalen nader onderzoeken. De eenheidsstap als ingangssignaal Om voor een bepaald frequentiegebied het bodediagram van een systeem te bepalen moet men in principe voor elke frequentie in dit gebied het systeem aanstoten. Men kan daarvoor een ingangssignaal kiezen dat alle frequenties bevat. Een signaal waarbij dit het geval is, is de eenheidsimpuls of diracfunktie δ(t − t0 ) op het tijdstip t0 , of met t0 = 0 de diracfunktie δ(t). Deze funktie bevat alle frequenties en wel in even sterke mate, zoals volgt uit de fouriertransformatie van deze funktie. Gebruik makend van de integraaleigenschap van de diracfunktie volgt namelijk dat: F{δ(t)} =
Z
∞ −∞
δ(t)e−jωt dt = 1
[2.7]
2.2
Identificatie van lineaire systemen zonder ruis
9
Dit is echter een praktisch niet realiseerbare funktie omdat dit een oneindig hoge, oneindig smalle puls moet zijn met een oppervlak onder de puls gelijk aan 1. Bovendien is er geen enkel systeem dat heel blijft bij een dergelijk ingangssignaal. Praktische benaderingen met een puls van eindige hoogte en eindige breedte zijn te realiseren, maar in hoeverre de responsie op een dergelijk signaal te beschouwen is als een goede benadering van de impulsresponsie is twijfelachtig. Hoewel de impulsresponsie alle informatie omtrent het systeem bevat, is het slechts in eenvoudige gevallen mogelijk om de informatie omtrent structuur en parameters van het systeem uit de impulsresponsie te halen. Eenvoudige voorbeelden hiervan zijn: het eerste orde systeem het tweede orde systeem en de voortplantingstijd. Voor systemen met een hogere orde is dit echter veel moeilijker. Een grootheid, die in principe dezelfde informatie bevat, maar veel gemakkelijker te meten is, is de stapresponsie. Aangezien de impulsresponsie de afgeleide is van de stapresponsie, biedt dit een eenvoudige mogelijkheid om de impulsresponsie toch te bepalen uit een meting in het tijdsdomein. De eenheidsstap op het tijdstip t=0 is te beschouwen als de responsie van een integrator met als ingangssignaal een diracpuls δ(t). Men doet er echter verstandig aan om niet naar de stapresponsie of impulsresponsie in het tijdsdomein te kijken maar naar de overdrachtsfunktie in het frequentiedomein. De overdrachtsfunktie is te bepalen door differentiatie van de stapresponsie gevolgd door fouriertransformatie. Deze weg heeft het voordeel van de eenvoud van het experiment, maar vraagt wat rekenwerk achteraf. Bij zeer eenvoudige systemen kan men wel een directe interpretatie aan de stapresponsie verbinden. Men kan ook aan de stapresponsie zien of het systeem van hogere orde dan twee is en of er sprake is van een voortplantingstijd. In het frequentiedomein geldt dat de fouriergetransformeerde van de eenheidsstap 1 1 gelijk is aan Y (ω) = H(ω)U (ω), met U (ω) = 1 en H(ω) = jω , zodat Y (ω) = jω . In het stapvormige signaal zitten dus alle frequenties, zij het met een amplitude die afneemt bij toenemende frequentie. Het is dus vooral een laagfrequent testsignaal. Voor het ruisvrije geval, zoals beschouwd in deze paragraaf, maakt dat in principe niet veel uit. In de praktijk meet men echter altijd met ruis, hoe klein ook. Dit betekent dan ook dat als regel de signaal/ruis-verhouding bij toenemende frequentie afneemt. Periodieke ingangssignalen Een geheel ander testsignaal is de sinus. Dit testsignaal bevat maar ´e´en frequentie en met ´e´en sinus vinden we dan ook maar ´e´en punt van de amplitude- en fasekarakteristiek in het bodediagram. Voor de berekening hiervan geven we eerst de fouriergetransformeerden van de sinus en de cosinus (Fig. 2.2): F{sin ω1 t} = −πj (δ(ω − ω1 ) − δ(ω + ω1 )) F{cos ω1 t} = π (δ(ω − ω1 ) + δ(ω + ω1 ))
[2.8]
De relatie F{ejω1 t } = 2πδ(ω − ω1 ) is niet eenvoudig af te leiden. Deze afleiding zal hier achterwege gelaten worden. De terugtransformatie is wel vrij simpel. Gebruik
10
2
Systeemidentificatie met deterministische ingangssignalen
Figuur 2.2: De fouriergetransformeerden van de sinus en de cosinus.
makend van de definitie van de diracpuls als integraaleigenschap volgt direct: F −1 {δ(ω − ω1 )} =
1 Z∞ 1 jω1 t δ(ω − ω1 )ejωt dω = e 2π −∞ 2π
[2.9]
We kunnen nu direct aangeven hoe met een sinusvormig ingangssignaal een punt van de overdrachtsfunktie bepaald wordt. Stel het in- en uitgangssignaal is: u(t) = a1 cos ω1 t + b1 sin ω1 t = A1 cos(ω1 t + φ1 ) y(t) = c1 cos ω1 t + d1 sin ω1 t = B1 cos(ω1 t + ψ1 )
[2.10]
dan geldt: U (ω) = a1 π(δ(ω − ω1 ) + δ(ω + ω1 )) − jb1 π(δ(ω − ω1 ) − δ(ω + ω1 )) Y (ω) = c1 π(δ(ω − ω1 ) + δ(ω + ω1 )) − jd1 π(δ(ω − ω1 ) − δ(ω + ω1 )) Voor de overdrachtsfunktie H(ω) bij de frequentie ω = ω1 geldt: H(ω1 ) =
c1 − jd1 Y (ω1 ) = U (ω1 ) a1 − jb1
[2.11]
Hieruitvolgt:
6
|H(ω1 )| =
r
c21 +d21 a21 +b21
=
B1 A1
1 1 − arctan −b = ψ 1 − φ1 H(ω1 ) = arctan −d c1 a1
[2.12]
De grootheden A1 , B1 en ψ1 − φ1 zijn uit een gemeten registratie van de signalen te bepalen. De fasehoek ψ1 − φ1 , die meestal negatief is, kan het meest nauwkeurig worden bepaald uit de plaatsen van de nuldoorgangen van u(t) en y(t). Om het hele bodediagram te krijgen, moet men het experiment een aantal keren herhalen, met steeds een sinus van een andere frequentie. Het aantal frequenties moet zodanig worden gekozen, dat een redelijk vloeiende amplitudekarakteristiek en fasekarakteristiek bepaald kunnen worden, waaruit de overdrachtsfunktie te reconstrueren is. Hoe ingewikkelder het systeem, hoe meer punten van het bodediagram nodig zijn. Elk experiment met ´e´en sinus levert in principe twee gegevens: een amplitudeverhouding en een faseverschuiving. Theoretisch kan men in principe met n frequenties 2n onbekende parameters bepalen, mits de frequenties van de sinussen verstandig gekozen zijn, dat wil zeggen, goed verdeeld over het frequentiegebied dat
2.3
11
Identificatie van systemen met ruis
van belang is. Het stelsel vergelijkingen waaruit de parameters opgelost moeten worden is als regel wel niet-lineair. Een uitzondering hierop zijn de heel simpele gevallen. Voorbeeld 1e orde systeem Stel dat bekend is, dat het te identificeren systeem een eerste orde systeem is. De overK K drachtsfunktie is dus H(ω) = 1+jωτ en |H(ω)| = √1+ω ; 6 H(ω) = − arctan ωτ . Voor 2τ 2 een gegeven frequentie ω1 kunnen we nu uit de gemeten waarde van 6 H(ω1 ) de waarde van τ berekenen. Uit de waarden van ω1 , τ en|H(ω1 )| is tenslotte de waarde van K te berekenen. Voorwaarde is wel dat de frequentie ω1 niet te ver van de frequentie ω = τ1 ligt, daar anders kleine meetonnauwkeurigheden grote fouten kunnen veroorzaken in de waarde van τ en daardoor wellicht ook in de waarde van K. Voorbeeld 2e orde systeem Beschouw een systeem met overdrachtsfunktie H(ω) = plitude en fase van dit systeem geldt: |H(ω)| = √
K (1+jωτ1 )(1+jωτ2 ) . K (1−ω 2 τ1 τ2 )2 +ω 2 (τ1 +τ2 )2
Voor de amen 6
H(ω) =
− arctan ωτ1 − arctan ωτ2 . Het systeem heeft 3 onbekende parameters K, τ1 en τ2 . In principe zijn 2 sinussen dus voldoende om de parameters te bepalen. Dit levert 4 vergelijkingen namelijk de uitdrukkingen voor |H(ω1 )|, |H(ω2 )|, 6 H(ω1 ) en 6 H(ω2 ). Hieruit kunnen 3 vergelijkingen worden gekozen voor het oplossen van de onbekende parameters. De vierde vergelijking kan daarna als controle gebruikt worden. Het oplossen van het vergelijkingenstelsel is echter vrij lastig, omdat het stelsel niet-lineair is. Een mogelijkheid is het gebruik van een numerieke iteratieprocedure.
Wanneer men te maken heeft met vrij trage systemen kan het bepalen van een bodediagram via het achtereenvolgens aanbieden van een sinus met een gegeven frequentie zeer tijdrovend zijn. Men kan de procedure versnellen door de sinussen van verschillende frequenties gelijktijdig aan te bieden. Men moet de frequenties dan zodanig kiezen, dat er een zekere observatietijd T is, die voor elk van de sinussen een veelvoud is van de periodetijd. De frequenties zullen verder als regel zodanig gekozen worden, dat ze, op een logarithmische schaal, gelijkmatig verdeeld zijn over een frequentiegebied.
2.3 Identificatie van systemen met ruis De tot nog toe beschouwde situatie is een geidealiseerd geval. In de praktijk heeft men altijd te maken met ruis. Deze ruis kan ontstaan in het systeem zelf. Men spreekt dan van systeemruis. Als voorbeeld van systeemruis beschouwen we een vat waarin een warme en een koude vloeistof gemengd worden. Uit het vat stroomt een vloeistofmengsel dat een bepaalde voorgeschreven temperatuur moet hebben. Wanneer we de temperatuur van de uitstromende vloeistof meten, zullen we zien dat deze rond een zekere waarde fluktueert. Deze fluktuaties zijn een gevolg van het feit dat de menging niet ideaal is. De oorzaak van de fluktuaties ligt in het systeem zelf. De ruis kan ook ontstaan in het meetsysteem. Men spreekt dan van meetruis. Bi-
12
2
a:
Systeemidentificatie met deterministische ingangssignalen
n3 (t) u(t)
- lineair systeem
+
+ ? e -
y(t) -
n1 (t)
n2 (t)
+
+
+ ? - m1 e-
+ ? - m2 e-
n(t) b:
u(t)
- lineair systeem
+
+ ? e
y(t) -
Figuur 2.3: a: Blokschema van de praktische situatie van een meting van in- en uitgangssignaal van een lineair systeem. b: Het blokschema voor het geval dat de invloed van de dynamica van de meetopnemers te verwaarlozen is en waarbij zelf het ingangssignaal u(t) kan worden bepaald.
jvoorbeeld een temperatuurverschil wordt met behulp van een thermokoppel omgezet in een elektrische spanning van enkele millivolts. Dit signaal wordt versterkt naar enkele volts. De versterker introduceert in principe een zekere ruis. Wanneer men ge¨ınteresseerd is in een temperatuurschommeling van enkele graden is deze meetruis te verwaarlozen. Is men echter ge¨ınteresseerd in variaties van enkele honderdsten van graden, dan zal de meetruis goed merkbaar zijn. Fig. 2.3a is een mogelijke weergave van een systeem, verstoord door ruis, waarvan het ingangssignaal en het uitgangssignaal gemeten worden. De systeemruis komt ergens het systeem binnen. In het blokschema is deze ruis gemodelleerd als een additieve ruis n3 (t) op de uitgang van het lineaire systeem. Met evenveel recht had de ruis gemodelleerd kunnen worden als een additief signaal n03 (t) op de ingang van het systeem. Het verband tussen n03 (t) en n3 (t) wordt in het frequentiedomein bepaald door de overdrachtsfunktie van het systeem N3 (ω) = H(ω)N30 (ω). Verder hebben we de meetopnemers in het blokschema vervangen door een lineair systeem m1 respectievelijk m2 met een additieve ruis aan de uitgang n1 (t) respectievelijk n2 (t). Omwille van de eenvoud veronderstellen we dat de meetopnemers in het beschouwde amplitude- en frequentiebereik beschreven kunnen worden als een proportioneel systeem met K = 1. In de context van dit hoofdstuk gaan we er verder van uit dat we het signaal u(t) zelf genereren en dus niet apart hoeven te meten, zodat n1 (t) = 0 en u0 (t) = u(t). Uit het gemeten signaal y 0 (t) kunnen we niet zien wat de afzonderlijke bijdragen van n2 (t) en n3 (t) zijn omdat we y(t) niet kennen. Daarom zullen we in het vervolg de meetruis en de systeemruis samen nemen tot ´e´en ruisterm n(t). Uiteindelijk krijgen we dan de vereenvoudigde voorstelling van fig. 2.3b, waarin nu y(t) het gemeten uitgangssignaal is. De configuratie van fig. 2.3b zullen we in het vervolg steeds als uitgangspunt nemen voor de behandeling van systeemidentificatietechnieken. Het algemene probleem bij het identificeren is het verkrijgen van een systeembeschrijving uit signalen die door ruis overdekt zijn. In de context van dit hoofdstuk beperken we ons tot het geval dat het ingangssignaal deterministisch is en exact bek-
2.3
13
Identificatie van systemen met ruis
Een door ruis verstoorde responsie y(t) op een sinusvormig ingangssignaal u(t).
Figuur 2.4:
1
Magnitude
10
0
10
−1
10
−2
10
−1
10
0
10
1
10
Phase deg
0
−90
2.5: Bodediagram van een tweede-orde laagdoorlaatfilter met een dempingsfactor β = 0.5.
Figuur
−180 −1
10
0
10 Frequency (rad/sec)
1
10
end. Alleen het uitgangssignaal bevat ruis. In de komende paragrafen zullen we een aantal methoden behandelen om de ruis zo goed mogelijk te elimineren, althans de invloed van de ruis te verkleinen. Als eerste mogelijkheid zullen we het gebruik van filters behandelen. Gebruik van filters Wanneer de ruis in een ander frequentiegebied ligt dan het signaal, kunnen we de ruis voor een groot deel wegfilteren, door het signaal door een systeem te sturen met een zodanige frequentiekarakteristiek dat het signaal wel wordt doorgelaten, maar de ruis sterk wordt verzwakt. De signalen zien er bijvoorbeeld uit zoals weergegeven in fig. 2.4. We sturen het signaal y(t) nu door een filter dat de responsie op u(t) zo weinig mogelijk verzwakt, maar de amplitude van de ruis, die bij de hogere frequenties ligt, zo veel mogelijk verkleint. We kunnen hiervoor een laagdoorlaatfilter kiezen van een bepaalde orde. De orde van het filter bepaalt hoe steil de amplitudekarakteristiek afvalt voor de hoge frequenties. Voor een n−de orde systeem is de helling van de asymptoot in de amplitudekarakteristiek van het bodediagram −n. Figuur 2.5 geeft een voorbeeld van een tweede-orde laagdoorlaatfilter met dempingsfactor β = 0.5. Bij een frequentie |ω| < ω0 is de amplitude van het signaal niet veranderd door het filter, maar de amplitude van een sinus bij ω = 10ω0 wordt een faktor 100 verzwakt. Willen we een filterkarakteristiek die sterker afvalt dan zetten we bijvoorbeeld twee identieke tweede-orde filters in serie. We moeten ons wel realiseren dat een filter ook een fasedraaiing geeft. Zoals te zien is in fig. 2.5 geeft het
14
2
Systeemidentificatie met deterministische ingangssignalen
n(t) u(t)
- systeem
+
+ ? e
y(t)
-
filter
z(t)
-
De configuratie waarin een door ruis verstoord systeem kan worden ge¨ıdentificeerd, als de ruis in een ander frequentiegebied ligt dan het signaal.
Figuur 2.6:
gekozen filter bij de frequentie ω = ω0 een faseachterstand van 900 . De maximale faseachterstand van het filter is 1800 . Willen we een filter dat twee keer zo steil afvalt, dan krijgen we ook een twee keer zo grote faseverschuiving van het signaal. Als we een systeem op deze manier willen identificeren, moeten we dus rekening houden met het feit, dat we de situatie hebben van fig. 2.6. Bij een frequentie ω1 van de sinus bepalen we dan ook niet de waarde Hs (ω1 ) van het systeem, maar: Z(ω1 ) = Hs (ω1 )Hf (ω1 ) U (ω1 )
[2.13]
waarin Hf (ω1 ) de waarde van de overdrachtsfunktie van het filter is bij de frequentie ω1 . De uitkomst moet hiervoor dus gecorrigeerd worden. Het is dan ook verstandig om een meting te doen aan alleen het filter bij de gekozen instelling van β en ω0 bij de frequentie ω1 van het ingangssignaal. Voor sinusvormige signalen is het dus vrij simpel om in het frequentiedomein voor de invloed van het filter te corrigeren. Voor niet-sinusvormige signalen, bijvoorbeeld stapresponsies is dit moeilijker, zij het niet onoverkomelijk. We nemen nog steeds aan dat het signaal, in dit geval de stapresponsie, laagfrequent is en de ruis hoogfrequent. Stel dat we het filter van fig. 2.5 gebruiken en dat de stapresponsie een frequentie-inhoud heeft tot de frequentie ω0 en de ruis alleen frequenties bevat boven 10ω0 . De ruis wordt dan goed weggefilterd. Hoewel de amplitudekarakteristiek in het frequentiegebied dat relevant is voor de stapresponsie nagenoeg ideaal is, ontstaat wel een vervorming ten gevolge van de fasekarakteristiek. Om toch de onvervormde stapresponsie te verkrijgen moet men de gefilterde stapresponsie achteraf transformeren naar het frequentiedomein, deze delen door de overdrachtsfunktie van het filter in het frequentiegebied ω < ω0 en vervolgens het resultaat terugtransformeren naar het tijdsdomein. Er hebben dan dus vier bewerkingen plaatsgevonden te weten: analoog filteren in het tijdsdomein tijdens de meting, gevolgd door drie digitale bewerkingen achteraf, namelijk fouriertransformatie, correctie en terugtransformatie. Dit alles omdat het toegepaste filter eigenlijk niet ideaal is. Ideaal filter De overdrachtsfunktie van het ideale laagdoorlaatfilter zou men als volgt kunnen karakteriseren: H(ω) = 1 voor |ω| ≤ ω0 = 0 voor |ω| > ω0
[2.14]
2.3
15
Identificatie van systemen met ruis
Figuur 2.7: Impulsresponsie h(t) en overdrachtsfunktie H(ω) van een ideaal laagdoorlaatfilter op een lineaire schaal.
d.w.z. een filter dat niets doorlaat boven de frequentie ω0 en alles onvervormd doorlaat onder de frequentie ω0 . Het is dus een filter zonder fasedraaiing. De vraag rijst in hoeverre een dergelijk filter te realiseren is. Om deze vraag te beantwoorden zullen we de impulsresponsie van dit filter bepalen. Deze is gelijk aan: h(t) = F
−1
1 Z ω0 jωt ω0 sin ω0 t 1 Z∞ jωt H(ω)e dω = e dω = {H(ω)} = 2π −∞ 2π −ω0 π ω0 t
Zowel de impulsresponsie h(t) als de overdrachtsfunktie H(ω) van het ideale laagdoorfilter zijn afgebeeld in fig. 10.7 op een lineaire schaal. Uit de afbeelding van de impulsresponsie blijkt dat h(t) 6= 0 voor t < 0, d.w.z. het ideale bandfilter is niet causaal. Deze eigenschap volgt uit de eis dat het filter geen fasedraaiing mag introduceren. Voor een willekeurige overdrachtsfunktie geldt dat ReH(−ω) = ReH(ω) en ImH(−ω) = −ImH(ω). Een fasedraaiing nul betekent ImH(ω) = 0 ∀ω, dus H(ω) is re¨eel en symmetrisch. Hieruit volgt dat h(t) eveneens symmetrisch is. Een tweede eigenschap van de impulsresponsie is, dat hij pas naar nul uitdempt voor t = −∞ en t = ∞. Dit houdt verband met het feit dat de filterkarakteristiek een hoekige vorm heeft. Een niet-causaal filter voor on-line signaalverwerking is fysisch niet realiseerbaar. Wanneer het echter om het achteraf filteren van reeds gemeten signalen gaat, biedt een computer daarvoor de mogelijkheid. Het gemeten signaal wordt bemonsterd en fouriergetransformeerd. In het frequentiedomein worden vervolgens de waarden voor frequenties |ω| > ω0 nul gemaakt, het resultaat wordt teruggetransformeerd. Voor de opkomst van de computer is veel aandacht besteed aan het ontwerpen van analoge filters die een benadering geven van de rechthoekige amplitudekarakteristiek. Een bekend voorbeeld hiervan is de klasse van Butterworth-filters. Een n-de orde 1 Butterworth-filter wordt gekarakteriseerd door de vergelijking: |H(ω)| 2 = 1+(ω/ω 2n . 0) Hoe groter de orde n van het filter, hoe beter de rechthoekige amplitudekarakteristiek wordt benaderd, maar ook hoe groter de fasedraaiing van het filter. Bij verwerking achteraf (off-line) van een gemeten signaal kan de fase-draaiing ge¨elimineerd worden door het signaal na de eerste bewerking nog eens te filteren, maar dan van achteren naar voren. In de huidige off-line digitale signaalverwerkingspakketten zijn dergelijke filtertechnieken eveneens weer opgenomen. Dit is overigens een interessant voorbeeld van het gebruiken van moderne middelen om de beperkingen van oude technieken te simuleren, terwijl het eigenlijk met die middelen eenvoudiger en beter kan.
16
2
Systeemidentificatie met deterministische ingangssignalen
Middelen in het tijdsdomein Bovenstaande filtertechniek is alleen bruikbaar voor het wegfilteren van ruis die buiten het frequentiegebied van de niet verstoorde responsie ligt. Voor ruis die in het zelfde frequentiegebied ligt als het signaal kan de methode van uitmiddelen worden gebruikt. Deze ”gemiddelde responsie techniek” is bruikbaar voor ingangssignalen met een pulsachtig, stapvormig of blokvormig karakter. Stel dat we een ingangssignaal u(t) hebben, dat een responsie x(t) oplevert, die in een zeker tijdsinterval T uitgedempt is. De meetbare responsie y(t) = x(t) + n(t), waarin n(t) een ruissignaal is. Men herhaalt nu het experiment N keer, meet de responsies yi (t) over een interval T vanaf het begin van de stimulus u(t) en middelt de resultaten. Als N groot genoeg is, levert dit weer een benadering xˆN (t) op van de onverstoorde responsie x(t). We P krijgen dus: xˆN (t) = N1 N i=1 yi (t) voor 0 ≤ t ≤ T . Voor de responsie yi (t) is het niet verstoorde deel van de responsie is steeds hetzelfde, alleen de ruis ni (t) steeds verschillend, dus yi (t) = x(t) + ni (t). We krijgen dus: N N N 1 X 1 X 1 X xˆN (t) = xi (t) + ni (t) = x(t) + ni (t) N i=1 N i=1 N i=1
[2.15]
De bijdrage van de ruis zal uitgemiddeld worden. Als we aannemen dat de ruis een gemiddelde waarde nul heeft zal het verschil tussen xˆN (t) en x(t) dus steeds kleiner worden bij toenemende N . Voorbeeld De methode wordt bijvoorbeeld veelvuldig toegepast bij onderzoek naar de elektrische activiteit van de hersenen (Fig: 2.8). Wanneer men iemand een lichtflits in de ogen toedient, kan men in principe een electrische aktiviteit meten van de hersenen met behulp van een op het achterhoofd geplakte elektrode. Deze responsie ligt in de orde van grootte van 5 µV. Deze responsie is echter niet zichtbaar in het EEG (ElectroEncephaloGram) als gevolg van de voortdurend aanwezige elektrische aktiviteit die in de orde van grootte van 100 µV ligt en die dus de responsie verstoort. Na 100 (ˆ x100 (t)) keer uitmiddelen wordt deze responsie echter wel zichtbaar en geeft de neuroloog informatie over eventuele afwijkingen in het functioneren van de hersenen. Het interval tussen twee opeenvolgende lichtflitsen wordt als regel onregelmatig gekozen tussen bepaalde grenzen. Dit om anticipatie te voorkomen en ook om te voorkomen, dat bepaalde periodieke storingen, bijvoorbeeld de 50 Hz van het lichtnet, eveneens systematisch in de responsie terecht komen.
2.3
17
Identificatie van systemen met ruis
Voorbeeld van toepassing van de gemiddelde-responsietechniek voor het geval dat het signaal verdronken is in de ruis.
Figuur 2.8:
Fourieranalyse Voor het bepalen van een bodediagram met behulp van periodieke testsignalen, met ruis in hetzelfde frequentiegebied als het testsignaal, is de filtertechniek niet meer bruikbaar. Een methode die in dat geval te gebruiken is, is de fourieranalyse. Stel het in- en uitgangssignaal: u(t) = a cos ωt + b sin ωt y(t) = c cos ωt + d sin ωt + n(t)
[2.16]
Wanneer we de signalen over een tijd kT observeren, waarin k een geheel getal is en T = 2π de periodetijd van het signaal, dan kunnen we de co¨effici¨enten a en b zonder ω meer bepalen volgens: a=
2 Z kT u(t) cos ωtdt kT 0
en
b=
2 Z kT u(t) sin ωtdt kT 0
[2.17]
De co¨effici¨enten c en d kunnen we benaderen volgens: cˆ =
2 Z kT y(t) cos ωtdt kT 0
en
2 Z kT dˆ = y(t) sin ωtdt kT 0
[2.18]
De grootte van de fout t.g.v. de benadering volgt door invullen van de uitdrukking voor y(t): 2 Z kT (c cos ωt + d sin ωt + n(t)) cos ωtdt cˆ = kT 0 2 Z kT = c+ n(t) cos ωtdt kT 0
[2.19] [2.20]
ˆ De benaderingsfout is dus gelijk aan: Evenzo voor d. 2 Z kT n(t) cos ωtdt cˆ − c = kT 0
en
2 Z kT ˆ d−d= n(t) sin ωtdt kT 0
[2.21]
We nemen aan dat de ruis n(t) een signaal is dat willekeurig fluctueert rond een gemiddelde waarde nul. Beide tijdsfunkties worden met elkaar vermenigvuldigd en
18
2
Systeemidentificatie met deterministische ingangssignalen
vervolgens over een aantal perioden ge¨ıntegreerd. In het algemeen zal hier een kleine, van nul afwijkende, waarde uitkomen omdat de kans dat deze waarde positief is, even groot als de kans dat hij negatief is. De waarde wordt dan nog vermenigvuldigd met 2 . Door het aantal perioden k willekeurig groot te maken kan de fout in de bepaling kT van c en d willekeurig klein gemaakt worden. In plaats van een enkele sinus als ingangssignaal, kunnen we ook een som van sinussen nemen zoals boven werd beschreven. Het berekenen van de overdrachtsfunktie via de bepaling van de fourierco¨effici¨enten van in- en uitgangssignaal is in feite een methode die al helemaal gericht is op periodieke signalen opgebouwd uit meer dan ´e´en sinusvormige component.
2.4 Niet-lineaire systemen zonder ruis Hoewel de regeltechniek voornamelijk gericht is op het gebruik van theorie¨en die alleen gelden voor lineaire systemen, zijn veel systemen uit de praktijk niet altijd als lineair te beschouwen. Met name in de robotica en in de procesindustrie zijn de te regelen systemen als regel niet-lineair. Niet-lineaire systemen zijn zeer moeilijk in het algemeen te behandelen. Immers, ze worden niet gekarakteriseerd door een bepaalde gemeenschappelijke eigenschap, maar juist door het ontbreken van een gemeenschappelijke eigenschap, namelijk de lineariteitseigenschap. Niet-lineaire systemen zijn systemen waarvoor het superpositiebeginsel niet geldt. Signaalontbinding en de daaruit voortvloeiende laplace- en fouriertransformaties zijn voor deze systemen niet toepasbaar. Lineariseren van niet-lineaire systemen Een veel toegepaste aanpak bestaat uit het lineariseren rond een werkpunt. Voor kleine variaties rond het werkpunt kan het systeem worden benaderd door een lineair systeem. Kiest men een ander werkpunt, dan zal voor de benadering een ander lineair systeem moeten worden gekozen. De benadering in een bepaald werkpunt zal nooit exact zijn. Het niet exact gelijk zijn van het gelineariseerde systeem aan het oorspronkelijk niet-lineaire systeem wordt verdisconteerd door het toevoegen van een residu of restsignaal r(t) aan de uitgang x(t) van het gelineariseerde systeem en wel zodanig, dat deze signalen samen weer het uitgangssignaal y(t) van het niet-lineaire systeem opleveren (Fig. 2.9). De vraag is nu om, uitgaande van een beschrijving van het niet-lineaire systeem, te komen tot een lineaire benadering. We zullen dit in eerste instantie behandelen voor een statisch systeem. Stel we hebben een statisch niet-lineair systeem met een ingangssignaal u(t). De gemiddelde waarde van het ingangssignaal is u0 en de variaties ten opzichte van deze gemiddelde waarden zijn u1 (t), dus: u(t) = u0 + u1 (t). De relatie tussen het ingangssignaal u(t) en het bijbehorende uitgangssignaal y(t) wordt gegeven door de, niet-lineaire, statische vergelijking: y = f (u) = f (u0 + u1 ). Ontwikkeling in een Taylor-reeks in y = f (u) levert: y = f (u0 ) +
f 00 (u0 ) 2 f 0 (uo ) u1 + u1 + · · · 1! 2!
[2.22]
2.4
19
Niet-lineaire systemen zonder ruis
u(t)
- NL
y(t)
-
r(t) u(t)
- lineair systeem
+ x(t) + ? y(t) -e -
Een niet-lineair systeem en het bijbehorende vervangingsschema na
Figuur 2.9:
linearisatie.
Niet-lineaire karakteristiek van het statische systeem uit het voorbeeld met ingangssignaal u(t) = a + b sin ωt en het uitgangssignaal y(t) van het gelineariseerde systeem. Figuur 2.10:
Stel de waarde y0 behoort bij de waarde u0 van het ingangssignaal en stel vervolgens het verschil y1 = y − y0 = y − f (u0 ). We kunnen nu de lineaire versterkingsfaktor K bepalen door afbreken na de eerste term, dus y1 ≈ f 0 (u0 )u1 . De versterkingsfaktor K is dus te bepalen uit:
df (u) K = f (u0 ) = = u0 du u0 0
[2.23]
Voorbeeld Gegeven een statisch niet-lineair systeem, gekarakteriseerd door de relatie y = u 3 , met een ingangssignaal u(t) = a + b sin ωt. Gevraagd, de versterkingsfaktor K van het gelineariseerde systeem, alsmede de waarden van y0 , y1 (t) en r(t). In Fig. 2.10 is de niet-lineaire karakteristiek van het systeem gegeven met het ingangssignaal en het uitgangssignaal van het gelineariseerde systeem. De versterkingsfaktor komt in feite overeen met de helling van de raaklijn in het werkpunt u = u0 . Voor het gegeven ingangssignaal geldt: u0 = a en u1 (t) = b sin ωt, dus 3 2 3 3 K = du du |u=a = 3a . Voor de waarde y0 in het werkpunt geldt: y0 = u0 = a . Het signaal y1 (t) is gelijk aan y1 (t) = Ku1 (t) = 3a2 b sin ωt. Voor het berekenen van het restsignaal r(t) moeten we eerst de waarde van y(t) berekenen. Deze is gelijk aan: y(t) = (a + b sin ωt) 3 = a3 +3a2 b sin ωt+3ab2 sin2 ωt+b3 sin3 ωt of y(t) = y0 +y1 (t)+3ab2 sin2 ωt+b3 sinω t, waaruit
20
2
u(t)
Systeemidentificatie met deterministische ingangssignalen
y(t)
- NL -
K 6
-
yˆ(t) ? + (t) -- e V ()
Blokschema van het bepalen van de equivalente versterkingsfactor K van een statisch niet-lineair systeem door minimaliseren van de benaderingsfout (t). Figuur 2.11:
volgt: r(t) = 3ab2 sin2 ωt + b3 sin3 ωt.
Het gekozen voorbeeld illustreert dat de versterkingsfaktor K een funktie is van de gemiddelde waarde van het ingangssignaal. Uit de relatie K = 3a2 volgt, dat de versterkingsfaktor nul is als de gemiddelde waarde van het ingangssignaal nul is. Dit blijkt ook uit Fig. 2.10, waarin te zien is dat de raaklijn aan de karakteristiek horizontaal loopt in het punt u = 0. Voor zeer kleine amplitudes is dit een goede beschrijving. Voor wat grotere amplitudes is dit echter geen realistische benadering. In de toegepaste wijze van lineariseren via een Taylorreeksontwikkeling wordt de versterkingsfaktor uitsluitend bepaald door de helling van de raaklijn in het werkpunt. Hij is echter onafhankelijk van de amplitude van het ingangssignaal. Voor het verkrijgen van een betere benadering zou ook rekening moeten worden gehouden met de amplitude van het ingangssignaal, met andere woorden een gewogen linearisatie. Hierboven werd het niet-lineaire systeem vervangen door een lineair systeem en een restsignaal r(t) dat bij de uitgang van x(t) van het lineaire systeem moet worden opgeteld, om weer de responsie y(t) van het niet-lineaire systeem op het ingangssignaal u(t) te krijgen. De gedachtengang van de volgende methode is nu: Kies het lineaire systeem zodanig dat het restsignaal r(t) zo klein mogelijk wordt. De praktische uitwerking van deze gedachtengang is voor een statische niet-lineariteit weergegeven in Fig. 2.11. Het uitgangssignaal y(t) = f (u0 + u1 (t)) wordt benaderd door een statisch model met uitgang yˆ = y0 + Ku1 (t). Het verschilsignaal (t) = y(t) − (y0 + Ku1 (t)) wordt nu geminimaliseerd volgens een kwadratisch kriterium: 1ZT (t)2 dt V = T 0
[2.24]
Behalve de versterkingsfactor K wordt nu echter ook de waarde y0 op deze wijze bepaald. We krijgen nu twee vergelijkingen: ∂V ∂(t) 2ZT = (t) dt = 0 ∂K T 0 ∂K 2ZT ∂(t) ∂V = dt = 0 (t) ∂y0 T 0 ∂yo Uit (t) = y(t) − y0 − Ku1 (t) volgt:
[2.25]
∂(t) ∂K
= −u1 (t) en
∂(t) ∂y0
= −1. Ingevuld levert
2.4
21
Niet-lineaire systemen zonder ruis
dit: 2ZT 2ZT 2ZT − y(t)u1 (t)dt + y0 u1 (t)dt + K (u1 (t))2 dt = 0 T 0 T 0 T 0 2ZT 2ZT 2ZT y(t)dt + y0 dt + K u1 (t)dt = 0 − T 0 T 0 T 0
[2.26]
Wanneer de tijd T gekozen wordt als een geheel veelvoud voor de periodetijd van het RT signaal u1 (t), geldt dat 0 u1 (t) = 0 Hierdoor kan het stelsel vereenvoudigd worden. Hieruit volgt: 1ZT y(t)dt y0 = T 0 R 2 T u1 (t)y(t)dt T 0 = K = 2 RT (u1 (t))2 dt T 0
2 T
RT 0
2 T
u1 (t)y1 (t)dt 2 0 (u1 (t)) dt
RT
met y1 (t) = y(t) − y0 , d.w.z. y0 is de gemiddelde waarde van het uitgangssignaal y(t) en K kan berekend worden uit de signalen u1 (t) en y1 (t), die de variaties t.o.v. de gemiddelde waarden beschrijven. Voorbeeld We passen deze wijze van lineariseren toe op het systeem van het vorige voorbeeld met het ingangssignaal u(t) = a + b sin ωt en het uitgangssignaal y(t) bepaald door de systeemvergelijking y(t) = u(t)3 , zodat y(t) = a3 + 3a2 b sin ωt + 3ab2 sin2 ωt + b3 sin3 ωt. De versterkingsfaktor K heeft betrekking op fluctuaties t.o.v. de gemiddelde waarde. Voor de gemiddelde waarden u0 van het ingangssignaal geldt u0 = a dus u1 (t) = b sin ωt. De keuze y0 = u30 = a3 levert echter niet de gemiddelde waarde van y(t), omdat de term sin2 ωt nog een bijdrage levert. Mede in verband met het vereenvoudigen van verder rekenwerk zullen we daarom eerst y(t) herschrijven door gebruik van de substituties: sin3 ωt = 34 sin ωt − 14 sin 3ωt en sin2 ωt = 12 − 21 cos 2ωt. Het uitgangssignaal kan dan worden geschreven als een fourierreeks: 3 3 1 3 y(t) = (a3 + ab2 ) + (3a2 b + b3 ) sin ωt − ab2 cos 2ωt − b3 sin 3ωt 2 4 2 4
[2.27]
Zodat y0 = a3 + 32 ab2 en het signaal y1 (t) = y(t) − y0 is dan gelijk aan: 3 1 3 y1 (t) = (3a2 b + b3 ) sin ωt − ab2 cos 2ωt − b3 sin 3ωt 4 2 4
[2.28]
Hieruit volgt dan dat: 2 T
Z
T
u1 (t)y1 (t)dt =
0
(3a2 b + 34 b3 )b T2
RT 0
[2.29] sin2 ωtdt − 23 ab3
RT 0
sin ωt cos 2ωtdt − 14 b4
RT 0
sin ωt sin 3ωtdt
Uit de orthogonaliteitseigenschappen van sinussen en cosinussen volgt dat de laatste twee integralen nul zijn, zodat: 2 T
Z
T 0
3 2 u1 (t)y1 (t)dt = b(3a b + b3 ) 4 T 2
Z
T 0
3 sin2 ωtdt = b2 (3a2 + b2 ) 4
[2.30]
22
2
Systeemidentificatie met deterministische ingangssignalen
Vergelijking tussen lineariseren zonder en met weging van de amplitude van het ingangssignaal. Figuur 2.12:
Verder is
2 T
RT 0
u1 (t)2 dt = b2 T2
3 K = 3a2 + b2 4
RT 0
sin2 ωtdt = b2 De versterkingsfactor K is dus gelijk aan: [2.31]
Het restsignaal r(t) = (t) is gelijk aan: 1 3 r(t) = y1 (t) − Ku1 (t) = − ab2 cos 2ωt − b3 sin 3ωt 2 4
[2.32]
Bij de linearisering door afbreken na de eerste term van een Taylorreeks (vorige voorbeeld) was het restsignaal: r(t) =
3 2 3 3 3 1 ab + b sin ωt − ab2 cos 2ωt − b3 sin 3ωt 2 4 2 4
[2.33]
De term 32 ab2 is verdwenen door een andere keuze van de waarde van y0 . De term 34 b3 sin ωt is verdwenen door de versterkingsfactor K afhankelijk te maken van de amplitude van het ingangssignaal. De verschillen worden ge¨ıllustreerd in fig. 2.12, waarin achtereenvolgens voor het zelfde ingangssignaal u(t) het werkelijke uitgangssignaal van het niet-lineaire systeem en de gelineariseerde uitgangssignalen zijn gegeven volgens de twee behandelde lineariseringsmethoden.
Bij de gewogen linearisatie bestaat het restsignaal r(t) nog uitsluitend uit de hogere harmonischen van het ingangssignaal. De factor K geeft in feite het verband weer tussen het ingangssignaal en de grondharmonische van het uitgangssignaal. Dit resultaat vormt in feite de oplossing van het minimaliseringsprobleem. Er bestaat namelijk geen andere waarde voor K die het restsignaal r(t) kleiner kan maken.
2.4
Niet-lineaire systemen zonder ruis
23
Hiervan uitgaande kan de waarde van K ook direct worden berekend door de amplituden van de componenten van sin ωt in uitgangssignaal en ingangssignaal op elkaar te delen, dus: 3a2 b + 34 b3 3 = 3a2 + b2 [2.34] b 4 Volgens deze gedachtegang is deze methode van lineariseren ook toe te passen voor dynamische systemen. Stel dat bij een gegeven ingangssignaal: u(t) = a0 +a cos ωt+ b sin ωt het uitgangssignaal van een niet-lineair systeem wordt gevonden gelijk aan: P y(t) = c0 + ∞ k=1 (ck cos kωt + dk sin kωt) dan geldt voor de overdrachtsfunktie van het gelineariseerde systeem bij de frequentie ω: K=
c21 + d21 a2 + b 2 b d1 H(u, ω) = arctan − arctan a c1
|H(u, ω)| = 6
s
[2.35]
Deze methode van lineariseren staat ook bekend als de methode van de harmonische balans, omdat de balans voor de vergelijking van het niet-lineaire systeem en het gelineariseerde systeem klopt voor de grondharmonische. De gevonden overdrachtsfunktie van het gelineariseerde systeem is nu niet alleen een funktie van de frequentie ω maar ook een funktie van het ingangssignaal u(t). De grootheid H(u, ω) staat bekend als de beschrijvende funktie van het nietlineaire systeem. Men kan de beschrijvende funktie zien als een zeer algemene lineaire benaderingswijze van een systeembeschrijving. Lineaire systemen zijn dan te beschouwen als een bijzonder geval, dat gekenmerkt wordt door twee eigenschappen: • De beschrijvende funktie H(u, ω) is niet langer een funktie van het ingangssignaal u maar alleen van de frequentie ω. • De restterm r(t) = 0. Niet-lineaire systemen met ruis Volledigheidshalve zullen we deze situatie ook beschouwen, zij het slechts kort, omdat deze op te vatten is als een combinatie van hetgeen al is behandeld. We beperken ons weer tot het geval van een systeem waarvan het ingangssignaal periodiek is en tevens exact bekend. De ruis bestaat weer uit systeemruis en meetruis op het uitgangssignaal. We gaan er weer van uit dat de effecten van deze ruisbronnen beschreven kunnen worden door ´e´en additieve ruis op de uitgang (fig. 2.13a). Het niet-lineaire systeem (NL) kunnen we lineariseren en aldus vervangen door een lineair model en een restsignaal r 0 (t), opgeteld bij de uitgang van dit lineaire model (fig. 2.13b). Het restsignaal r 0 (t) bestaat, als we uitgaan van een sinusvormig ingangssignaal en toepassing van de methode van de harmonische balans, uit hogere harmonischen van het ingangssignaal. Praktisch kunnen we nooit meten tussen de optelpunten van r 0 (t) en n(t) in. We kunnen alleen y(t) meten. Dit betekent dat we r0 (t) en n(t) ook nooit afzonderlijk kunnen bepalen. Daarom nemen we ze samen tot ´e´en restsignaal r(t) (fig. 2.13c).
24
2
Systeemidentificatie met deterministische ingangssignalen
n(t) a
u(t)
-
y(t)
+
NL
+ ? e
-
r0 (t) n(t) b
u(t)
- lineair
model
+
+
y(t)
+ ? + ? e -e -
r(t) c
u(t)
- lineair
model
+
+ ? e
y(t) -
Figuur 2.13: a) Niet-lineair systeem met een additieve ruis op de uitgang. b) Vervanging van het niet-lineaire systeem door een lineair model met restsignaal r 0 (t). c) Combinatie van het restsignaal r 0 (t) en de ruis n(t) tot een nieuw restsignaal r(t) in het uiteindelijk toe te passen vervangingsschema.
u(t)
- lineair systeem
y(t)
-
Figuur 2.14: Een lineair systeem met ingangssignaal u(t) en uitgangssignaal y(t) zonder verstoring.
2.5 Grenzen aan de mogelijkheden We beschouwen nogmaals het geval van een lineair systeem met ingangssignaal u(t) en uitgangssignaal y(t) en wel in de situatie dat we geen systeemruis en geen meetruis hebben (fig. 2.14). Tot nog toe hebben we het geval bekeken dat we zelf vrij waren het ingangssignaal u(t) te kiezen, bijvoorbeeld als een stap, een sinus of een som van sinussen. In de praktijk is het te identificeren systeem vaak een deelsysteem in een complexer geheel. Het ingangssignaal u(t) is dan een van nature aanwezig fluktuerend signaal, dat op zich weer een uitgangssignaal is van een ander deelsysteem. Het is vaak niet mogelijk om het deelsysteem te isoleren van de rest van het geheel om dit met een zelf gekozen testsignaal te identificeren. Men zal dan gebruik moeten maken van de aanwezige signalen u(t) en y(t). Als we aannemen dat we deze grootheden praktisch ruisvrij kunnen meten over een zekere tijd, kunnen we in principe de overdrachtsfunktie van het systeem als volgt bepalen. Transformeer de gemeten signalen naar het frequentiedomein en bereken dan H(ω) uit: H(ω) =
Y (ω) U (ω)
[2.36]
Aan de gemeten, en dus bekende, signalen hoeft alleen de eis gesteld te worden dat
2.5
25
Grenzen aan de mogelijkheden
N (ω) a
U (ω)
U (ω)
b
- H(ω)
- H 0 (ω)
+
+ ? e
Y (ω) -
Y (ω)
-
Systeem met ruisvormig ingangssignaal, verstoord door ruis (a), dat geidentificeerd wordt alsof er geen ruis is (b). Figuur 2.15:
hun fouriergetransformeerden bestaan. Een voldoende voorwaarde voor het bestaan van de fouriergetransformeerde van een signaal x(t) is, dat moet gelden: Z
∞ −∞
|x(t)| < M
[2.37]
Waarbij M een willekeurig hoog, maar eindig getal moet zijn. Hieraan wordt in ieder geval voldaan als x(t) voor elke waarde van t een eindige waarde heeft en als verder geldt dat x(t) = 0 voor t = −∞ en t = ∞. Bij een praktische meting wordt zeker aan deze voorwaarden voldaan. Hier zit dan ook niet het probleem. Het probleem zit in het feit dat de relatie alleen geldt voor systemen zonder verstoring. In de praktijk zal namelijk de situatie dat de verstoring te verwaarlozen is zelden voorkomen. Als het ingangssignaal een ruisvormig karakter heeft, kunnen we echter aan het uitgangssignaal nooit zien, of er nog een ruisbijdrage van de verstoring is bijgekomen. Wat de consequenties hiervan zijn volgt uit fig. 2.15. Voor het werkelijke systeem (Fig. 2.15a) geldt: Y (ω) = H(ω)U (ω) + N (ω). Wanneer we dit identificeren in de veronderstelling dat er geen verstoring aanwezig is (Fig. 2.15b) vinden we H 0 (ω) =
H(ω)U (ω) + N (ω) N (ω) Y (ω) = = H(ω) + U (ω) U (ω) U (ω)
[2.38]
Alleen wanneer de ruis in een ander frequentiegebied ligt dan het ingangssignaal is de fout nul. Het probleem is echter vaak juist dat de ruis in hetzelfde frequentiegebied ligt als het ingangssignaal en bovendien onbekend is. Dit probleem is met de tot nog toe behandelde, op deterministische beschouwingen gebaseerde, theorie niet meer oplosbaar. Aangezien de beschreven situatie wel van groot praktisch belang is, zijn er echter methoden ontwikkeld om ook in dit geval de overdrachtsfunktie H(ω) te kunnen bepalen. Deze methoden zijn gebaseerd op de theorie van stochastische processen. Deze theorie is in feite een uitbreiding van de waarschijnlijkheidsrekening met het tijdsaspekt (Hfst. 5). Daarna worden dan de basisconcepten van de stochastische processen en hun eigenschappen besproken in relatie tot het systeemidentificatieprobleem.
Hoofdstuk 3 Bemonsterde signalen in het frequentiedomein Bij de praktische toepassing van identificatietechnieken in het frequentiedomein worden gemeten signalen verwerkt met behulp van computers. Dit betekent dat deze signalen moeten worden bemonsterd en met behulp van een analoog-digitaal-omzetter voor verdere verwerking worden omgezet in een getallenreeks. Hierbij rijzen vragen als: • Wat is de relatie tussen het continue signaal en de daaruit afgeleide getallenreeks? • Kan het continue signaal hier weer uit gereconstrueerd worden? Zo ja, aan welke voorwaarden moet dan worden voldaan? • Hoe kan er voor gezorgd worden dat enerzijds geen informatie verloren gaat, anderzijds niet onnodig veel getallen verwerkt moeten worden? • Met welke ongedachte neveneffecten van diskretisatie in tijds- en frequentiedomein moet rekening worden gehouden? Om deze vragen te kunnen beantwoorden, wordt in par. 3.1 eerst aandacht geschonken aan een wiskundig hulpmiddel, namelijk de kam van dirac. De toepassing voor het transformeren van bemonsterde signalen komt naar voren in par. 3.2. Hier wordt ook de voorwaarde gegeven waarij het oorspronkelijke continue signaal weer gereconstrueerd kan worden uit een bemonsterd signaal. De Diskrete Fourier Transformatie wordt besproken in par. 3.3. Voor de praktische toepassing hiervan wordt gebruik gemaakt van een handig algorithme, de zogenaamde Fast Fourier Transform. Hierbij is de volgorde van de bewerkingen zodanig georganiseerd, dat dubbel rekenwerk vermeden wordt.
3.1 De diracfunktie en de kam van dirac Een belangrijke funktie die als hulpmiddel gebruikt wordt bij het beschrijven van bemonsterde signalen in het frequentiedomein is de kam van dirac. Alvorens deze
28
3
Bemonsterde signalen in het frequentiedomein
6δ(x − x ) 0
Symbolische weergave van een diracfunktie.
Figuur 3.1:
x0
0
te behandelen zal eerst de enkele diracfunktie, zoals deze ontstaat na fouriertransformatie van een sinusvormig signaal, nader worden beschouwd.
3.1.1 De diracfunktie In het vak Systeemtheorie is naar voren gekomen dat de diracfunctie de fouriergetransformeerde is van een e-macht met een imaginaire exponent. De diracfunctie is als zodanig niet gedefinieerd. Er zijn verschillende vormen van funkties te bedenken, die in het limietgeval naar een diracfunktie convergeren. Daarom is de diracfunktie alleen gedefinieerd op zijn integraal-eigenschappen, namelijk Z
∞ −∞
δ(x − x0 )g(x)dx = g(x0 ),
[3.1]
waarbij g(x) een willekeurig funktie is op het interval [−∞, ∞] met als enige eis dat hij continu is in x = x0 . Voor de grootheid x kan men bijvoorbeeld een tijd t of een frequentie ω invullen. De diracfunktie wordt als regel symbolisch afgebeeld volgens fig. 3.1. Deze wijze van weergeven in combinatie met de definitie leidt tot de volgende intuitieve interpretatie:
en
δ(x − x0 ) = ∞ voor x = x0 δ(x − x0 ) = 0 voor x 6= x0 Z
∞ −∞
δ(x − x0 )dx = 1
[3.2]
[3.3]
Een diracfunktie is eigenlijk geen funktie in de zin dat het verloop hiervan volledig gedefinieerd is. Het is eerder een klasse van funkties die een integraaleigenschap gemeen hebben. Een aantal typen diracfunkties voldoet weliswaar aan de intu¨ıtieve eigenschap van een funktie die overal nul is met uitzondering van ´e´en punt waar hij de waarde oneindig heeft, maar er zijn ook diracfunkties die niet deze eigenschap hebben, maar uitsluitend aan de integraaleigenschap voldoen. Diracfunkties van dit type ontstaan bijvoorbeeld bij de fouriertransformatie van een sinusvormig signaal.
3.1.2 De kam van dirac De diracfunktie, en de daarvan afgeleide kam van dirac, spelen een belangrijke rol bij de wiskundige afleidingen van de relaties tussen continue en bemonsterde signalen. Dit soort diracfunkties ontstaat ook wanneer een oneindig voortlopende reeks van
3.1
29
De diracfunktie en de kam van dirac
diracfunkties, een zogenaamde kam van dirac met oneindige lengte, wordt getransformeerd. Het blijkt dat de funktie die hieruit ontstaat, in het frequentiedomein eveneens te beschrijven is als een kam van dirac van oneindige lengte. Beschouw een funktie bestaande uit oneindig aantal diracpulsen op onderling gelijke afstand ∆t, zodanig gelegen dat de funktie symmetrisch is ten opzichte van t = 0 (zie figuur 3.2). Een dergelijke funktie staat bekend als een oneindige kam van 6
6
6
6
6
−k∆t
6
6
6
6
6
- t
0
6
k∆t
Figuur 3.2: Een (eindige) kam van dirac.
dirac. De beschouwde funktie is te schrijven als: ∞ X
x(t) =
k=−∞
δ(t − k∆t)
[3.4]
2π . Deze periodieke functie kan Dit is een periodieke functie met periode ωs = ∆t geschreven worden als som van sinusvormige signalen die een frequentie hebben die een veelvoud is van de grondfrequentie. Berekening van de Fourier co¨effici¨enten voor , ∆t ) levert: bovenstaande kam van diracpulsen op het interval (− ∆t 2 2 ∞ X
x(t) =
ak e−jkωs t
[3.5]
k=−∞
met 1 Z ∆t/2 1 ak = δ(t)e−jkωs t dt = ∆t −∆t/2 ∆t
∀k
[3.6]
Met gebruikmaking van F{ejω0 t } = 2πδ(ω − ω0 ), (zie Systeemtheorie), levert de Fouriertransformatie van x(t): X(ω) =
∞ 2π X δ(ω − nωs ) ∆t n=−∞
[3.7]
Hieruit blijkt dat de Fourier getransformeerde van een serie van diracpulsen ook weer 2π een serie van diracpulsen oplevert in het frequentiedomein. Met ωs = ∆t krijgen we dus het transformatiepaar f (t) =
∞ X
k=−∞
δ(t − k∆t) ;
F (ω) = ωs
∞ X
n=−∞
δ(ω − nωs )
[3.8]
Zoals nog zal blijken in de volgende paragraaf is de kam van dirac een belangrijk hulpmiddel voor het rekenen met bemonsterde signalen.
30
3
Bemonsterde signalen in het frequentiedomein ∞ X
∆t
k=−∞
x(t)
-
δ(t − k∆t)
x(k∆t) -
r
sampler
x(t)
?xs (t) - ×j -
∆t
Links: Bemonstering (sampling) van een continu signaal. Rechts: Impuls bemonstering.
Figuur 3.3:
3.2 Bemonsterde signalen Bij de transformatie van betrekkelijk simpele funkties, die in het tijdsdomein bemonsterd worden, kunnen in het frequentiedomein afbeeldingen ontstaan die anders uitvallen dan men in eerste instantie verwacht. Dit is een gevolg van het feit dat niet altijd kan worden voldaan aan de eisen voor geldigheid van het theorema van Shannon dat in deze paragraaf wordt behandeld.
3.2.1 Transformatie van bemonsterde signalen naar het frequentiedomein Beschouw de funktie x(t) met fouriergetransformeerde X(ω). Deze tijdsfunktie wordt bemonsterd met een interval ∆t en levert dan een reeks getallen: x(k∆t) = ...x(−2∆t), x(−∆t), x(0), x(∆t), x(2∆t), ... Wil men nu het bemonsterde signaal fouriertransformeren, dan moet men zich realiseren dat bij integratie over de tijd de funktie geen breedte heeft, dus voor elke waarde van ω geldt X(ω) = 0. Om dit probleem op te lossen beschouwen we het P produkt van het signaal x(t) met de dirackam ∆t ∞ k=−∞ δ(t − k∆t) (fig 3.3): ∞ X
xs (t) = x(t)∆t
k=−∞
δ(t − k∆t)
Het signaal xs (t) is nu een continu signaal dat alleen waarden ongelijk nul heeft voor t = k∆t. De funkties x(t), x(k∆t), de dirackam en xs (t) zijn weergegeven in fig. 3.4. Fouriertransformatie van het produkt van x(t) met een kam van dirac levert: Xs (ω) =
Z
∞ −∞
= ∆t
x(t)∆t
∞ X
k=−∞ ∞ Z X
∞
k=−∞ −∞
δ(t − k∆t)e−jωt dt
x(t)e−jωt δ(t − k∆t)dt = ∆t
[3.9] ∞ X
x(k∆t)e−jωk∆t
k=−∞
Het gebruik van de dirackam heeft nog een ander belangrijk voordeel. Het wordt nu namelijk mogelijk om een verband te leggen tussen de fouriergetransformeerde
3.2
31
Bemonsterde signalen
A
2 0 −2
B
0
1
2
3
4
5
6
7
8
9
10
0
1
2
3
4
5
6
7
8
9
10
0
1
2
3
4
5
6
7
8
9
10
0
1
2
3
4
5 tijd [s]
6
7
8
9
10
2 0 −2
C
2 0 −2 2
D 0 −2
Figuur 3.4:
A: Het continue signaal x(t). B: De getallenreeks x(k∆t). P C: De dirackam ∆t ∞ k=−∞ δ(t − k∆t). D: Het produkt xs (t) van het continue signaal met een dirackam. Xs (ω) van het bemonsterde signaal en de fouriergetransformeerde X(ω) van het oorspronkelijke signaal. Immers, met gebruikmaking van vgl. [3.8] geldt: Xs (ω) = F{x(t)∆t
∞ X
k=−∞
δ(t − k∆t)}
= F{x(t)} ∗ F{∆t
∞ X
k=−∞
δ(t − k∆t)}
∞ X 1 Z∞ X(ω − ω 0 )∆t ωs = δ(ω 0 − nωs )dω 0 2π −∞ n=−∞
=
∞ X
n=−∞
X(ω − nωs )
[3.10]
Indien we uitgaan van een funktie X(ω) die voldoet aan X(ω) = 0 voor |ω| ≥ ωs /2 dan bevat deze reeks maar ´e´en term 6= 0, namelijk de term waarvoor geldt −ωs /2 < ω − nωs < ωs /2. Dit is dan de term met X 0 (ω) = X(ω − nωs ). Voor elke waarde van n is er steeds ´e´en term, maar ook niet meer dan ´e´en term, te vinden zoals wordt ge¨ıllustreerd in fig. 3.5 voor het geval dat n = 2. Het spectrum van X(ω) herhaalt
32
3
Bemonsterde signalen in het frequentiedomein
2
1 ωs 0 −10
−8
−6
−4
−2
0
2
4
6
8
10
6
8
10
2
1 ω
ω +ω
1
0 −10
−8
−6
−4
1
ω1+2ωs
s
−2 0 2 frequentie [2π rad/s]
4
Figuur 3.5: Bepaling van de fouriergetransformeerde Xs (ω) van een bemonsterd signaal uit de fouriergetransformeerde X(ω) van een continu signaal bij een frequentie ω > ωs , getekend voor een bemonsterfrequentie ωs = 8π rad/s. 2 Het continue signaal in het frequentie domein 1 ωs 0 −10
−8
−6
−4
−2
0
2
4
6
8
10
−2 0 2 frequentie [2π rad/s]
4
6
8
10
2 Het bemonsterde signaal 1
0 −10
−8
−6
−4
Figuur 3.6: Amplitudespectra van een continu signaal x(t) en van het bemonsterde
signaal xs (t) voor een bemonsterfrequentie van ωs = 8π rad/s. zich dus steeds langs de frequentieas met een interval ωs , zoals afgebeeld in fig. 3.6. De figuur illustreert dat het signaal xs (t) energie bevat bij oneindig hoge frequenties. Dit moet ook wel voor een funktie met oneindig steile hellingen in het tijdsdomein.
3.2.2 Het theorema van Shannon Uit fig. 3.6 blijkt dat er voor een gegeven bemonsterfrequentie ωs zodanig dat X(ω) = 0 voor |ω| ≥ ωs /2 een ´e´en-´e´enduidig verband bestaat tussen X(ω) en Xs (ω). Dit suggereert dat het bemonsterde signaal nog steeds alle informatie bevat over het oorspronkelijke continue signaal. Het continue signaal moet dus uit het bemonsterde signaal gereconstrueerd kunnen worden. Dit is inderdaad het geval.
3.2
33
Bemonsterde signalen
2 Bemonsterd signaal met ωs=8π rad/s 1 ω
s
0 −10
−8
−6
−4
−2
0
2
4
6
8
10
−2
0
2
4
6
8
10
−2 0 2 frequentie [2π rad/s]
4
6
8
10
2 De funktie W(ω)
1.5 1 0.5 0 −10
−8
−6
−4
2 Het continue signaal X(ω) 1
0 −10
−8
−6
−4
Figuur 3.7: Reconstructie van X(ω) uit Xs (ω).
Als we in het frequentiedomein de funktie Xs (ω) vermenigvuldigen met de funktie W (ω) = 1 voor |ω| < ωs /2 = 0.5 voor |ω| = ωs /2 = 0 voor |ω| > ωs /2
[3.11]
ontstaat weer de funktie X(ω), zoals wordt ge¨ıllustreerd in fig. 3.7. Er geldt dus dat X(ω) = W (ω)Xs (ω). Terugtransformatie naar het tijdsdomein levert: x(t) = F
−1
{W (ω)Xs (ω)} = w(t) ∗ xs (t) =
Z
∞ −∞
w(t − τ )xs (τ )dτ
[3.12]
waarbij voor w(t) geldt: w(t) =
ωs ωs ωs sin ω2s t = sinc( t) ωs 2π 2 t 2π 2
met de functie sinc(t) gedefinieerd als sinc(t) = x(t) = = =
sin t . t
Hieruit volgt dat:
∞ X ωs Z ∞ ωs δ(τ − k∆t)dτ sinc( (t − τ ))x(τ )∆t 2π −∞ 2 k=−∞ ∞ Z ∞ X ωs ωs ∆t sinc( (t − τ ))x(τ )δ(τ − k∆t)dτ 2π k=−∞ −∞ 2 ∞ X
k=−∞
sinc(
ωs (t − k∆t))x(k∆t) 2
[3.13]
Deze relatie laat zien dat x(t) precies weer berekend kan worden uit de bemonsterde waarden x(k∆t) van het oorspronkelijke continue signaal. Deze uitdrukking staat
34
3
2
Bemonsterde signalen in het frequentiedomein
Het continue signaal in het frequentie domein
1 0 −5 2
−4
−3
−2
−1
0
1
2
3
4
5
1
2
3
4
5
De componenten van het bemonsterde signaal
1 0 −5 2
−4
−2
−1
0
Het bemonsterd signaal met ωs=6π rad/s
1 0 −5 2
−3
−4
−3
−2
−1
0
1
2
3
4
5
−2
−1
0
1
2
3
4
5
−1 0 1 frequentie [2π rad/s]
2
3
4
5
De funktie W(ω)
1 0 −5 2
−4
−3
Het gereconstrueerde continue signaal
1 0 −5
Figuur 3.8:
−4
−3
−2
Het effect van een te lage bemonsterfrequentie, gezien in het frequen-
tiedomein. bekend als het theorema van Shannon. Hij geldt alleen voor het geval dat X(ω) = 0 voor |ω| > ωs /2 (zie fig. 3.5). Wat er gebeurt als niet aan deze eis wordt voldaan is te zien in fig. 3.8. Er is hier een zeker frequentiegebied waarvoor de reeks Xs (ω) = P∞ k=−∞ X(ω − kωs ) twee termen bevat die ongelijk aan nul zijn. Vermenigvuldiging van Xs (ω) met de funktie W (ω) geeft nu niet meer de oorspronkelijke funktie X(ω) 2π moet dus altijd zodanig worden gekozen terug. De bemonsterfrequentie ωs = ∆t dat: ωs > 2ωmax
[3.14]
waarbij ωmax de hoogste frequentie is waarbij het signaal nog energie bevat. Aliasing. Fig. 3.9 laat zien wat er gebeurt, als een sinus met een te lage frequentie wordt bemonsterd. Er ontstaat een schijnbaar laag-frequente sinus. Dit effekt dat (in het Engels) aliasing wordt genoemd staat ook bekend als het stroboscoopeffekt. Dit wordt soms bewust toegepast om snelle periodieke verschijnselen vertraagd te kunnen bekijken, bijvoorbeeld bij het balanceren van autowielen. Bij de signaalverwerking dient dit effekt echter vermeden te worden. In het vervolg zal er dan ook steeds van uitgegaan worden dat de bemonsterfrequentie zodanig wordt gekozen, dat aan deze eis voldaan is. Dit wil echter niet zeggen dat overlap in het frequentiedomein altijd te vermijden is.
3.2.3 Recapitulatie bemonsterde signalen Enkele belangrijke conclusies uit deze paragraaf zijn de volgende:
3.2
35
Bemonsterde signalen
1 0.5 0
x(t) = cos ω1 t
−0.5 −1
0
1
2
3
4
5
6
7
8
9
10
1 0.5 0
xs (t) = cos ω2 t
−0.5 −1
0
1
2
3
1
4
5 Tijd [s]
6
7
Xs(ω)
8
9
X(ω)
ω2 =
0.5 π ∆t 0 −1.5
−1 −ω1
−0.5
−ω2 0
ω2
10
0.5
2π ∆t ω1
1
2π ∆t
− ω1
1.5
Frequentie [2π rad/s]
Figuur 3.9:
Het effect van een te lage bemonsterfrequentie voor een sinusvormig
signaal. • Bij een goed gekozen bemonsterfrequentie gaat er geen informatie verloren bij het bemonsteren van een continu signaal. • Bij het bemonsteren van een continu signaal in het tijdsdomein ontstaat een periodiek signaal in het frequentiedomein. Indien niet aan de eisen voor geldigheid van het theorema van Shannon wordt voldaan kunnen afbeeldingen van transformaties in het frequentiedomein van bemonsterde signalen er anders uitzien dan men in eerste instantie verwacht. De conclusie m.b.t. de periodiciteit in het frequentiedomein kan nog verder gegeneraliseerd worden, in die zin dat bemonsteren in het frequentiedomein een periodiek signaal in het tijdsdomein oplevert. In feite was deze eigenschap al bekend. Een periodiek signaal in het tijdsdomein leverde een lijnenspectrum op in het frequentiedomein, dat de fourierreeks beschrijft. Bij een amplitudespectrum zijn dit de amplituden van de afzonderlijke componenten. Bij een fouriertransformatie van een periodiek signaal ontstaat een gewogen dirackam, waarvan de weegfaktoren weer overeenkomen met de coefficienten van de fourierreeks. Nog een stap verder gaat de transformatie van een bemonsterd periodiek signaal in het tijdsdomein. Dit levert in het frequentiedomein een afbeelding die periodiek en bemonsterd is. Anders gezegd: bemonsteren in het ene domein levert periodiciteit in het andere domein en omgekeerd. E´en en ander is in beeld gebracht in fig. 3.10. Gemakshalve is hier uitgegaan van een funktie die symmetrisch is in de tijd en dus ook re¨eel en symmetrisch in het frequentiedomein. Voor een willekeurige funktie komt er nog een imaginair, keersymmetrisch, deel bij in het frequentiedomein. De eigenschappen blijven in principe echter gelden.
36
3
Bemonsterde signalen in het frequentiedomein
Figuur 3.10: Bemonsteren en periodiciteit in tijdsdomein en frequentiedomein.
Met de periodiciteitseigenschappen in tijds- en frequentiedomein in samenhang met bemonsteren in frequentie- en tijdsdomein is in feite de basis gelegd voor de in de volgende paragraaf te behandelen diskrete fouriertransformatie.
3.3 De Fourier Transformatie In het vak Systeemtheorie is de continue Fouriertransformatie behandeld. Deze was als volgt gedefinieerd. De Fouriertransformatie van een continue signaal x(t) wordt gegeven door: X(ω) = F{x(t)} =
Z
∞ −∞
x(t)e−jωt dt
[3.15]
en de terugtransformatie levert: x(t) = F
−1
1 Z∞ X(ω)ejωt dω {X(ω)} = 2π −∞
[3.16]
In deze paragraaf zullen overeenkomstige definities worden gegeven voor gediscretiseerde signalen.
3.3.1 De diskrete fouriertransformatie (DFT) In de praktijk worden signalen altijd over een eindige tijd, gemeten, bemonsterd en ingelezen in een computer voor verdere verwerking. Is deze verdere verwerking een fouriertransformatie, dan zal de fouriergetransformeerde eveneens voor een eindig aantal frequenties worden berekend. Het komt er in feite op neer dat een
3.3
37
De Fourier Transformatie
Figuur 3.11: Een continu signaal x(t) en zijn fouriergetransformeerde X(ω).
eindige reeks getallen in het tijdsdomein wordt afgebeeld op een, eveneens eindige, getallenreeks in het frequentiedomein. We zullen de gevolgde procedure nader onderzoeken uitgaande van de bijbehorende continue funkties. Beschouw een signaal x(t) gemeten over een eindig interval [0, T ]. De frequentieinhoud van het signaal is eveneens begrensd en wel op het frequentieinterval [− ω2s , ω2s ]. Het signaal en zijn fouriergetransformeerde zijn afgebeeld . Bij een in fig. 3.11. Het signaal wordt nu bemonsterd met een interval ∆t = 2π ωs observatietijd T = N ∆t wordt het signaal dus beschreven door N re¨ele getallen. Dit aantal is noodzakelijk en voldoende om het oorspronkelijke continue signaal te reconstrueren. Bij fouriertransformatie van het bemonsterde signaal is het eveneens noodzakelijk en voldoende om de getransformeerde voor N frequenties op het interval [− ω2s , ω2s ] te berekenen. Dit levert N complexe getallen. Door de symmetrieeigenschappen van X(ω) zijn er dan echter maar N2 complexe getallen onderling onafhankelijk, zodat de funktie uiteindelijk weer op N onafhankelijke getallen wordt afgebeeld. Als frequentieinterval kiezen we dus ∆ω = ωNs = N2π∆t = 2π . T Door het bemonsteren in het tijdsdomein is de afbeelding in het frequentiedomein nu periodiek geworden met periode ωs . Doordat we ook in het frequentiedomein bemonsteren is het bemonsterde signaal in het tijdsdomein eveneens periodiek geworden met periode T . Bij de transformatie beperken we ons tot het afbeelden van ´e´en periode in het tijdsdomein op ´e´en periode in het frequentiedomein. Als interval kiezen we dan [0, ωs ]. Het plaatje van fig. 3.11 gaat dan over in fig. 3.12. De fouriergetransformeerde van het bemonsterde signaal in het tijdsdomein wordt verkregen door fouriertransformatie van het produkt van het continue signaal x(t) P en de eindige kam van dirac: ∆t N k=0 δ(t − k∆t). De fouriergetransformeerde van het bemonsterde signaal bij een frequentie ω = n∆ω = N2πn wordt nu: ∆t X(n∆ω) =
Z
∞ −∞
= ∆t
x(t)∆t
N −1 X k=0
N −1 X k=0
2πnt
δ(t − k∆t)e−j N ∆t dt
x(k∆t)e−j
2πnk N
voor n = 0, 1, . . . , N − 1
[3.17]
38
3
Bemonsterde signalen in het frequentiedomein
Figuur 3.12: Een periode van de uit vorige figuur afkomstige bemonsterde signalen
x(k∆t) in het tijdsdomein en van X(n∆ω) in het frequentiedomein. Terugtransformatie levert op overeenkomstige wijze: −1 2πnk ∆ω NX X(n∆ω)ej N 2π n=0
x(k∆t) =
voor k = 0, 1, . . . , N − 1
[3.18]
Hiervan uitgaande is een nieuwe transformatie gedefinieerd, namelijk de Diskrete Fourier Transformatie (DFT). Deze transformatie geeft het verband tussen een getallenrij xk in het tijdsdomein en een getallenrij Xn in het frequentiedomein: Xn = F{xk } xk
= ∆t
= F −1 {Xn } =
PN −1
1 N ∆t
k=0
x(k∆t)e−j
PN −1 n=0
2πkn N
X(n∆ω)ej
2πkn N
voor n = 0, 1, . . . , N − 1 voor k = 0, 1, . . . , N − 1
waarbij N1∆t = ∆ω . De constanten ∆t en ∆ω zorgen er voor dat de schalen langs de 2π 2π tijdas en de frequentieas zijn vastgelegd en dat de bewerking DF T −1 {DF T {xk }} de eenheidsoperatie oplevert. Bij de hier gekozen definitie van . de DFT is ∆t meegenomen. Soms wordt ∆t = 1 genomen, dan wordt ∆ω = 2π N 1 Weer anderen stellen ∆ω = 2π, zodat ∆t = N2π = . Bij het praktisch toepassen ∆ω N van elders geschreven DFT- subroutines is het dus van belang na te gaan welke definitie gehanteerd is, ten einde de juiste schaling te krijgen. Ter verkorting van de schrijfwijze wordt vaak de volgende grootheid gedefinieerd: 2π
W = e−j N
[3.19]
zodat dan Xn = ∆t xk
=
PN −1
1 N ∆t
k=0
xk W nk
PN −1 n=0
Xn W
voor n = 0, 1, . . . , N − 1 −nk
voor k = 0, 1, . . . , N − 1
[3.20]
3.3
39
De Fourier Transformatie
3.3.2 De Fast Fourier Transform Voor het transformeren van N getallen in het tijdsdomein naar N getallen in het frequentiedomein zijn in principe N 2 vermenigvuldigen met de complexe grootheid W kn nodig, als we er van uitgaan dat van te voren een tabel gemaakt is met alle gewenste waarden van W kn . Een algorithme waarmee de DFT op een wat snellere manier kan worden uitgevoerd staat bekend als de Fast Fourier Transform (FFT). Hiermee kan het aantal bewerkingen aanzienlijk teruggebracht worden. Voor het geval N = 2m wordt dit aantal m2m in plaats van 22m bij de klassieke methode. Voor het geval m = 10, dus m N = 1024 is de FFT dus al een faktor 2m ≈ 100 sneller. De werking berust op het herhaaldelijk splitsen van een grote reeks in twee onderling verschoven kleinere reeksen, zoals zal blijken uit de volgende afleiding. Wanneer uitgegaan wordt van een even waarde van N is Xn ook te schrijven als: N 2
Xn = ∆t
−1
X
x2k W
N 2
2kn
+ ∆t
k=0 N 2
= 2∆t
−1
X
x2k+1 W (2k+1)n
[3.21]
k=0
−1
X x2k
W
2kn
n
2 reeks even monsters
+ W 2∆t
N 2
−1
X x2k+1
W 2kn
2 oneven monsters
k=0
[3.22]
k=0
De reeks is nu gesplitst in twee nieuwe reeksen (zie figuur 3.13) met het dubbele bemonsterinterval namelijk de even reeks met elementen: yk = x22k , en de oneven reeks met elementen: zk = x2k+1 , k = 0, 1, . . . , N2 − 1. De DFT van de y- en z- reeks 2 met tijdsintervallen 2∆t wordt: N 2
Yn = 2∆t
−1
X
yk W 2kn
n = 0, 1, . . . ,
N −1 2
X
zk W 2kn
n = 0, 1, . . . ,
N −1 2
k=0 N 2
Zn = 2∆t
−1
k=0
[3.23]
Hieruit volgt, dat Xn ook te schrijven is als: X n = Y n + W n Zn
met n = 0, 1, . . . , N2 − 1
[3.24]
De term W n geeft aan dat de funktie z(t) over ´e´en bemonsterinterval naar rechts moet worden geschoven in de tijd t.o.v. de funktie y(t) om als som weer de funktie x(t) op te leveren. Uit de verdubbeling van het bemonsterinterval en uit de nummering van n blijkt, dat nog maar de helft van de frequentieband, en wel de laagfrequente helft, te berekenen is. Met behulp van de periodiciteitseigenschap in het frequentiedomein is echter ook de andere helft weer te bepalen (zie figuur 3.14). Immers, voor N2 monsters per periode N2 van Y (ω) en Z(ω) volgt uit deze periodiciteit dat: Yn+ N = Yn en Zn+ N = Yn zodat 2
2
N
Xn+ N = Yn + W n+ 2 Zn 2
[3.25]
40
3
Bemonsterde signalen in het frequentiedomein
Splitsing van de reeks x(k∆t) in twee nieuwe reeksen y(k∆t0 ) en
Figuur 3.13:
z(k∆t0 ).
De moduli van de funkties X(ω), Y (ω) en Z(ω) behorende bij de funkties x(t), y(t) en z(t) uit het vorige figuur.
Figuur 3.14:
N
N
en aangezien: W n+ 2 = W n W 2 = W n e−jπ = −W n geldt ook Xn+ N = Yn − W n Zn zodat toch weer elk punt van het frequentiespektrum 2
te berekenen is. Om dit te bereiken zijn nu 2( N2 )2 + N2 = N (N2+1) vermenigvuldigingen nodig in plaats van N 2 . Wanneer N2 ook even is, kunnen de reeksen yk en zk ook weer in twee¨en gesplitst worden. In het algemeen kan voor een getal N = 2m de reeks net zo lang telkens in twee¨en worden gesplitst tot slechts reeksen bestaande uit 1 punt overblijven.
3.3
41
De Fourier Transformatie
Figuur 3.15: Links: Signaalstroomdiagram dat aangeeft hoe de grootheden X n uit
de grootheden Yn en Zn te bepalen zijn door de operatie Xn = Yn + W n Zn . Rechts: Signaalstroomdiagram voor de transformatie van een reeks van 8 punten. Als voorbeeld is in figuur 3.15 aangegeven, met behulp van een signaalstroomdiagram hoe voor N = 8 de waarden van xn tot stand komen uit die voor yn en zn . De voor de grootheden yn en zn geplaatste getallen geven de nummering aan van de pulsreeks waaruit deze grootheden bepaald zijn. Dezelfde procedure die geleid heeft tot het bepalen van de grootheden xn uit die van 2 reeksen van de halve lengte wordt vervolgens ook op deze halve reeksen toegepast en zo verder tot alleen reeksen van 1 punt overblijven, zoals weergegeven in het signaalstroomdiagram van fig. 3.15 (rechts). Voor een reeks met ´e´en punt geldt N = 1, zodat: Xn = ∆t
N −1 X k=0
xk W nk
met n = 0, 1, . . . , N − 1
[3.26]
waaruit volgt: X0 = x0 ∆t. Bij alle reeksen wordt steeds weer de nummering gegeven van de punten uit de oorspronkelijke xk -reeks. In het frequentiedomein gezien geldt dan Xk = xk ∆t. Aangezien W 0 = 1 zijn deze waarden weggelaten in de figuur. Er blijkt dat telkens 2 getallen in een gegeven kolom voldoende informatie leveren voor de twee getallen op dezelfde plaatsen in de volgende kolom. Dit houdt in dat de hele operatie achtereenvolgens kan gebeuren in een rekenmachine door bewerkingen op getallen die na deze bewerking weer op dezelfde geheugenplaatsen gezet kunnen worden. Om de resultaten in de juiste volgorde te krijgen, dienen in de oorspronkelijke rij enkele getallen eerst van plaats te verwisselen. Hiervoor blijkt een eenvoudige regel te bestaan nl.: Schrijf het nummer van het monster in het tijdsdomein binair, keer vervolgens de volgorde van de nullen en enen om (”bit reversal”). Het getal dat nu ontstaat, geeft de plaats aan waar het monster moet komen. Ook hier weer blijkt dat telkens maar
42
3
Bemonsterde signalen in het frequentiedomein
2 getallen onderling verwisseld moeten worden. Voorbeeld: 310 = 0112 wordt 1102 = 6; ook het omgekeerde geldt, dus x3 en x6 moeten van plaats verwisselen. Uit het signaalstroomdiagram van fig. 3.15 is direkt af te lezen hoe een bepaalde Xn tot stand gekomen is. X7 = (x0 − W 3 x1 − W 2 x2 + W 5 x3 − x4 + W 3 x5 + W 2 x6 − W 5 x7 )∆t
[3.27]
Rekening houdend met het feit dat W = e−2πj/8 zodat W4 =-1 is dit ook te schrijven als: X7 = (x0 − W 3 x1 − W 2 x2 − W x3 − x4 + W 3 x5 + W 2 x6 + W x7 )∆t
[3.28]
Uit de oorspronkelijke definitie volgde: X7 = (W 0 x0 + W 7 x1 + W 14 x2 + W 21 x3 + W 28 x4 + W 35 x5 + W 42 x6 + W 49 x7 )∆t[3.29] hetgeen met W 4 = −1 ook te schrijven is als vgl. [3.28] en dus in overeenstemming met de resultaten uit het signaalstroomdiagram.
Tot slot kunnen nog enkele opmerkingen over de FFT gemaakt worden. • Bij het behandelde algorithme werd een splitsing uitgevoerd in even en oneven monsters. E´en van de reeksen werd over 1 monster in de tijd verschoven. In het frequentiedomein leverde dit twee reeksen, die elk de helft van de frequentieband bestrijken. Door de elementen van de ene reeks te vermenigvuldigen met W n , hetgeen neerkomt op een voor elke frequentie verschillende verschuiving langs de ω-as, bleek het mogelijk te zijn het spectrum over de hele band weer op te bouwen. • Het schema dat in het voorgaande is behandeld is niet de enige mogelijkheid om tot een FFT te komen. De rangschikking van de monsters m.b.v. ”bit reversal” wordt bij de behandelde algorithme uitgevoerd v´oo´r de transformatie. Men kan ook eerst transformeren en daarna in het frequentiedomein rangschikken. Dit komt hierop neer, dat operaties op de getallenreeks, die bij de beschreven methode in het tijdsdomein uitgevoerd werden, nu in het frequentiedomein plaatsvinden en omgekeerd. Ook allerlei mengvormen zijn mogelijk. Het begrip Fast Fourier Transform zit dus niet aan een bepaald bewerkingsschema gebonden, maar omvat een verzameling van mogelijkheden, die berusten op het herhaald uitvoeren van 2 operaties nl. splitsen en verplaatsen. • Voor de terugtransformatie bestaan overeenkomstige procedures, hetgeen logisch is omdat de rollen van ω en t in de formules voor de fouriertransformatie niet principieel verschillen.
3.3
De Fourier Transformatie
43
3.3.3 Stelling van Parseval In vorige sectie is de Fouriertransformatie voor discrete signalen gegeven. Voor convergentie van de Fouriertransformatie is een voldoende conditie dat het signaal eindige energie heeft. Ofwel: ∞ X
k=−∞
|x(k)|2
[3.30]
is begrensd. De stelling van Parseval relateert de energie in het tijdsdomein aan de energie in het frequentiedomein en deze luidt voor een continu signaal: Z
1 Z∞ |X(ω)|2 dω |x(t)| dt = 2π −∞ −∞ ∞
2
[3.31]
Hierbij wordt |X(ω)|2 ook wel het energiedichtheidspectrum van x(t) genoemd. Voor een bemonsterd signaal over eindige tijd gemeten, en waarbij de frequentie-inhoud begrensd is kan een overeenkomstige relatie worden afgeleid. De stelling van Parseval luidt dan: N −1 X
−1 −1 1 NX 1 NX 2 |x(k)| ∆t = |X(n)| ∆ω = |X(n)|2 2π n=0 N ∆t n=0 k=0 2
[3.32]
Deze relatie geeft aan dat om de energie in het tijdsdomein te berekenen ook de energie in het frequentiedomein berekend kan worden.
3.3.4 Recapitulatie DFT en FFT De fouriertransformatie is voor continue funkties een belangrijk hulpmiddel gebleken om rekenwerk te vereenvoudigen. Convolutieintegralen in het tijdsdomein worden omgezet in vermenigvuldigingen in het frequentiedomein; lineaire differentiaalvergelijkingen worden getransformeerd naar algebra¨ısche vergelijkingen in het frequentiedomein. Het gedrag van lineaire systemen wordt dan ook veelal in dit domein beschreven. Om die reden is het aantrekkelijk om ook een dergelijke transformatie te kunnen gebruiken voor bemonsterde tijdsfunkties. Uitgaande van de onder par. 3.3 afgeleide relaties wordt een definitie van de Diskrete Fourier Transformatie (DFT) gegeven. Hierbij moet opgemerkt worden dat er meerdere definities mogelijk zijn, die niet wezenlijk van elkaar verschillen, maar wel met een verschillende schaalfaktor werken. Bij het gebruiken van routines uit signaalverwerkingspakketten is het zaak hiermee rekening te houden en na te gaan welke definitie wordt gehanteerd. De eigenschappen van de DFT corresponderen met die van de fouriertransformatie voor continue signalen, waarvan er hiervoor enkele genoemd zijn. Een belangrijk verschil als gevolg van het bemonsteren is, dat de getallenreeksen zowel in het frequentiedomein als in het tijdsdomein periodiek geworden zijn. De DFT beeldt N getallen in het ene domein af op N getallen in het andere domein. Dit vraagt, uitgaande van de gegeven definities, N 2 bewerkingen, bestaande uit een optelling en een vermenigvuldiging. Door de bewerkingsvolgorde op een
44
3
Bemonsterde signalen in het frequentiedomein
handige manier te reorganiseren, gebaseerd op het herhaaldelijk in twee¨en splitsen van reeksen, ontstaat een algorithme, de Fast Fourier Transform (FFT) waarin dit rekenwerk drastisch omlaag gebracht wordt bij lange reeksen. Voor een reeks van 1024 getallen scheelt dit bijvoorbeeld een faktor 100 in rekentijd. Hoe langer de reeks, hoe groter de tijdwinst.
Hoofdstuk 4 Discrete tijd lineaire systemen In dit hoofdstuk zullen beschrijvingswijzen worden gehanteerd voor in de tijd gediskretiseerde systemen en signalen. Aangegeven zal worden wat hun onderlinge relatie is. Verder zal worden aangegeven welke beschrijvingswijze hoort bij welke toepassing. In par. 4.1 wordt in het kort aandacht geschonken aan de z- transformatie, uitgaande van de laplace-transformatie van een bemonsterde tijdfunktie. In par. 4.2 wordt aangegeven wat de relatie is tussen de z-transformatie en de Diskrete Fouriertransformatie. In deze paragraaf wordt tevens een overzicht gegeven van de eerder genoemde transformaties met hun toepassingsgebieden. Verder worden in par. 4.3 verschillende beschrijvingswijzen van systemen met elkaar vergeleken.
4.1 De z-transformatie 4.1.1 Afleiding van de z-transformatie uitgaande van de laplacetransformatie De diskrete fouriertransformatie en het daarbij toegepaste FFT-algoritme worden tegenwoordig overal gebruikt in signaalverwerkingsprogramma’s. Deze transformatie geeft het verband tussen een getallenrij in het tijdsdomein en een getallenrij in het frequentiedomein en vormt de discrete tegenhanger van de op continue funkties gedefinieerde fouriertransformatie. Behalve de fouriertransformatie speelt ook de laplacetransformatie een belangrijke rol in de regeltechniek en wel bij het onderzoek naar stabiliteit van systemen. Een systeem is stabiel als alle polen van de overdrachtsfunktie in het s-domein in de linkerhelft van het complexe vlak liggen. Voor het beschrijven van diskrete systemen is de z-transformatie gedefinieerd. Deze is af te leiden via de laplacetransformatie van bemonsterde funkties in het tijdsdomein en wel op de volgende manier. Beschouw een funktie x(t) waarvoor geldt: x(t) = 0 voor t < 0. Deze funktie wordt bemonsterd. De laplacetransformatie van de bemonsterde funktie verloopt geheel analoog aan de werkwijze bij de fouriertransformatie van bemonsterde signalen door het produkt van de oorspronkelijke continue funktie met een kam van
46
4
Discrete tijd lineaire systemen
dirac te beschouwen. De laplacetransformatie hiervoor wordt: Xs (s) = L{x(t) =
∞ X
Z
∞ X
k=−∞ ∞
k=−∞ 0
δ(t − k∆t)} =
Z
∞ 0
x(t)
∞ X
k=−∞
δ(t − k∆t)e−st dt
x(t)δ(t − k∆t)e−st dt met Re{s} > 0
[4.1]
Hetgeen ook te schrijven is als: Xs (s) =
∞ Z X
∞
k=0 −∞
x(t)δ(t − k∆t)e−st dt =
∞ X
x(k∆t)e−sk∆t
[4.2]
k=0
We voeren nu een nieuwe variabele z in, gedefinieerd als z = es∆t . De laplacetransformatie van het bemonsterde signaal gaat nu over in de z-transformatie: X(z) =
∞ X
x(k∆t)z −k
[4.3]
k=0
Door de definitie van de nieuwe variabele z is een nieuw domein ontstaan het zdomein. Punten en lijnen in het s-domein kunnen afgebeeld worden in het z-domein. Met s = λ + jω wordt de bijbehorende z gelijk aan: z = es∆t = eλ∆t ejω∆t
[4.4]
Met ρ = eλ∆t en ψ = ω∆t is z ook te beschrijven in termen van poolco¨ordinaten in het complexe vlak met z = ρejψ . Stabiliteit. Een rechte lijn Re{s} = λ in het s-vlak wordt afgebeeld op een cirkel met straal ρ = eλ∆t in het z-vlak. De imaginaire as, gegeven door de beschrijving Re{s} = 0 wordt in het z-vlak gegeven door de vergelijking ρ = 1, m.a.w. door een cirkel met straal 1 en het middelpunt in de oorsprong, verder aangeduid als de eenheidscirkel. Voor waarden λ < 0 geldt ρ < 1, m.a.w. de linkerhelft van het s-vlak wordt afgebeeld op het deel van het z-vlak dat binnen de eenheidscirkel ligt (fig. 4.1). Zoals bekend geldt als stabiliteitseis voor een systeem, dat de polen van de overdrachtsfunktie in het s-vlak in het linkerhalfvlak moeten liggen. Vertaald naar diskrete systemen betekent dit, dat de polen van de overdrachtsfunktie in het z-vlak binnen de eenheidscirkel moeten liggen. Inverse z-transformatie. De inverse laplacetransformatie was gedefinieerd als 1 Z λ+j∞ x(t) = L {X(s)} = X(s)e−st ds 2πj λ−j∞ −1
[4.5]
waarbij λ een zodanige waarde λ1 moet hebben dat alle polen in het s-vlak links van de lijn s = λ1 liggen. Zonder nadere afleiding wordt hierbij de uitdrukking voor de terugtransformatie vanuit het z-vlak gegeven namelijk x(k∆t) = Z
−1
1 I X(z)z k−1 dz {X(z)} = 2πj c
[4.6]
4.1
De
z -transformatie
47
De linkerhelft van het s-vlak wordt afgebeeld op het gebied binnen de eenheidscirkel in het z-vlak. Figuur 4.1:
Het integratiesymbool dat hier gebruikt wordt geeft een contourintegraal aan. Dit is een integratie langs een gesloten contour in het complexe vlak. De hier toegepaste contour moet zodanig zijn dat deze alle polen van de funktie X(z) omvat. Op grond van de hiervoor besproken relatie tussen verticale lijnen in het s-vlak en cirkels in het z-vlak kan gesteld worden dat een cirkel met straal ρ ≥ eλ1 ∆t en middelpunt in de oorsprong als een geschikte contour te beschouwen is.
4.1.2 Enkele eigenschappen van de z-transformatie In analogie met de fouriertransformatie en de laplacetransformatie bezit ook de ztransformatie een aantal eigenschappen die het rekenen in het z-domein aantrekkelijk maken. Zonder nader bewijs noemen we er hier enkele. • De z-transformatie is een lineaire operatie. Z{c1 x1 (k∆t) + c2 x2 (k∆t)} = c1 Z{x1 (k∆t)} + c2 Z{x2 (k∆t)}
[4.7]
• Een convolutie in het tijdsdomein gaat over in een vermenigvuldiging in het z-domein. Z{
∞ X
k=0
x1 (k∆t)x2 ((n − k))∆t)} = Z{x1 (k∆t)}Z{x2 (k∆t)}
[4.8]
• Een produkt in het tijdsdomein komt overeen met een convolutie in het zdomein. Zoals continue systemen in het algemeen worden gekarakteriseerd door een differentiaalvergelijking, worden discrete systemen gekarakteriseerd door een differentievergelijking. In een differentiaalvergelijking is de kenmerkende operatie de differentiatie. Bij de differentievergelijking is dit de verschuiving. Vandaar dat het van belang is aandacht te schenken aan de z-transformatie van een verschoven signaal.
48
4
Discrete tijd lineaire systemen
We beschouwen daartoe de relatie tussen de z-getransformeerden van de getallenreeksen x(k∆t) en x((k + 1)∆t). Uitgaande van de definitie van de z-transformatie kan gesteld worden dat: Z{x((k + 1)∆t)} =
∞ X
x((k + 1)∆t)z −k = z
∞ X
x((k + 1)∆t)z −(k+1)
k=0
k=0 ∞ X
= z
x(k∆t)z
−k
=z
k=1
∞ X
x(k∆t)z
−k
k=0
− x(0)
!
[4.9] [4.10]
Z{x((k + 1)∆t)} = z(Z{x(k∆t)} − x(0))
Het is interessant om dit resultaat te vergelijken met de uitdrukking voor de laplacegetransformeerde van de afgeleide van een signaal: L{x(t)} ˙ = s(X(s)) − x(0)
[4.11]
Er is een verschil, doordat de term x(0) in het geval van de z-transformatie binnen de haakjes staat en in het geval van de laplacetransformatie daarbuiten. Voor het geval dat x(0) = 0 zijn de operaties echter volledig vergelijkbaar. Nogmaals toepassen van een verschuiving in positieve richting levert uiteindelijk de uitdrukking voor de z-getransformeerde van een over 2 monsters vooruit geschoven reeks:
Z{x(k+2)∆t} = z 2 X(z)−z 2 x(0)−zx(k∆t) = z 2 X(z) −
1 X
j=0
x(j∆t)z −j [4.12]
Voor een positieve verschuiving over m monsters levert dit de algemene uitdrukking
Z{x((k + m)∆t)} = z m X(z) −
m−1 X j=0
x(j∆t)z −j
[4.13]
Voor een verschuiving in achterwaartse richting loopt de afleiding als volgt: Z{x((k − 1)∆t)} =
∞ X
k=0
= z −1
x((k − 1)∆t)z −k = z −1 ∞ X
k=−1
x(k∆t)z −k = z −1
∞ X
k=0 ∞ X
x((k − 1)∆t)z −(k−1)
x(k∆t)z −k + x(−∆t)
k=0
Aangezien het uitgangspunt was dat x(t) = 0 voor t < 0 geldt: x(−∆t) = 0, zodat voor de z-getransformeerde van een achterwaarts verschoven signaal geldt: Z{x((k − 1)∆t)} = z −1
∞ X
x(k∆t)z −k = z −1 X(z)
[4.14]
k=−1
Voor een achterwaartse verschuiving over m tijdstappen geldt dan Z{x((k − m)∆t)} = z −m X(z)
[4.15]
4.2
Relatie tussen transformaties en vormen van systeembeschrijvingen
49
4.1.3 De z-transformatie voor het beschrijven van diskrete systemen Geheel analoog aan het geval van de fouriertransformatie van een differentiaalvergelijking kan een lineaire differentievergelijking via de z-transformatie worden omgezet in een algebra¨ısche vergelijking. De algemene gedaante van een differentievergelijking is: y(k∆t) + a1 y((k − 1)∆t) + · · · + aL y((k − L)∆t) = b0 u(k∆t) + b1 u((k − 1)∆t) + · · · + bM u((k − M )∆t)
[4.16]
Toepassing van de z-transformatie levert: Y (z)+a1 z −1 Y (z)+· · ·+aL Y (z) = b0 U (z)+b1 z −1 U (z)+· · ·+bM z −M U (z)[4.17] Waaruit volgt: b0 + b1 z −1 + · · · + bM z −M Y (z) = H(z −1 ) = U (z) 1 + a1 z −1 + · · · + aL z −L
[4.18]
b0 z L + b1 z L−1 + · · · + bM z L−M Y (z) = H(z) = U (z) z L + a1 z L−1 + · · · + aL
[4.19]
Aannemende dat L > M kunnen we teller en noemer met z L vermenigvuldigen. We krijgen dan
Dit is de overdrachtsfunktie van het diskrete systeem in het z-domein. Het systeem is stabiel als de polen, d.w.z. de nulpunten van de noemer-polynoom, binnen de eenheidscirkel vallen. Schrijven we de overdrachtsfunktie als quotient van twee polynomen in z −1 zoals in de eerste uitdrukking, dan worden de rollen van het gebied binnen en buiten de eenheidscirkel verwisseld ten opzichte van het geval van polynomen in z. Dit betekent dat het systeem nu stabiel is als de nulpunten van de noemer-polynoom in z −1 buiten de eenheidscirkel vallen.
4.2 Relatie tussen transformaties en vormen van systeembeschrijvingen 4.2.1 Van z-transformatie naar DFT In het voorgaande is de Diskrete Fourier Transformatie behandeld uitgaande van de fouriertransformatie van bemonsterde signalen. Hierbij werd het produkt van een continue funktie met een dirackam getransformeerd. Op overeenkomstige wijze werd de z-transformatie afgeleid via laplacetransformatie van het produkt van een continue funktie en een dirackam. Het lijkt daarom niet onlogisch te veronderstellen dat er ook een direkte relatie tussen de DFT en de z-transformatie moet bestaan. Om dit te onderzoeken gaan we uit van de formule van de z-transformatie: X(z) = Z{x(k∆t)} =
∞ X
k=0
x(k∆t)z −k
met z = e(λ+jω)∆t
[4.20]
50
4
Discrete tijd lineaire systemen
Figuur 4.2: Projektie op het z-vlak van X(ej2πn/N ) zijnde de fouriergtransformeerde
van de tijdreeks x(k∆t) voor het geval N=16. Beschouw nu het bijzondere geval λ = 0, dus z = ejω∆t . Ingevuld in de uitdrukking voor de z-transformatie levert dit: X(ejω∆t ) =
∞ X
x(k∆t)e−jωk∆t
[4.21]
k=0
De tijdreeks x(k∆t) is nu afgebeeld op een deel van het z-vlak, namelijk op de lijn z = ejω∆t . Dit is, in poolco¨ordinaten uitgedrukt, de beschrijving van de eenheidscirkel. De jω-as uit het s-vlak is als het ware opgerold en geprojecteerd op deze eenheidscirkel. Voor ω∆t = 2πm (m geheel) is de cirkel m keer doorlopen. De cirkel 2π wordt ´e´en keer doorlopen voor de radiaalfrequentie ω = ∆t . Dit correspondeert 2π met de bemonsterfrequentie ωs = ∆t . We beschouwen nu de transformatie van een tijdreeks van eindige lengte N , d.w.z. 0 ≤ k < N . De transformatieformule wordt dan X(ejω∆t ) =
N −1 X
x(k∆t)e−jωk∆t
[4.22]
k=0
Als volgende stap nemen we X(ejω∆t ) niet als continue funktie, maar ook in het frequentiedomein als een diskrete getallenreeks met alleen waarden bij de frequenties ω = N2πn . Dan gaat de transformatieformule over in: ∆t X(ej2πn/N ) =
N −1 X
x(k∆t)e−j2πnk/N
[4.23]
k=0
De projektie van X(ej2πn/N ) op het z-vlak wordt nu een reeks equidistante punten op de eenheidscirkel (fig. 4.2). Ter vergelijking met het, via de z-transformatie gevonden, resultaat, volgt hier de formule voor de Diskrete Fourier Transformatie. DF T {x(k∆t)} = Xn = ∆t
N −1 X k=0
x(k∆t)e−j2πnk/N
[4.24]
4.2
Relatie tussen transformaties en vormen van systeembeschrijvingen
51
Het enige verschil is de factor ∆t die niet voorkomt in de, van de z-transformatie afgeleide, formule. De Diskrete Fourier Transformatie is op zijn beurt weer gerelateerd aan de fourierreeks. Voor de (complexe) co¨efficient van de fourierreeks geldt: Cn =
1 Z t0 +T x(t)e−j2πnt/T dt T t0
[4.25]
Wanneer we Cn met een computer uitrekenen voor het, met een interval ∆t bemonsterde signaal x(t), is de integraal te benaderen door een reeks m.b.v. de substituties t = k∆t, met k = 0 voor t = t0 , en k = N voor T = N ∆t. Aldus ontstaat de reeks: Cn =
−1 1 NX x(k∆t)e−j2πnk/N N k=0
[4.26]
Voor de onderlinge relatie tussen Xn , Cn en X(ej2πn/N ) geldt dan: Xn = ∆tX(ej2πn/N ) ; Cn =
1 X(ej2πn/N ) N
[4.27]
4.2.2 Overzicht van transformaties Samenvattend kunnen we nu de volgende transformaties met hun toepassingsgebieden onderscheiden. • De fouriertransformatie: X(ω) =
Z
∞ −∞
x(t)e−jωt dt
Deze wordt toegepast voor continue funkties x(t) waarvoor geldt x(t) = 0 voor t = −∞ en t = ∞. Hij is eventueel ook te gebruiken voor periodieke funkties. Deze vormen een grensgeval en leveren dan diracfunkties in het frequentiedomein. Voor stochastische signalen is deze transformatie niet bruikbaar omdat dan niet aan bovenstaande eis wordt voldaan. De formule zou dan voor elke waarde van ω de uitkomst ∞ opleveren. • De gemodificeerde fouriertransformatie: T 1 Z 2 X(ω) = lim √ x(t)e−jωt dt T →∞ T − T2
Deze transformatie is te gebruiken voor stochastische processen zonder deterministische componenten. In een later hoofdstuk komen we hierop terug. De toepassing ligt bij theoretische afleidingen voor relaties tussen spectrale dichtheden in het frequentiedomein.
52
4
Discrete tijd lineaire systemen
• De (complexe) fourierreeks: Cn =
1 Z t0 +T x(t)e−j2πnt/T dt T t0
De co¨efficient Cn heeft betrekking op de frequentie ω = 2πn . De relatie geldt T voor periodieke signalen met een periodetijd T . Omdat het om periodieke signalen gaat mag het tijdstip t0 willekeurig worden gekozen. • De diskrete fouriertransformatie (DFT): Xn = ∆t
N −1 X
xk e−j2πnk/N
k=0
voor n = 0, 1, . . . , N − 1
Deze transformatie wordt gebruikt voor het transformeren van een tijdreeks met een constant interval ∆t tussen de getallen. De tijdreeks heeft een eindige lengte N en strekt zich dus uit over een tijdsinterval T = N ∆t. Hij wordt afgebeeld op een reeks van N complexe getallen in het frequentiedomein met een constant interval ∆ω = 2π/T . Als gevolg van de symmetrie van het re¨ele deel en de keersymmetrie van het imaginaire deel bevat de reeks N2 onafhankelijke complexe getallen. Ten gevolge van het gebruik van diskrete tijdstappen is de reeks periodiek in het frequentiedomein. Omgekeerd geldt, dat door het diskretiseren langs de frequentieas, de reeks periodiek geworden is in het tijdsdomein. De DFT wordt toegepast voor het praktisch transformeren van tijdsfunkties naar het frequentiedomein en omgekeerd met behulp van een computer. Een snel algorithme voor het uitvoeren van de DFT staat bekend onder de naam Fast Fourier Transform (FFT). • De laplacetransformatie: X(s) =
Z
∞ 0
x(t)e−st dt
De laplacetransformatie wordt gebruikt voor continue funkties die nul zijn in het gebied t < 0. Deze funkties behoeven niet nul te zijn voor t = ∞. De toepassing van de laplacetransformatie ligt bij het onderzoeken van systeemeigenschappen, met name het al of niet stabiel zijn. • De z-transformatie: X(z) =
∞ X
x(k∆t)z −k
k=0
Deze transformatie is te gebruiken voor de beschrijving van systemen, waarbij de in- en uitgangssignalen slechts op diskrete, equidistante tijdstippen van
4.2
53
Relatie tussen transformaties en vormen van systeembeschrijvingen
waarde veranderen. In de engelstalige literatuur worden deze veelal aangeduid als ”discrete time systems”. In tegenstelling tot het geval van de DFT is de getransformeerde grootheid, hier X(z), als regel een continue funktie. Ook hier ligt de toepassing vooral bij het onderzoek naar de stabiliteitseigenschappen.
4.2.3 Systemen, transformatievariabelen en operatoren Systemen kunnen op verschillende manieren worden beschreven, hetzij in het tijdsdomein, hetzij in een ander domein. Al naar gelang de toegepaste transformatie is dit het ω−, dan wel s−, of z−domein. De beschrijving heeft veelal de vorm van een overdrachtsfunktie en is gemakkelijk te verkrijgen door het transformeren van de differentiaalvergelijking of differentievergelijking die de ingangs- uitgangsrelatie van het systeem beschrijft. Een relatie met dezelfde gedaante als de overdrachtsfunktie kan men ook in het tijdsdomein krijgen bij gebruik van een operator. Doordat soms de daarbij toegepaste symbolen wel eens door elkaar gehaald worden bestaat er kans op verwarring tussen operatoren en transformatievariabelen en daarmee omtrent het domein van de beschouwde relatie. Ter verduidelijking volgt hier een overzicht van enkele van de bedoelde begrippen. We gaan hierbij steeds uit van lineaire differentiaal-en differentievergelijkingen. Immers, de beschouwde transformaties berusten alle op het superpositiebeginsel dat slechts geldt voor lineaire systemen. Continue systemen. We beschouwen eerst de continue systemen. De algemene uitdrukking voor een lineaire differentiaalvergelijking is: y(t) + a1 y(t) ˙ + · · · + aL y (L) = b0 u(t) + b1 u(t) ˙ + · · · + bM u(M ) Gebruik makend van de differentiaaloperator p = y(t) weer te geven als: y(t) =
d dt
[4.28]
is deze relatie tussen u(t) en
b0 + b 1 p + · · · + b M p M u(t) 1 + a 1 p + · · · + a L pL
[4.29]
Fouriertransformatie van de differentiaalvergelijking levert: (1 + a1 jω + · · · + aL (jω)L )Y (ω) = (b0 + b1 jω + · · · + bM (jω)M )U (ω)
[4.30]
zodat Y (ω) =
b0 + b1 jω + · · · + bM (jω)M U (ω) 1 + a1 jω + · · · + aL (jω)L
[4.31]
Voor de laplacegetransformeerde van een hogere afgeleide geldt
L{x(n) (t)} = sn L{x(t)} − sn−1 + sn−2 x(0 ˙ + ) + · · · + x(n−1) (0+ )
[4.32]
Voor het geval dat alle begincondities nul zijn gaat de differentiaalvergelijking over in: (1 + a1 s + · · · + aL sL )Y (s) = (b0 + b1 s + · · · + bM sM )U (s)
[4.33]
54
4
Discrete tijd lineaire systemen
zodat b0 + b 1 s + · · · + b M s M U (s) [4.34] 1 + a 1 s + · · · + a L sL Discrete systemen. Op overeenkomstige wijze kunnen we systemen beschouwen die door een lineaire differentievergelijking worden gekarakteriseerd. De algemene gedaante hiervan is Y (s) =
y(k∆t) + a1 y((k − 1)∆t) + · · · + aL y((k − L)∆t) = b0 u(k∆t) + b1 u((k − 1)∆t) + · · · + bM u((k − M )∆t)
[4.35] [4.36]
Voor het beschrijven van dit soort systemen in het tijdsdomein wordt gebruik gemaakt van de verschuivingsoperator q. Deze is gedefinieerd als de operatie die een tijdreeks ´e´en stap voorwaarts schuift in de tijd, dus x((k + 1)∆t) = q{x(k∆t)}
[4.37]
De inverse operator is q −1 . Deze veroorzaakt een achterwaartse verschuiving, dus: x((k − 1)∆t) = q −1 {x(k∆t)}
[4.38]
De differentievergelijking kan met behulp van de achterwaartse verschuivingsoperator ook geschreven worden als: (1 + a1 q −1 + · · · + aL q −L )y(k∆t) = (bo + b1 q −1 + · · · + bM q −M )u(k∆t) [4.39] Analoog aan het geval van toepassing van de differentiaaloperator p in het continue geval kunnen we de relatie tussen u(k∆t) en y(k∆t) ook weergeven als b0 + b1 q −1 + · · · + bM q −M u(k∆t) 1 + a1 q −1 + · · · + aL q −L
[4.40]
b0 + b1 z −1 + · · · + bM z −M U (z −1 ) 1 + a1 z −1 + · · · + aL z −L
[4.41]
b0 z L + b1 z L−1 + · · · + bM z L−M U (z) z L + a1 z L−1 + · · · + aL−1 z + aL
[4.42]
y(k∆t) =
Als we deze relatie vergelijken met het resultaat van de z-transformatie dan zien we dat de z-transformatie eenvoudig uit de uitdrukking met de verschuivingsoperator te verkrijgen is door in de polynomen de q te vervangen door de z en u(k∆t) en y(k∆t) te vervangen door respectievelijk U (z −1 ) en Y (z −1 ). Y (z −1 ) = of als Y (z) =
Dezelfde overeenkomst als die tussen q en z in het diskrete geval zien we voor het continue geval, waar de operator p van de beschrijving in het tijdsdomein kan vervangen door de transformatievariabelen ω en s, respectievelijk in het frequentiedomein en het s domein. Merk op, dat nu echter ook de grootheden u(t) en y(t) moeten worden vervangen door respectievelijk U (ω) en Y (ω), dan wel U (s) en Y (s). Soms wordt een zelfde letter gebruikt voor een operator en een transformatievariabele. Om verwarring te voorkomen is het verstandig dit soort naamsverwisseling te vermijden.
4.3
55
Bodediagram
4.3 Bodediagram Allereerst zal in deze paragraaf kort het bodediagram voor systemen in continue tijd worden herhaald. Daarna zal het bodediagram voor discrete systemen worden behandeld.
4.3.1 Continue systemen In het college Systeemtheorie zijn bodediagrammen voor continue systemen behandeld. Het bodediagram is in feite een combinatie van twee diagrammen namelijk het verloop van de modulus en het verloop van de fase (argument) ten opzichte van een gemeenschappelijke frequentieas. Hierbij zijn de modulus en de frequentie op een logarithmische schaal uitgezet, de fase op een lineaire schaal. Het voordeel hiervan wordt duidelijk als we kijken naar de overdrachtsfunktie van twee systemen in serie. Hiervoor geldt: H(ω) = H1 (ω)H2 (ω)
[4.43]
of uitgedrukt in modulus en argument: |H(ω)|ej
6 H(ω)
= |H1 (ω)|ej
6 H1 (ω)
|H2 (ω)|ej
= |H1 (ω)||H2 (ω)|e
6 H2 (ω)
j(6 H1 (ω)+6 H2 (ω))
[4.44] [4.45]
Hieruit volgt: 6
log(|H(ω)|) = log(|H1 (ω)|) + log(|H2 (ω)|) H(ω) = 6 H1 (ω) + 6 H2 (ω)
[4.46]
Dit betekent dat het bodediagram van H(ω) eenvoudig te bepalen is uit de bodediagrammen van H1 (ω) en H2 (ω) afzonderlijk. Omdat wat ingewikkelder systemen te beschrijven zijn als een serieschakeling van eenvoudige deelsystemen, kan men de bodediagrammen hiervan vrij gemakkelijk opbouwen als men die van een aantal eenvoudige typen kent. Voorbeeld: Eerste orde continu systeem Dit wordt gekarakteriseerd door de differentaalvergelijking: y(t) + τ y(t) ˙ = Ku(t) Fouriertransformatie levert: K Y (ω) = U (ω) = H(ω)U (ω) 1 + jωτ
[4.47]
[4.48]
De amplitude en fase worden gegeven door: |H(ω)| = √ 6
K (1+ω 2 τ 2 )
H(ω) = − arctan(ωτ )
[4.49]
Aan de hand van zijn asymptotische waarden ωτ 1 en ωτ 1 kan het bodediagram vrij snel worden geconstrueerd. Het is afgebeeld in fig. 4.3
56
4
Discrete tijd lineaire systemen
1
Magnitude
10
0
10
−1
10
−2
10
−1
−2
10
10
0
10
0
10
10
1
Phase deg
0 −30 −60 −90 −1
10
Frequency (rad/sec)
10
1
Figuur 4.3: Bodediagram van een 1e orde continu systeem.
4.3.2 Discrete systemen Analoog aan de situatie voor continue systemen kunnen ook Bodediagrammen van discrete systemen worden gemaakt. Zij H(z), zoals weer gegeven in vgl [4.42], de overdrachtsfunktie in het z-domein van het discrete systeem. Kiezen we z = ejω dan is H(ejω ) de overdrachtsfunctie van het discrete systeem in het ω-domein (vlg. s = jω voor continue systemen). H(ejω ) is een periodieke functie met periode 2π. Verder is |H(ejω )| een even functie in ω en 6 H(ejω ) een oneven functie in ω. Vanwege deze symmetrie wordt de overdrachtsfunctie volledig bepaald door H(ejω ) voor ω ∈ [0, π]. In het Bodediagram van een discreet systeem wordt weer de amplitude |H(ejω )| en de fase 6 H(ejω ) weergegeven. Voorbeeld: 1e orde discreet systeem Dit wordt gekarakteriseerd door de differentievergelijking: y(k∆t) + ay((k + 1)∆t) = bu(k∆t) z-transformatie levert: b H(z) = 1 + az
[4.50]
[4.51]
Of met z = ejω (∆t = 1) b 1 + aejω De amplitude en fase wordt dan gegeven door: H(ejω ) =
|H(ejω )| = 6 H(ejω ) = 6
|b| |1+aejω |
(b) − 6 (1 + aejω )
[4.52]
[4.53]
4.3
57
Bodediagram
1
10
1
0
10
10
Magnitude
Magnitude
10
−1
10
−2
−1
10
−2
−2
10
0
10 Frequency (rad/s)
10
2
10
−2
10
200
0
100
−50 Phase deg
Phase deg
10
0
0 −100 −200 −2 10
−1
0
10
−1
0
10
10 10 Frequency (rad/s)
1
−100 −150
0
10 Frequency (rad/s)
2
10
−200 −2 10
10 10 Frequency (rad/s)
1
Figuur 4.4: Bodediagram van een 1e orde discreet systeem getekend over een breed
frequentiegebied (a) en over 0 < ω <
ωs 2
(b).
In fig. 4.4a is een Bodediagram getekend voor het geval dat b = −0.135, a = −1.03 en bemonsterfrequentie ws = 2π [rad/s]. Om de periodiciteit te illustreren is een groter frequentiegebied getekend. Normaal gesproken wordt alleen het frequentiegebied 0 < ω < ω2s . Dit is weergegeven in fig. 4.4b.
Hoofdstuk 5 Waarschijnlijkheidsrekening De waarschijnlijkheidsrekening houdt zich bezig met toevalsgrootheden. Hierbij is dus sprake van onzekerheden. Om toch met dergelijke niet-deterministische grootheden te kunnen rekenen, wordt een aantal deterministische begrippen ge¨ıntroduceerd. De basis hiervan wordt gevormd door het begrip kans. Uitgaande van dit begrip zal in dit hoofdstuk achtereenvolgens een aantal hierop voortbouwende begrippen ge¨ıntroduceerd worden, die het mogelijk maken berekeningen uit te voeren die kunnen leiden tot praktisch bruikbare uitspraken. Dit betreft dan met name uitspraken met betrekking tot onderlinge verbanden tussen toevalsgrootheden.
5.1 Kans Om tot een definitie van het begrip kans te komen beschouwen we de verzameling mogelijke uitkomsten van een experiment waarbij het toeval een rol speelt, zoals het gooien met een dobbelsteen. Een dobbelsteenworp heeft 6 mogelijke uitkomsten, namelijk het bovenkomen van ´e´en van de getallen 1 tot en met 6. Deze verzameling zullen we aanduiden als S = {ζ1 , ζ2 , ζ3 , ζ4 , ζ5 , ζ6 }. Het element ζ3 van deze verzameling is dan de uitkomst dat het cijfer 3 boven komt. In het algemeen kunnen we een verzameling mogelijke uitkomsten aanduiden als S = {ζ1 , ζ2 , . . . , ζk } als k het aantal mogelijke uitkomsten is. Een deelverzameling van S noemen we een gebeurtenis. Bijvoorbeeld de deelverzameling α = {ζ2 , ζ4 , ζ6 } voor het geval van het werpen met een dobbelsteen is de gebeurtenis dat een even getal boven komt. De grootst mogelijke deelverzameling van S, namelijk S zelf, duiden we aan met de zekere gebeurtenis. De lege verzameling, of ∅-verzameling duiden we aan als de onmogelijke gebeurtenis. Aan elke gebeurtenis α kan nu een getal P{α} worden toegekend, dat we aanduiden als de kans of waarschijnlijkheid van die gebeurtenis. Deze is gedefinieerd als: nα n→∞ n
P {α} = lim
[5.1]
waarbij n het aantal malen is dat het experiment wordt uitgevooerd en nα het aantal malen dat gebeurtenis α is opgetreden. Het begrip kans voldoet aan de volgende drie axioma’s:
60
5
Waarschijnlijkheidsrekening
A1: P {α} ≥ 0 A2: P {S} = 1 A3: als α ∩ β = ∅, dan is P {α ∪ β} = P {α} + P {β}. Uitgaande van deze axioma’s kunnen regels worden afgeleid waaraan kansen moeten voldoen. Zo volgt bijvoorbeeld dat: P {∅} = 0 0 ≤ P {α} ≤ 1 P {α ∪ β} = P {α} + P {β} − P {α ∩ β} ≤ P {α} + P {β}
5.2 Random variabele Om uitkomsten van experimenten te kunnen kwantificeren wordt het begrip random variabele ingevoerd. Een random variabele is een voorschrift, waarmee een getal wordt toegekend aan de uitkomst van een experiment. Een random variabel x is een funktie van de uitkomst ζ . Als voorbeeld beschouwen we de uitkomsten van het werpen met een dobbelsteen. De funktie x(ζ), of kortweg x, beschrijft nu het volgende recept: x krijgt de waarde van het aantal ogen dat bij een worp boven ligt. De mogelijke waarden van zijn dus 1, 2, 3, 4, 5 of 6. De funktie y wordt bijvoorbeeld gedefinieerd als: 2 maal het aantal ogen min 3. De random variabele y heeft dus als mogelijke waarden -1, 1, 3, 5, 7, 9. We kunnen nu ook spreken over de kans dat een random variabele kleiner of groter is dan een gegeven deterministisch getal. Bijvoorbeeld P {x < 7} = P {S} = 1 P {y > 4} = P {α} = 0.5 waarbij de gebeurtenis α is gedefinieerd als: α = {ζ4 , ζ5 , ζ6 }.
5.2.1 Verdelingsfunktie en verdelingsdichtheidsfunktie Verdelingsfunktie. Uitgaande van de begrippen kans en random variabele wordt het begrip distributiefunktie of verdelingsfunktie gedefinieerd als: Fx (x) = P {x ≤ x}
[5.2]
In woorden uitgedrukt: De distributiefunktie voor de random variabele x als funktie van een deterministische grootheid x beschrijft de kans dat de random variabele x kleiner of gelijk is aan een getal x. Deze funktie is gedefinieerd voor −∞ < x < ∞. Voor x = −∞ geldt dat x≤ x de onmogelijke gebeurtenis is, dus Fx (−∞) = 0. Voor x = ∞ geldt dat x≤ x de zekere gebeurtenis is, dus Fx (∞) = 1. Verder moet gelden dat P {x ≤ x} ≤ P {x ≤ x + ∆x} met ∆x > 0, dus Fx (x) is een monotoon niet-dalende funktie.
5.2
61
Random variabele
Figuur 5.1: De verdelingsfunktie Fx (x) en de verdelingsdichtheidsfunktie fx (x) voor
de uitkomst van het gooien met een dobbelsteen. Verdelingsdichtheidsfunctie. De afgeleide naar x van de verdelingsfunktie wordt de verdelingsdichtheidsfunktie genoemd. Deze is gedefinieerd als: P {x ≤ x + ∆x} − P {x ≤ x} dFx (x) = lim ∆x→0 dx ∆x P {x < x ≤ x + ∆x} = lim ∆x→0 ∆x
fx (x) =
[5.3]
Uit het voorgaande volgt, dat voor de verdelingsdichtheidsfunktie moet gelden dat R∞ fx (x) ≥ 0 en −∞ fx (x)dx = Fx (∞)−Fx (−∞) = 1−0 = 1. Voor de random variabele x behorende bij het voorbeeld van de dobbelsteen zijn de verdelingsfunktie en de verdelingsdichtheidsfunktie gegeven in fig. 5.1. Voor deze funkties geldt dat: Fx (x) = 0 voor x < 1 = 16 entier(x) voor 1 ≤ x < 6 = 1 voor x ≥ 6
[5.4]
fx (x) = 0 x 6= i = 16 δ(x − i) x = i; i = 1, 2, 3, 4, 5, 6
[5.5]
Doordat x slechts 6 verschillende waarden kan hebben, vertoont Fx (x) een aantal discontinuiteiten en bestaat fx (x) uit een reeks diracfunkties. In het algemeen zullen de verdelingsfunktie en de verdelingsdichtheidsfunktie een continu verloop hebben.
5.2.2 Verwachtingswaarde Een belangrijk concept uit de waarschijnlijkheidsrekening is het begrip verwachtingswaarde van een funktie van een random variabele. De verwachtingswaarde van een functie van een random variabele is gedefinieeerd als E{g(x)} =
Z
∞ −∞
g(x)fx (x)dx
[5.6]
62
5
Waarschijnlijkheidsrekening
De interpretatie van dit begrip luidt als volgt. Beschouw het geval dat de random variabele x ligt tussen de waarde x en x + dx, dan ligt de funktie g(x) tussen de waarden g(x) en g(x + dx). De kans op deze uitkomst is gelijk aan: P {g(x) < g(x) ≤ g(x + dx)} = fx (x)dx
[5.7]
Beschouw nu alle mogelijke uitkomsten g(x) van de random variabele g(x) in het gebied −∞ < x < ∞ en weeg deze met hun kans van optreden. Bij elkaar opgeteld door een integratiebewerking levert dit een, met zijn kansen van optreden gewogen, gemiddelde waarde van de random variabele g(x). Deze hele bewerking wordt aangeduid met behulp van de operator E{. . .}. Merk op, dat een funktie van een random variabele op zich ook weer een random variabele is. De verwachtingswaarde van een dergelijke funktie is echter een deterministische grootheid, die gebaseerd is op de verdelingsdichtheidsfunktie van de random variabele en niet op de random variabele zelf. De operator E is een lineaire operator, d.w.z. er geldt dat: E{k1 g1 (x) + k2 g2 (x)} = k1 E{g1 (x)} + k2 E{g2 (x)}
[5.8]
Dit volgt eenvoudig uit de definitie voor de verwachtingswaarde, vgl. [5.6]. Deze eigenschap speelt een belangrijke rol in de waarschijnlijkheidsrekening. Momenten. Een bekende klasse van funkties is de groep g(x) = xk . De verwachtingswaarden hiervan worden aangeduid als de momenten van de verdelingsdichtheidsfunktie. De grootheid mk = E{xk } =
Z
∞ −∞
xk fx (x)dx
[5.9]
wordt aangeduid als het k-de orde moment. Zo is het nulde orde moment niets anders dan het oppervlak onder de verdelingsdichtheidsfunktie m0 =
Z
∞ −∞
x0 fx (x)dx =
Z
∞
fx (x)dx = 1
−∞
[5.10]
Gemiddelde waarde. Het eerste orde moment staat bekend als de gemiddelde waarde µx van de random variabele x: m1 = E{x} =
Z
∞ −∞
xfx (x)dx
[5.11]
Centrale momenten Nauw verwant met de voorgaande klasse van funkties zijn de centrale momenten van een verdelingsdichtheidsfunktie. Dit zijn de momenten van de random variabele x ten opzichten van zijn gemiddelde waarde. Het k-de orde centrale moment is gedefinieerd als: m0k = E{(x − µx )k } =
Z
∞ −∞
(x − µx )k fx (x)dx
[5.12]
Voor het nulde-orde centrale moment geldt weer m00 = 1. Voor het eerste-orde centrale moment geldt: m01 = E{x − µx } = =
Z
∞
−∞
Z
∞ −∞
(x − µx )fx (x)dx
xfx (x)dx − µx
Z
∞
−∞
fx (x)dx = µx − µx = 0
[5.13]
5.2
63
Random variabele
Variantie. Het tweede-orde centrale moment staat bekend als de variantie σx2 van de random variabele x. m02 = E{(x − µx )2 } =
Z
∞ −∞
(x − µx )2 fx (x)dx
[5.14]
Gebruik makend van de lineaire eigenschappen van de operator E is de uitdrukking voor σx2 ook te schrijven als een funktie van m2 en m1 . Er geldt namelijk dat: σx2 = E{(x − m1 )2 } = E{x2 − 2m1 x + m21 } = m2 − 2m21 + m21 = m2 − m21 = E{x2 } − (E{x})2
[5.15]
Standaarddeviatie. De wortel uit de variantie, σx , staat bekend als de standaarddeviatie. De voorgaande behandelde begrippen komen aan de orde in het volgende overzicht van enkele veel voorkomende kansverdelingen.
5.2.3 Enkele kansverdelingen Voorbeeld: Kansverdeling voor het werpen met een dobbelsteen De verdelingsfunktie en de verdelingsdichtheidsfunktie die hiervoor van toepassing zijn, werden reeds gegeven in fig. 5.1. Ten behoeve van het berekenen van verwachtingswaarden is de verdelingsdichtheidsfunktie ook te schrijven als: fx (x) =
6 1X δ(x − i) 6 i=1
[5.16]
Voor het k-de orde moment geldt dan: mk = =
R∞ k −∞ x fx (x)dx = 1 P6 R ∞ k i=1 −∞ x
6
1 R∞ k 6 −∞ x
Pi=6 i=1 δ(x − i)dx 1 P6 k
δ(x − i)dx =
6
i=1 i
[5.17]
= 3.5. Voor de gemiddelde waarde geldt dan: µx = m1 = 1+2+3+4+5+6 6 91 Voor het tweede orde moment geldt: m2 = 1+4+9+16+25+36 = 6 6 ≈ 15.17 91 49 35 2 De variantie is dus gelijk aan: σx = 6 − 4 = 12 ≈ 2.92 De standaarddeviatie wordt dan: σx ≈ 1.71 Voorbeeld: De uniforme verdeling (fig. 5.2) De verdelingsfunktie voor de uniforme verdeling is met b > a te schrijven als: Fx (x) = 0 = x−a b−a = 1
voor x ≤ a voor a < x ≤ b voor x > b
[5.18]
De verdelingsdichtheidsfunktie is dan: fx (x) = 0 1 = b−a = 0
voor x ≤ a voor a < x ≤ b voor x > b
[5.19]
De gemiddelde waarde is gelijk aan: µx = m 1 =
Z
∞ −∞
xfx (x)dx =
1 b−a
Z
b
xdx = a
1 b2 − a2 a+b = 2 b−a 2
[5.20]
64
5
Waarschijnlijkheidsrekening
Figuur 5.2: De verdelingsfunktie en de verdelingsdichtheidsfunktie voor de uniforme
verdeling. Het tweede orde moment wordt: µ2 =
Z
∞ −∞
x2 fx (x)dx =
1 b−a
Z
b a
x2 dx =
1 b3 − a3 1 = (a2 + ab + b2 ) 3 b−a 3
[5.21]
De variantie wordt: 1 1 1 σx2 = m2 − m21 = (a2 + ab + b2 ) − (a2 + ab + b2 ) = (b − a)2 3 4 12
[5.22]
Een experiment dat een random variabele oplevert waarvoor de uniforme verdeling geldt is bijvoorbeeld de rouletteschijf. Neem als uitkomst de hoek ten opzichte van een referentielijn op de schijf. De random variabele x is dan het getal in radialen dat hoort bij de gevonden hoek voor een bereik tussen -π en π. Er geldt dus a = −π en b = π, zodat µx = 0 en σx2 = π 2 /3. Voorbeeld: De sinusverdeling Beschouw de random variabele y = a sin x2 , waarbij x uniform verdeeld is tussen −π en π. Uit deze gegevens is de verdelingsfunktie van y als volgt te bepalen. Uit het feit dat de random variabele x ligt tussen de grenzen −π en π volgt dat de random variabele y moet liggen tussen de grenzen a sin(− π2 ) en a sin( π2 ), d.w.z. tussen de grenzen −a en a. Zoals blijkt uit fig. 5.3 is er een eenduidig verband tussen x en y. Bij een bepaalde uitkomst x = x1 hoort namelijk ´e´en bepaalde uitkomst y = y1 = a sin x21 . De kans dat y < y1 , correspondeert met de kans dat x < x1 met x1 = 2 arcsin( ya1 ), is gelijk aan P {y < y} = P {x < x = 2 arcsin( ay )}. Voor het gebied −π ≤ x ≤ π geldt dat x−(−π) x+π P {x < x} = π−(−π) = 2π zodat: P {y < y} =
2 arcsin( ay ) + π 1 1 y = + arcsin( ) 2π 2 π a
[5.23]
Voor de verdelingsfunktie van y kunnen we dus schrijven: Fy (y) = 0 = 21 + = 1
1 π
voor y < −a arcsin( ay ) voor −a ≤ y ≤ a voor y > a
[5.24]
5.2
65
Random variabele
Figuur 5.3: Het verband tussen de uitkomsten voor x en y = a sin 2x .
Figuur 5.4: Verdelingsfunktie en verdelingsdichtheidsfunktie van een sinusverdeling.
De verdelingsdichtheidsfunktie wordt: fy (y) = 0 = √ 12 π
= 0
a −y 2
voor y < −a voor −a ≤ y ≤ a
[5.25]
voor y > a
Beide funkties zijn getekend in fig. 5.4. Voor de gemiddelde waarde van y geldt: ∞
1 µy = yfy (y)dy = π −∞ Z
Z
a −a
De variantie σy2 wordt gelijk aan: σy2
=
m2 −µ2y
1 = m2 = π
Z
p
a −a
p
y 1q 2 a − y 2 |a−a = 0 dy = − π a2 − y 2
[5.26]
y2 y a a2 1 yq 2 a2 2+ a ( arcsin( ))| = [5.27] dy = − y −a π 2 2 a 2 a2 − y 2
In de praktijk komt deze verdeling voor bij sinusvormige signalen. Stel dat we op een willekeurig tijdstip een monster nemen van een sinusvormig signaal, dan geldt voor de
66
5
Waarschijnlijkheidsrekening
Figuur 5.5: De verdelingsfunktie en de verdelingsdichtheidsfunktie voor de normale
verdeling. gevonden uitkomst y = a sin ωt. De random variabele x = ωt is nu echter niet beperkt tot het gebied − π2 ≤ x ≤ π2 , maar er kan worden aangetoond dat de funkties Fy (y) en fy (y) uiteindelijke identiek zijn aan die van fig. 5.4. Voorbeeld: De gaussische of normale verdeling Een in de praktijk veel voorkomende verdeling is de normale verdeling, gekarakteriseerd door de volgende verdelings- en verdelingsdichtheidsfunktie: Fx (x) = fx (x) =
x 1 y−µ 2 1 √ e− 2 ( σ ) dy σ 2π −∞ 1 y−µ 2 1 √ e− 2 ( σ ) σ 2π
Z
[5.28]
Beide funkties zijn getekend in fig. 5.5. Voor het eerste-orde moment geldt: m1 = = = =
1 √ σ 2π
Z
∞
xe
−∞
− 12 ( x−µ σ )
2
1 dx = √ σ 2π
2
Z
∞ −∞
1
((x − µ) + µ)e− 2 (
x−µ 2 σ
∞ ∞ − x−µ √ √ x − µ − x−µ x−µ µ 2σ 2 √ √ √ e σ 2 d +√ e σ 2 π −∞ σ 2π −∞ σ 2 σ 2 √ Z Z Z ∞ ∞ σ 2 0 µ 2 2 2 √ ye−y dy + e−y dy ye−y dy + √ π −∞ π −∞ 0 √ Z ∞ Z ∞ √ σ 2 µ 2 2 √ (− π =0+µ=µ e−y dy + ye−y dy) + √ π π 0 0
Z
Z
) dx
2
x−µ √ d σ 2
[5.29]
Voor de variantie geldt: σx2 = E{(x − µx )2 } Z ∞ 1 x−µ 2 1 √ (x − µ)2 e− 2 ( σ ) dx = σ 2π −∞
[5.30]
5.3
67
De ongelijkheid van Tschebycheff
= =
2
√ 2σ 2 ∞ x − µ − x−µ x−µ √ √ √ e σ 2 d 2π −∞ σ 2 σ 2 √ Z 2σ 2 ∞ 2 −y2 2σ 2 π √ = σ2 y e dy = √ π −∞ π 2
Z
Met andere woorden de parameters µ en σ die de verdelingsdichtheidsfunktie karakteriseren corresponderen tevens met de gemiddelde waarde en de standaarddeviatie van de bijbehorende random variabele.
5.3 De ongelijkheid van Tschebycheff De gemiddelde waarde en de variantie zijn belangrijke grootheden, die bijvoorbeeld gebruikt kunnen worden om uitspraken te doen over de kans dat een bepaalde uitkomst een zekere afwijking heeft ten opzichte van de gemiddelde waarde. Voor het geval dat er niets over de vorm van de verdelingsdichtheidsfunktie van de random variabele bekend is, geldt altijd de ongelijkheid van Tschebycheff. Deze luidt als volgt: P {|x − µx | ≥ kσx } ≤
1 k2
[5.31]
Hierin is k een willekeurig positief getal. Deze ongelijkheid volgt uit de uitdrukking voor de variantie σx2 . Er geldt namelijk dat: σx2
= ≥ =
Z
Z
∞ −∞
2
(x − µx ) fx (x)dx ≥ k 2 σx2 fx (x)dx
|x−µx |≥kσx k 2 σx2 P {|x −
Z
≥
µx | ≥ kσx }
|x−µx |≥kσx
k 2 σx2
Z
(x − µx )2 fx (x)dx
|x−µx |≥kσx
fx (x)dx
[5.32]
Deling door k 2 σx2 levert dan: 1 ≥ P {|x − µx | ≥ kσx } k2
[5.33]
Deze kans correspondeert met het gearceerde oppervlak in fig 5.6. Deze uitdrukking is te gebruiken als alleen de gemiddelde waarde en de variantie bekend zijn, maar niet de verdelingsdichtheidsfunktie. De met behulp van deze ongelijkheid verkregen afschatting van de overschrijdingskans is zeer ruim. Zodra men de verdelingsdichtheidsfunktie kent, kan men als regel tot een meer verfijnde schatting komen. Dit is te illustreren aan de hand van de normale verdeling. Hiervoor geldt: 2 1 Z x − 21 ( x−µ σ ) dy fx (x) = √ e σ 2π −∞
[5.34]
met µx = µ en σx = σ. Er geldt dat: P {|x − µx | ≥ kσx } = 2P {(x − µx ) ≥ kσx } omdat de verdeling symmetrisch is.
[5.35]
68
5
Waarschijnlijkheidsrekening
Figuur 5.6: De kans P {|x − µx | ≥ kσx } weergegeven als het gearceerde oppervlak onder de verdelingsdichtheidsfunktie voor het geval k = 2.
k 1.0 1.5 2.0 2.5 3.0 3.5 4.0
P {|x − µx | ≥ kσx } voor onbekende verdeling voor normale verdeling volgens Tchebycheff 0.3174 ≤ 1.00 0.1336 ≤ 0.45 0.0456 ≤ 0.25 0.0124 ≤ 0.16 0.0026 ≤ 0.11 0.00046 ≤ 0.08 0.00006 ≤ 0.06
Tabel 5.1: Het effect van kennis van de verdelingsdichtheidsfunktie op de afschatting
van de overschrijdingskans van een random variabele, ge¨ıllustreerd voor een normaal verdeelde random variabele. Uit een tabel voor de normale verdeling is een aantal waarden ontleend en weergegeven in tabel 5.1, samen met de grenswaarde van de ongelijkheid van Tchebycheff. Zoals uit de tabel blijkt is de ongelijkheid van Tschebycheff een zeer grove maat. Bovendien geeft deze ongelijkheid alleen uitsluitsel over de tweezijdig overschrijdingskans, d.w.z. de som van de kansen P {x ≤ µx − kσx } + P {x ≥ µx + kσx }
[5.36]
Als men alleen ge¨ınteresseerd is in ´e´en van beide kansen, d.w.z. een ´e´enzijdige overschrijdingskans, valt er geen nauwkeuriger uitspraak te doen als men de verdelingsdichtheidsfunktie niet kent. Voor het geval van de normale verdeling, die symmetrisch is t.o.v. de gemiddelde waarde, zijn de ´e´enzijdige overschrijdingskansen de helft van de in de tabel gegeven waarden.
5.4
69
Funkties van twee random variabelen
5.4 Funkties van twee random variabelen 5.4.1 De tweedimensionale verdelingsfunktie en verdelingsdichtheidsfunktie Het verband tussen twee random variabelen kan eveneens gekarakteriseerd worden m.b.v. een verdelingsfunktie of verdelingsdichtheidsfunktie, alleen zijn dit nu funkties van twee variabelen. De tweedimensionale verdelingsfunktie is als volgt gedefinieerd: Fxy (x, y) = P {x ≤ x; y ≤ y}
[5.37]
De verdelingsfunktie behorend bij de random variabelen x en y is nu een funktie van twee variabelen x en y. Deze funktie beschrijft de kans dat de random variabele x kleiner of gelijk is aan een getal x terwijl tegelijkertijd de random variabele y kleiner of gelijk is aan een getal y. De verdelingsdichtheidsfunktie fxy (x, y) is gedefinieerd als fxy (x, y) =
∂ 2 Fxy (x, y) ∂x∂y
[5.38]
Het resultaat fxy (x, y) is weer een kans, namelijk fxy (x, y) = P {x < x ≤ x + dx; y < y ≤ y + dy}
[5.39]
Er geldt dat: Fxy (x, y) =
Z
x v=−∞
Z
y u=−∞
fxy (u, v)dudv
[5.40]
Fxy (−∞, −∞) = P {x ≤ −∞; y ≤ −∞} = 0 de onmogelijke gebeurtenis Fxy (∞, ∞) = P {x ≤ ∞; y ≤ ∞} = 1 de zekere gebeurtenis Hieruit volgt dat moet gelden: Z
∞ −∞
Z
∞ −∞
fxy (x, y)dxdy = 1
[5.41]
Uit de tweedimensionale verdelingsdichtheidsfunktie zijn de eendimensionale verdelingsfunkties en verdelingsdichtheidsfunkties van de random variabelen x en y afzonderlijk te berekenen volgens: Fx (x) = fx (x) = Fy (y) = fy (y) =
Z
x
−∞ Z ∞
−∞ Z y
−∞ Z ∞ −∞
fx (u)du = Fxy (x, ∞) =
Z
x −∞
(
Z
∞ −∞
fxy (u, v)dv)du
fxy (x, y)dy fy (v)dv = Fxy (∞, y) = fxy (x, y)dx
Z
y −∞
(
Z
∞
−∞
fxy (u, v)du)dv
70
5
Waarschijnlijkheidsrekening
Figuur 5.7: Berekening van de ´ e´endimensionale verdelingsdichtheidsfunkties fx (x) en fy (y) uit de tweedimensionale verdelingsdichtheidsfunktie fxy (x, y).
In woorden uitgedrukt: De kans dat de random variabele x kleiner of gelijk is aan een getal x is gelijk aan de kans dat de random variabele x kleiner of gelijk is aan het getal x voor elke uitkomst van de random variabele y, d.w.z. voor het geval dat y < ∞. Voor de verdelingsfunktie betekent dit Fx (x) = Fxy (x, ∞). Voor de verdelingsdichtheidsfunktie geldt dat de kans dat x tussen de waarden x en x + dx ligt, gelijk is aan de kans dat x tussen de waarden x en x + dx ligt voor het geval dat y ligt tussen de waarden −∞R en ∞. In fig. 5.7 betekent dit, dat het ∞ fxy (x, y)dy)dx. Beide uitdrukkingen oppervlak Fx (x)dx gelijk is aan de inhoud ( −∞ beschrijven een kans. Normale verdeling. Een in de praktijk veel toegepaste tweedimensionale verdeling is die voor twee random variabelen die gezamenlijk normaal verdeeld zijn. De verdelingsdichtheidsfunktie voor dit geval wordt beschreven door: fxy (x, y) =
1 q
2 2πσx σy 1 − Kxy
e
−
1 2 ) 2(1−Kxy
2K (x−µ )(y−µy ) (y−µy )2 (x−µx )2 − xy σ σx + x y σx2 σy2
[5.42]
Hierin is µx de gemiddelde waarde van x, µy de gemiddelde waarde van y; σx de standaarddeviatie van x en σy de standaarddeviatie van y. De grootheid Kxy , waarvoor geldt −1 ≤ Kxy ≤ 1, is een maat voor de samenhang tussen x en y. Hierop zal in par. 5.4.2 nog nader ingegaan worden. Om een beeld te krijgen van de vorm van fxy (x, y) en om de invloed van de parameter Kxy na te gaan zullen we deze verdelingsdichtheidsfunktie nader beschouwen voor het geval µx = µy = 0 en σx = σy = 1. De funktie wordt dan: fxy (x, y) =
1 q
2 2π 1 − Kxy
e
−
x2 −2Kxy xy+y 2 2 ) 2(1−Kxy
[5.43]
5.4
71
Funkties van twee random variabelen
Figuur 5.8: Transformatie naar een nieuw assenstelsel.
Het maximum van fxy (x, y) ligt bij x = 0, y = 0 en bedraagt fmax =
2π
√1
2 1−Kxy
Om een indruk te krijgen van de vorm van de funktie fxy kunnen we hem doorsnijden met drie loodrecht op elkaar staande vlakken, bijvoorbeeld x = 0, y = 0 en fxy (x, y) = c met 0 < c < fmax . Een doorsnijdingen met x = 0, y = 0 en fxy = c levert achtereenvolgens: fxy (0, y) = fmax e fxy (x, 0) = fmax e c
= fmax e
−
y2 2 ) 2(1−Kxy
−
x2 2 ) 2(1−Kxy
−x
[5.44]
2 −2Kxy−xy+y 2 2 ) 2(1−Kxy
Het verband tussen x en y wordt duidelijk wanneer we de logarithme van c/fmax nemen. We krijgen dan: ln(
c fmax
)=
x2 − 2Kxy − xy + y 2 2 ) 2(1 − Kxy
[5.45]
c c Aangezien 0 < c/fmax < 1 geldt dat −∞ < ln( fmax ) < 0. Stel nu ln( fmax ) = −a met a > 0, dan geldt: 2 x2 − 2Kxy xy + y 2 = 2a(1 − Kxy )
[5.46]
Dit is de vergelijking voor een ellips met zijn middelpunt in de oorsprong en een der hoofdassen onder 450 met de x-as. Als we een nieuw assenstelsel definieren volgens fig. 5.8 met ψ = 450 wordt de vergelijking van de ellips gegeven door: u2 v2 + = 2a 1 + Kxy 1 − Kxy
[5.47]
De grootheid Kxy is dus een maat voor de verhouding tussen de lengten van de hoofdassen van de ellips. Voor een aantal waarden van Kxy zijn de bijbehorende ellipsen in het xy-vlak getekend in fig. 5.9. Voor het geval dat Kxy = 0, wordt de ellips een cirkel. Uit de vergelijking voor fxy (x, y) volgt dat deze dan te schrijven is
72
5
Waarschijnlijkheidsrekening
Horizontale doorsnede door de verdelingsdichtheidsfunktie van twee gezamenlijk normaal verdeelde random variabelen voor een aantal waarden van de parameter Kxy . Figuur 5.9:
als fxy (x, y) = fx (x)fy (y). Hierop wordt nog nader teruggekomen. Voor de gevallen dat Kxy = −1 en Kxy = 1 gaat de ellips over in een rechte lijn. Voor bijvoorbeeld Kxy = 1 is de interpretatie hiervan als volgt: Gegeven dat x ≤ x < x + dx, dan moet ook y ≤ y < y + dy met y = x, m.a.w. er geldt dan altijd dat y = x en voor Kxy = −1 geldt altijd dat y = −x. Door de tweedimensionale verdelingsdichtheidsfunktie te integreren over respectievelijk y en x, worden de eendimensionale verdelingsdichtheidsfunkties van de random variabelen x en y afzonderlijk verkregen, namelijk: fx (x) = fy (x) =
σx
1 √
σy
1 √
e −( 2π e 2π
−
x−µx σx
y−µy σy
)
2
2
[5.48]
Uit de tweedimensionale verdelingsdichtheidsfunkties zijn de eendimensionale verdelingsdichtheidsfunkties van de afzonderlijke random variabelen altijd afR te leiden. Het ∞ omgekeerde is echter niet het geval. Immers in de relatie fx (x) = −∞ fxy (x, y)dy bestaat er een oneindig aantal mogelijke funkties fxy (x, y) die alle na integratie over y de funktie fx (x) opleveren. Er bestaat echter een bijzonder geval, waarbij het wel mogelijk is om de tweedimensionale verdelingsdichtheidsfunktie uit de eendimensionale verdelingsdichtheidsfunkties te berekenen namelijk als x en y onafhankelijk zijn. van twee random variabelen. Twee random variabelen x en y noemen we onafhankelijk als geldt dat: P {x ≤ x; y ≤ y} = P {x ≤ x}P {y ≤ y}
[5.49]
5.4
73
Funkties van twee random variabelen
De lijn z = x + y met het gebied z ≤ x + y en het integratie-interval voor x in dit gebied.
Figuur 5.10:
Voor dit geval geldt dus: Fxy (x, y) = Fx (x)Fy (y) Z
y −∞
Z
x −∞
fxy (u, v)dudv = =
Z
x
−∞ Z y −∞
fx (u)du Z
x −∞
Z
y −∞
fy (v)dv
fx (u)fy (v)dudv
Waaruit volgt: fxy (x, y) = fx (x)fy (y)
[5.50]
Wanneer de tweedimensionale verdelingsdichtheidsfunktie fxy (x, y) bekend is, ligt hiermee in principe ook de informatie vast omtrent de kansverdeling van een funktie van deze twee random variabelen. Een eenvoudig, maar wel belangrijk, voorbeeld hiervan is het geval van het sommeren van twee random variabelen: z = x + y, waarbij nu de vraag is wat fz (z) wordt. Er geldt dat: Fz (z) = P {z ≤ z} = P {z ≤ x + y} =
Z
∞ −∞
Z
z−y −∞
fxy (x, y)dxdy
[5.51]
Dit is de kans dat z in het gearceerde deel van het xy-vlak van fig. 5.10 ligt. Differentiatie van deze uitdrukking naar z levert: ∂Fz (z) Z ∞ = fxy (z − y, y)dy [5.52] ∂z −∞ Deze uitdrukking werd verkregen door in het xy-vlak eerst naar x en dan naar y te integreren. Verwisselt men deze volgorde dan ontstaat de equivalente uitdrukking: R∞ fz (z) = −∞ fzy (x, z − x)dx Voor het bijzondere geval dat x en y onafhankelijk zijn is de tweedimensionale verdelingsdichtheidsfunktie als een produkt van twee eendimensionale verdelingsdichtheidsfunkties te schrijven en fz (z) is dan te berekenen uit: fz (z) =
fz (z) =
Z
∞ −∞
fx (z − y)fy (y)dy =
Z
∞ −∞
fx (x)fy (z − x)dx
[5.53]
74
5
Waarschijnlijkheidsrekening
In woorden uitgedrukt: De verdelingsdichtheidsfunktie van de som van twee onafhankelijke random variabelen is te berekenen uit de convolutie van de twee afzonderlijke verdelingsdichtheidsfunkties.
5.4.2 Gemiddeld produkt, covariantie en correlatie Verwachtingswaarde. Ook voor tweedimensionale verdelingsdichtheidsfunkties is het begrip verwachtingswaarde of mathematische verwachting gedefinieerd en wel als volgt: E{g(x, y)} =
Z
∞
Z
−∞
∞ −∞
g(x, y)fxy (x, y)dxdy
[5.54]
Ook voor de tweedimensionale verdelingsfunktie is het bepalen van de verwachtingswaarde een lineaire operatie (ga na). De gemiddelde waarden en de varianties van x zijn weer te berekenen uit de eendimensionale verdelingsdichtheidsfunkties. Momenten. Bij de tweedimensionale verdelingsdichtheidsfunktie zijn de gezamenlijke momenten van belang. Enkele voorbeelden hiervan zijn: 0 0
m00 = E{x y } = m10 = E{x} = =
Z
∞ −∞
x
Z
m11 =
Z
∞ −∞
Z
−∞ ∞
∞
Z
−∞
∞
Z
∞
−∞ −∞ ∞ Z ∞
Z
−∞
m01 = E{y} =
Z
−∞
f( x, y)dxdy = 1
xf( x, y)dxdy
f( x, y)dxdy =
∞
−∞
y
Z
∞ −∞
Z
∞ −∞
xfx (x)dx = µx
fxy (x, y)dxdy =
Z
∞ −∞
[5.55]
yfy (y)dy = µy
xyfxy (x, y)dxdy
Gemiddelde produkt Rxy . De grootheid Rxy = E{xy} staat bekend als het gemiddelde produkt. Centrale momenten. Van de lineairiteitseigenschap kan gebruik gemaakt worden bij de berekening van de tweedimensionale centrale momenten: m0ij = E{(x − µx )i (y − µy )j }
[5.56]
Covariantie Cxy . Voor de covariantie Cxy = geldt: Cxy = E{(x − µx )(y − µy )} = E{xy} − µy E{x} − µx E{y} + µx µy E{1} = Rxy − µx µy = m011 = m11 − m10 m01
[5.57]
Het begrip covariantie is te vertalen als de variantie van het gemeenschappelijke deel. Wanneer geldt dat y=x is het de variantie zonder meer. Immers er staat dan niets anders dan Cxy = E{(x − µx )2 } = σx2
[5.58]
5.4
75
Funkties van twee random variabelen
Correlatie. We kunnen de covariantie normeren door deze te delen door het produkt van de standaarddeviaties van de betrokken random variabelen. Aldus ontstaat dan de correlatie gedefinieerd als: Kxy
(
Cxy x − µx y − µy = =E σx σy σx σy
)
[5.59]
De correlatie is een maat voor de samenhang tussen de random variabelen x en y. Er geldt dat −1 ≤ Kxy ≤ 1. Dit is gemakkelijk in te zien als we de twee gevallen van een maximale samenhang bekijken namelijk y=x en y=-x. Voor het eerste geval geldt: Kxy
(x − µx )2 =E σx2 (
)
σ2 = 2 =1 σ
[5.60]
Voor het tweede geval geldt: Kxy
(x − µx )2 =E σx2 (
)
=−
σ2 = −1 σ2
[5.61]
In het geval van de tweedimensionale normale verdeling blijkt de parameter Kxy in de verdelingsdichtheidsfunktie gelijk te zijn aan de hier gedefinieerde correlatie K xy . Hieruit blijkt dat voor twee normaal verdeelde random variabelen de gezamenlijke verdelingsdichtheidsfunktie volledig bepaald wordt door de eerste en tweede momenten m10 , m01 , m11 , m20 en m02 . De relatie tussen twee random variabelen x en y kan nog aan enkele bijzondere integraaleigenschappen voldoen. Ongecorreleerd. Wanneer geldt dat Kxy = 0 noemen we de random variabelen x en y ongecorreleerd. Orthogonaal. Wanneer geldt dat Rxy = 0 noemen we de random variabelen x en y orthogonaal. Uit Rxy = Cxy + µx µy = Kxy σx σy + µx µy volgt dat als x en y orthogonaal zijn, dan is Kxy = − µσxx σµyy . Als x en y ongecorreleerd zijn, dan is Rxy = µx µy en E{xy} = E{x}E{y} In de gevallen dat µx = 0 en/of µy = 0, geldt dat de begrippen orthogonaal en ongecorreleerd equivalent zijn. Onafhankelijk. Eerder was al het begrip onafhankelijk geintroduceerd. Dit was gedefinieerd als:Fxy (x, y) = Fx (x)Fy (y). Hieruit volgt dat ook fxy (x, y) = fx (x)fy (y)
[5.62]
76
5
Waarschijnlijkheidsrekening
Figuur 5.11: Bovenaanzicht van een tweedimensionale verdelingsdichtheidsfunktie.
Indien x en y onafhankelijk zijn geldt voor de verwachtingswaarde van het produkt van twee funkties g1 (x) en g2 (y): E{g1 (x)g2 (y)} =
Z
= (
∞
Z
∞
−∞ −∞ ∞
Z
−∞
g1 (x)g2 (y)fx (x)fy (y)dxdy
g1 (x)fx (x)dx)(
= E{g1 (x)}E{g2 (y)}
Z
∞ −∞
g2 (y)fy (y)dy) [5.63]
In het bijzondere geval dat g1 (x) = x en g2 (y) = y geldt dus dat: E{xy} = E{x}E{y} of Rxy = µx µy zodat Kxy =
Rxy − µx µy Cxy = =0 σx σy σx σy
[5.64]
Onafhankelijk impliceert dus ongecorreleerd. Het omgekeerde geldt echter niet. Als twee stochastische processen ongecorreleerd zijn, hoeven ze niet onafhankelijk te zijn. Het begrip ongecorreleerd is namelijk een integraaleigenschap van de tweedimensionale verdelingsdichtheidsfunktie. Dit wordt ge¨ıllustreerd in het volgende voorbeeld. Voorbeeld Beschouw een tweedimensionale verdelingsdichtheidsfunktie waarvan het bovenaanzicht gegeven is in fig. 5.11. Voor deze verdelingsdichtheidsfunktie geldt: fxy = c in het gearceerde gebied, begrensd door de zes lijnen: y = −(b/a)(x + a) y = (b/a)x y=b y = −(b/a)x y = (b/a)(x + a) y = 0
[5.65]
Buiten het gearceerde gebiedR geldt fxy (x, y) = 0. De constante c is te bepalen uit de ∞ R∞ 1 eigenschap dat fxy (∞, ∞) = −∞ −∞ fxy dxdy = 1 zodat: 2abc = 1 of c = 2ab . Voor de eendimensionale verdelingsdichtheidsfunktie van x geldt: R∞ fx (x) = −∞ fxy (x, y)dy. Dit levert de linker funktie van fig. 5.12. Voor de eendimensionale R∞ verdelingsdichtheidsfunktie van y geldt: fy (y) = −∞ fxy (x, y)dx (fig. 5.12 rechts). Voor het produkt van fx (x) en fy (y) geldt: fx (x)fy (y) 6= fxy (x, y) zoals blijkt uit fig. 5.13. Hieruit volgt dus dat x en y niet onafhankelijk zijn. Voor de verwachtingswaarde van het produkt van x en y geldt: ∞ ∞ E{xy} = −∞ −∞ R xyfxy (x, y)dxdy Rb R 2a 0 = y=0 y x=−2a xfxy (x, y)dx + x=0 xfxy (x, y)dx dy
R
R
[5.66]
5.4
77
Funkties van twee random variabelen
Figuur 5.12: De verdelingsdichtheidsfunktie van x (links) en van y (rechts).
Figuur 5.13: De funktie fx (x)fy (y) (links) en de funktie fxy (x, y).
Uit de symmetrie van Fxy (x, y) ten opzichte van de y-as volgt na substitutie van x’=-x in de eerste integraal en na verwisseling van de integratiegrenzen dat: Rxy =
Z
b y=0
y −
Z
2a
x0 =0
x0 fxy (x0 , y)dx0 +
Z
x=2a x=0
xfxy (x, y)dx dy = 0
[5.67]
∞ ∞ Verder geldt: E{x} = µx = −∞ xfx (x)dx = 0 en E{y} = µy = −∞ yfy (y)dy = 2b zodat Rxy = 0 = µx µy en aangezien ook geldt dat Rxy = Cxy + µx µy volgt dat Cxy = 0 en dus ook Kxy = 0 Hieruit wordt geconcludeerd dat de random variabelen x en y orthogonaal en ongecorreleerd zijn maar niet onafhankelijk.
R
R
Zoals het voorbeeld illustreert, impliceert het feit dat twee random variabelen ongecorreleerd zijn niet dat ze ook onafhankelijk zijn. Er bestaan echter bijzondere gevallen dat een dergelijke conclusie wel getrokken mag worden, bijvoorbeeld als de twee random variabelen gezamenlijk normaal verdeeld zijn. Als dan geldt dat Kxy = 0, gaat de gezamenlijke verdelingsdichtheidsfunktie over in: fxy (x, y) =
1 e 2πσx σy
x 2 − 12 ( x−µ 2 ) +( σx
1 x−µx 2 ) σx2
− ( 1 e 2 2πσx
= = fx (x)fy (y)
y−µy 2 ) σy2
1 e 2πσy
− 21 (
y−µy 2 ) σy2
[5.68]
Dus: als twee normaal verdeelde random variabelen ongecorreleerd zijn, zijn ze ook onafhankelijk.
78
5
Waarschijnlijkheidsrekening
5.5 Meerdimensionale verdelingen Analoog aan het tweedimensionale geval valt een meerdimensionale verdeling te definieren, die gekarakteriseerd wordt door een meerdimensionale verdelingsfunktie of een meerdimensionale verdelingsdichtheidsfunktie. Voor een combinatie van n random variabelen x1 tot en met xn is de gezamenlijke verdelingsfunctie gedefinieerd als: Fx1 x2 ···xn (x1 , x2 , . . . , xn ) = P {x1 ≤ x1 ; x2 ≤ x2 ; . . . ; xn ≤ xn }
[5.69]
Hierbij hoort een verdelingsdichtheidsfunktie fx1 x2 ···xn =
∂n Fx x ···x (x1 , x2 , . . . xn ) ∂x1 ∂x2 · · · ∂xn 1 2 n
[5.70]
De meerdimensionale normale verdeling is met behulp van matrixnotatie als volgt te beschrijven: fx1 ···xn (x1 , . . . , xn ) =
1
1
n 2
(2π) |Σ|
1 2
e− 2 (x−µ)
T Σ−1 (x−µ)
[5.71]
waarbij de letter T aangeeft dat de vector getransponeerd is en de vectoren en matrices als volgt zijn gedefinieerd: xT = (x1 , . . . , xn ) µT = (µ , . . . , µn ) 1 σ11 · · · . Σ = .. σn1 · · ·
σ1n .. .
[5.72]
σnn
met σij = E{(xi −µi )(xj −µj )}. Ter illustratie van deze notatie wordt deze beschrijv! σ11 σ12 . ing uitgewerkt voor het bekende geval n = 2. De matrix Σ wordt dan: σ21 σ22 Rekening houdend met het feit dat σ12 = σ21 wordt de determinant: 2 2 |Σ| = σ11 σ22 − σ12 = σ11 σ22 (1 − K12 )
[5.73]
en de inverse van matrix Σ: Σ
−1
1 = 2 σ11 σ22 (1 − K12 )
σ22 −σ12 −σ12 σ11
!
zodat: (x − µ)T Σ−1 (x − µ) = ! (x1 − µ1 )2 2K12 (x1 − µ1 )(x2 − µ2 ) (x2 − µ2 )2 1 − + √ 2 1 − K12 σ11 σ11 σ22 σ22
[5.74]
5.5
79
Meerdimensionale verdelingen
√ √ Met σ1 = σ11 en σ2 = σ22 wordt de verdelingsdichtheidsfunctie fx1 x2 (x1 , x2 ) dan gelijk aan: fx1 x2 (x1 , x2 ) = 1 q
2 2πσ1 σ2 1 − K12
e
1 − 2(1−K 2 ) 12
x1 −µ1 σ1
2
2K (x −µ )((x2 −µ2 ) − 12 1 σ σ1 + 1 2
(x2 −µ2 )2 σ22
2
hetgeen in overeenstemming is met de eerder gegeven uitdrukking voor de 2-dimensionale normale verdeling. Onafhankelijk. Ook voor het meerdimensionale geval is het begrip onafhankelijk gedefinieerd. Een verzameling van n random variabelen x1 , x2 , . . . , xn wordt onafhankelijk genoemd wanneer geldt dat: P {x1 ≤ x1 ; x2 ≤ x2 ; . . . ; xn ≤ xn } = P {x1 ≤ x1 }P {x2 ≤ x2 } · · · P {xn ≤ xn }[5.75] of anders geschreven: Fx1 ···xn (x1 , . . . , xn ) = Fx1 (x1 ) · · · Fxn (xn )
[5.76]
Hieruit valt weer af te leiden dat dan ook geldt: fx1 ···xn (x1 , . . . , xn ) = fx1 (x1 ) · · · fxn (xn )
[5.77]
Zoals nog zal blijken is deze relatie van belang in de schattingstheorie. Centrale limietstelling. Ten slotte volgt hier nog een belangrijke stelling die betrekking heeft op de som van een aantal onafhankelijke random variabelen. De stelling staat bekend als de centrale limietstelling en wordt hier zonder nader bewijs gegeven. Gegeven een reeks van n onafhankelijke random variabelen xi , met i = 1, 2, ...n, die alle dezelfde verdelingsdichtheidsfunktie hebben en waarvan de gemiddelde waarde µx en de variantie σx2 een eindige waarde hebben. Beschouw nu de random variabele P yn = ni=1 xi Hieruit is dan weer een nieuwe random variabele z te construeren √ x . Nu geldt dat voor het geval n → ∞ de random variabele z volgens: zn = yσn −µ n normaal verdeeld is met een gemiddelde waarde 0 en een standaarddeviatie 1: lim z → N (0, 1)
n→∞
[5.78]
Dit betekent praktisch, dat voor een voldoende grote waarde van n de random variabele kan worden beschouwd als zijnde √ normaal verdeeld met gemiddelde waarde µy = nµx en standaarddeviatie σy = σx n. Omdat veel in de praktijk voorkomende random variabelen het gevolg zijn van een groot aantal onafhankelijke oorzaken, is dit dan ook de reden dat de hierbij voorkomende verdelingsdichtheidsfunkties zo goed kunnen worden beschreven door een normale verdeling. Het volgende voorbeeld illustreert dat de bekende klokvorm al bij betrekkelijk kleine waarden van n ontstaat.
80
5
Waarschijnlijkheidsrekening
De vier integratiegebieden voor het berekenen van de integraal −a fx (y − x)dx.
Figuur 5.14: 1 Ra 2a
Voorbeeld Gegeven een reeks van onafhankelijke random variabelen xi met i = 1, 2, ...n. Er geldt dat ze allemaal een zelfde verdeling hebben en wel een uniforme verdeling met, gemakshalve, een gemiddelde waarde µx = 0, dus: 1 fxi (xi ) = fx (x) = 2a = 0
voor |x| ≤ a voor |x| > a
[5.79]
Beschouw nu de random variabele y = x1 + x2 . De verdelingsdichtheidsfunktie van R∞ y is te berekenen m.b.v. de convolutieintegraal: f (y) = f (x)f (y − x)dx = y x2 −∞ x1 R∞ x)dx. Invullen van de uitdrukking voor fx (x) vereenvoudigt de integraal −∞ fx (x)fx (y − R 1 a tot: fy (y) = 2a −a fx (−x)dx. Om deze integraal nader uit te werken moeten we vier gebieden beschouwen voor de grootheid y (zie fig. 5.14), namelijk y ≤ −2a, −2a < y ≤ 0, 0 < y ≤ 2a en y > 2a. Voor het gebied y ≤ −2a geldt dat fx (y − x) = 0 in het interval −a < x ≤ a. Voor het gebied −2a < y ≤ 0 geldt dat fx (y − x) = 0 in het interval y + a < x ≤ a, zodat de integraal dan gelijk wordt aan: fy (y) =
1 2a
Z
y+a −a
1 1 2a + y dx = 2 ((y + a) − (−a)) = 2a 4a 4a2
[5.80]
Uiteindelijk geldt dan voor de verdelingsdichtheidsfunktie fy (y) het volgende. fy (y) = 0 = 2a+y 4a2 = 2a−y 4a2 = 0
voor voor voor voor
y ≤ −2a −2a < a ≤ 0 0 < y ≤ 2a y > 2a
[5.81]
5.5
Meerdimensionale verdelingen
81
De verdelingsdichtheidsfunkties van de random variabelen xi , y = P3 x en z = i=1 i i=1 xi voor het geval dat de random variabelen xi onafhankelijk zijn en een identieke uniforme verdeling hebben.
Figuur 5.15: P2
Uitgaande van dit resultaat is op overeenkomstige wijze de verdelingsdichtheidsfunktie te berekenen van z = x1 + x2 + x3 . In fig. 5.15 zijn de drie verdelingsdichtheidsfunkties fx (x), fy (y) en fz (z) afgebeeld. De figuur illustreert dat reeds voor n = 3 een vorm ontstaat die naar de bekende klokvorm van de normale verdeling tendeert. De afwijkingen zitten nog vooral in de staart, maar naarmate n toeneemt worden deze kleiner.
Verwachtingswaarde Ook voor meerdimensionale verdelingsdichtheidsfunkties is weer het begrip verwachtingswaarde gedefinieerd en wel als volgt: E{g(x1 , . . . , xn )} = Z
∞ x1 =−∞
···
Z
∞ xn =−∞
g(x1 , . . . , xn )fx1 ···xn (x1 , . . . , xn )dx1 · · · dxn
en ook in het meerdimensionale geval geldt weer de lineariteitseigenschap. Ook geldt weer, dat de verdelingsdichtheidsfunktie in een lager dimensionale deelruimte verkregen wordt door integratie naar een of meer te elimineren variabelen. Dit is te illustreren aan de hand van de berekening van het eerste en tweede moment van de P som van n random variabelen: y = ni=1 xi . Het eerste moment wordt: E{y} = · · · =
n X i=1
E{xi }
[5.82]
Het tweede moment wordt: E{y2 } = · · · =
n X n X
i=1 j=1
E{xi xj }
[5.83]
82
5
Waarschijnlijkheidsrekening
Gebruik makend van de definities van gemiddelde waarden, varianties en covarianties, is de uitdrukking voor E{y2 } ook te schrijven als: E{y2 } = σy2 + µ2y = waarbij µy = E{y} = σy2 =
n X n X
Pn
n X n X
i=1 j=1
i=1
C xi xj =
i=1 j=1
C xi xj +
σx2i +
i=1
µxi µxj
[5.84]
i=1 j=1
E{x} =
n X
n X n X
Pn
n X
i=1
µxi en µ2y =
n X
C xi xj
Pn
i=1
Pn
j=1
µxi µxj zodat [5.85]
i=1 j=1;j6=i
Voor het geval dat xi en xj ongecorreleerd zijn, voor elke waarde van i en j van 1 tot en met n met i 6= j, geldt: Cxi xj = 0 ∀i, j = 1, ..., n en i 6= j, zodat dan σy2
=
n X
σx2i
[5.86]
n=1
Met andere woorden de variantie van de som van n ongecorreleerde random variabelen is gelijk aan de som van de afzonderlijke varianties. Voor het geval dat de random variabelen xi alle een zelfde variantie hebben, d.w.z. σx2i = σx2j ∀i, j = 1, . . . , n gaat de uitdrukking voor de variantie van de som over in σy2 = nσx2
[5.87]
Dit is een van de twee mogelijke uiterste gevallen. Het andere uiterste is volledige correlatie, d.w.z. xi = xj = x ∀i, j = 1, . . . , n dan geldt: σy2 =
n X n X
i=1 j=1
C xi xj =
n X n X
σx2 = n2 σx2
[5.88]
i=1 j=1
De variantie van de som is dus n keer zo groot als in het geval van n onafhankelijke variabelen met een identieke variantie.
Hoofdstuk 6 Schattingstheorie In een aantal gevallen is het mogelijk de verdelingsdichtheidsfunktie van een random variabele te bepalen op grond van kennis van de eigenschappen van het mechanisme dat de uitkomsten genereert. Illustraties hiervan zijn gegeven in de voorbeelden in par 5.2.1. Als men de verdelingsdichtheidsfunktie kent, kan men daarna bijvoorbeeld de gemiddelde waarde en de variantie berekenen. In de meeste gevallen echter heeft men te maken met random variabelen, waarvan de statistische eigenschappen niet bekend zijn. Is men bijvoorbeeld ge¨ınteresseerd in de gemiddelde waarde van de uitkomst van een experiment, dan is het enige wat men kan doen het experiment een groot aantal keren uitvoeren en de uitkomsten middelen. Als men deze procedure herhaalt, zal dit als regel een andere gemiddelde waarde opleveren. Men krijgt slechts een benadering van de echte gemiddelde waarde. De gevolgde procedure noemt men schatten, het hierbij gehanteerde rekenrecept, de wiskundige formule, noemt men een schatter. Een uitkomst, verkregen door toepassing van een schatter noemt men een schatting. In het geval van het schatten van een gemiddelde waarde kan men, uitgaande van de term gemiddelde, de volgende intu¨ıtieve keuze doen, namelijk het rekenkundig gemiddelde van de gevonden uitkomsten: µ ˆx =
n 1X xi n i=1
[6.1]
Een schatter zullen we in het vervolg steeds aangeven met een ˆ teken, om het verschil met de echte gemiddelde waarde aan te geven. Aangezien de schatting van de gemiddelde waarde een funktie is van een aantal random variabelen is deze grootheid zelf ook weer een random variabele, dus een funktie van de uitkomstenruimte ζ. Een schatting is in principe slechts een benadering van de te schatten grootheid. Voor een zinvolle schatting zal men eisen dat deze benadering zo goed mogelijk is. Het begrip ”zo goed mogelijk” is echter een vage omschrijving die moet worden vertaald naar een aantal wiskundig hanteerbare eisen. Dit kan door het defini¨eren van een aantal eigenschappen die men aan een schatter kan toekennen. Om een schatter op zijn kwaliteiten te beoordelen, kan men onderzoeken in hoeverre hij dan voldoet aan deze eigenschappen.
84
6
Schattingstheorie
6.1 Eigenschappen van schatters Zuiver. Een gewenste eigenschap voor een schatter is, dat er geen systematische afwijkingen in zitten. Anders gezegd, de gemiddelde waarde moet overeenkomen met de waarde van de te schatten grootheid. M.a.w. als θˆn een op n waarnemingen gebaseerde schatter is voor de grootheid θ, dan is deze schatter zuiver als geldt: E{θˆn } = θ
∀n
[6.2]
Deze schatter heeft alleen niet systematische afwijkingen van de echte waarde. Asymptotisch raak (consistent). Een tweede gewenste eigenschap voor een schatter is, dat het toevoegen van meer waarnemingen leidt tot een kleinere schattingsfout. In het limietgeval voor n → ∞ moet de random variabele θˆn met een kans 1 naar de echte waarde θ gaan. Een schatter die aan deze eigenschap voldoet, noemt men asymptotisch raak (in het engels ”consistent”): als geldt: lim P {θˆn = θ} = 1
n→∞
[6.3]
Merk op, dat deze eigenschap niets zegt over de aard van de afwijkingen voor een eindige waarde van n. Afwijkingen kunnen bestaan uit a) systematische fouten, de onzuiverheid, in het engels: bias, beschreven door de term: bθˆn = E{θˆn } − θ
[6.4]
en b) niet systematische fluctuaties rond het gemiddelde θˆn − E{θˆn } gegeven door: θˆn − θ = (θˆn − E{θˆn }) + (E{θˆn } − θ)
[6.5]
Het asymptotisch raak zijn betekent dat beide afwijkingen naar nul gaan als het aantal waarnemingen naar oneindig gaat. Een voldoende voorwaarde voor het asymptotisch raak zijn van een schatter is de voorwaarde dat de gemiddelde kwadratische fout E{(θˆn − θ)2 } → 0 voor n → ∞. De gemiddelde kwadratische fout is ook te schrijven als: E{(θˆn − θ)2 } = σθ2ˆn + b2θˆn
[6.6]
Het asymptotisch raak zijn van een schatter is dus op twee manieren te onderzoeken. Men kan uitgaan van de definitie en men kan onderzoeken of zowel de onzuiverheid als de variantie naar 0 gaan als n naar oneindig gaat. Een asymptotisch rake schatter kan onzuiver zijn voor een eindige waarde van n, maar deze onzuiverheid moet verdwijnen voor n → ∞. Asymptotisch zuiver. Een schatter is asymptotische zuiver als geldt: lim E{θˆn } = θ
n→∞
[6.7]
6.1
Eigenschappen van schatters
85
De verdelingsdichtheidsfunktie van een asymptotisch rake schatter θˆn voor toenemende waarden van n. Figuur 6.1:
Een schatter die asymptotisch raak is, is dus tevens asymptotisch zuiver. Uit het asymptotisch raak zijn is echter niets af te leiden over het zuiver zijn van de schatter, omdat de asymptotische eigenschap niets zegt over het gedrag voor een eindige waarde van n. Afgezien van pathologische gevallen die formeel mathematisch te bedenken zijn, maar die in de praktijk niet voorkomen, betekent het asymptotisch raak zijn van een schatter dat de verdelingsdichtheidsfunktie van de random variabele θˆn een gemiddelde waarde krijgt gelijk aan θ en een variantie nul voor het geval n → ∞. Deze verdelingsdichtheidsfunktie is mathematisch te karakteriseren door een diracfunktie. Het gedrag van een asymptotisch rake schatter is ge¨ıllustreerd in fig. 6.1. In deze figuur is de verdelingsdichtheidsfunktie van een asymptotisch rake schatter ˆ θn getekend voor toenemende waarden van n als funktie van een variabele u. In de figuur zijn tevens de waarden u = θ en u = E{θˆn } aangegeven. Bij toenemende waarden van n wordt de onzuiverheid E{θˆn } − θ steeds kleiner en de verdelingsdichtheidsfunktie wordt steeds smaller. Omdat het oppervlak onder de verdelingsdichtheidsfunktie altijd gelijk is aan 1, wordt hij dus ook steeds hoger bij toenemende n. In het limietgeval n → ∞ convergeert de funktie fθˆn (u) naar de diracpuls δ(u−θ). In fig. 6.2 is een voorbeeld gegeven van een zuivere schatter, eveneens voor toenemende waarde van n. De figuur illustreert dat voor elke waarde van n de verwachtingswaarde van de schatter θˆn gelijk is aan de werkelijke waarde θ. De figuur illustreert tevens dat dit verder nog niets zegt over een eventuele afname van de variantie bij toenemende n. In dit voorbeeld is de schatter dan ook zuiver, maar niet asymptotisch raak.
86
6
Schattingstheorie
Figuur 6.2: De verdelingsdichtheidsfunktie van een zuivere schatter θˆn voor toene-
mende waarden van n. In fig. 6.3 is een aantal mogelijk combinaties van de begrippen wel of niet zuiver en wel of niet asymptotisch raak in beeld gebracht. Als funktie van n zijn uitgezet de werkelijke waarde θ, de verwachtingswaarde E{θˆn } en de waarden ±σθˆn ten opzichte van de verwachtingswaarde van de schatter E{θˆn }. Fig. 6.3a correspondeert met het geval van fig. 6.2, een schatter die zuiver is maar niet asymptotisch raak. Fig. 6.3b correspondeert met het geval van fig. 6.1, een schatter die asymptotisch raak is, maar niet zuiver voor eindige waarden van n en dus slechts asymptotisch zuiver. Fig. 6.3c heeft betrekking op een schatter die zowel zuiver is als asymptotisch raak. Fig. 6.3d tenslotte geeft een schatter die niet zuiver is en ook niet asymptotisch raak. Weliswaar gaat de variantie, en dus ook de standaarddeviatie, naar 0 voor n naar ∞, maar de schatter convergeert niet naar de echte waarde θ. Het begrip onzuiverheid zegt overigens niets over de variantie. Er had dus ook een standaarddeviatie in deze figuur kunnen staan die niet naar 0 gaat voor n naar ∞. Men kan zich afvragen wat het praktisch belang is van het asymptotisch raak zijn van een schatter, gezien het feit dat men altijd slechts een eindig aantal waarnemingen n ter beschikking heeft. Het komt er daardoor op neer dat men nooit de werkelijke waarde vindt, ook al heeft men een asymptotisch rake schatter. Men moet dit begrip dan ook interpreteren in die zin, dat deze eigenschap betekent dat men de schattingsfout kan verkleinen door een toename van het aantal waarnemingen. Als men in staat is het aantal waarnemingen willekeurig groot te kiezen, kan men daardoor de schattingsfout willekeurig klein maken. In de praktijk is er altijd een bovengrens aan het aantal waarnemingen gezien het kostenaspekt. Bovendien kan deze grens nog beperkt worden door het feit dat experimentele condities slechts gedurende een beperkte tijd constant gehouden kunnen worden. Daarom is het volgende aspekt asymptotisch efficient van belang.
6.1
Eigenschappen van schatters
87
Het verloop van gemiddelde waarden en standaarddeviaties van een ˆ schatter θn als funktie van n in vergelijking met de werkelijke waarde θ in relatie tot enkele eigenschappen van een schatter. Figuur 6.3:
Asymptotisch efficient. Het is soms mogelijk verschillende schatters voor een bepaalde grootheid te defini¨eren, die zowel zuiver als asymptotisch raak zijn. De onderlinge verschillen zullen tot uiting komen in verschillen tussen de varianties bij een gegeven aantal waarnemingen. Een schatter die rekening houdt met verschillen in betrouwbaarheid tussen de waarnemingen zal als regel een schatting opleveren met een kleinere variantie dan een schatter die dit niet doet. Voor een eindige reeks van waarnemingen is er echter altijd een theoretische ondergrens voor de variantie van een te schatten grootheid. Een asymptotisch rake schatter met een variantie die gelijk is aan de theoretische ondergrens noemt men asymptotisch efficient. Asymptotisch normaal. Tenslotte is er nog een eigenschap die iets zegt over de verdelingsdichtheidsfunktie van een schatter. Als een schatter gebaseerd op n waarnemingen, een verdelingsdichtheidsfunktie heeft die voor een toenemend aantal waarnemingen n naar die van een normale verdeling gaat, noemt men de schatter asymptotisch normaal. Dit is een aantrekkelijke eigenschap voor een schatter.
88
6
Schattingstheorie
Als men namelijk de gemiddelde waarde en de variantie van de schatter weet, kent men tevens de verdelingsdichtheidsfunktie. Men kan dan beoordelen hoe groot de kans is dat een bepaalde schatting groter of kleiner is dan een bepaalde waarde om bijvoorbeeld te kunnen beoordelen of twee, onder verschillende experimentele condities bepaalde, schattingen significant verschillen. Kent men de verdelingsdichtheidsfunktie niet, dan kan men alleen de ongelijkheid van Tschebycheff toepassen. Deze heeft echter vrij ruime marges, zoals werd ge¨ıllustreerd in par. 3.5.
6.2 Schatter voor de gemiddelde waarde en de variantie Enkele van de genoemde begrippen zullen ge¨ıllustreerd worden aan de hand van de schatter voor de gemiddelde waarde en voor de variantie op grond van een reeks waarnemingen van een random variabele x. Schatter voor de gemiddelde waarde. Als schatter voor de gemiddelde waarde µx kiezen we het rekenkundig gemiddelde van de reeks uitkomsten, dus: µ ˆx =
n 1X xi n i=1
[6.8]
Voor de verwachtingswaarde van deze schatter geldt: n 1X E{ˆ µx } = E{xi } n i=1
[6.9]
Omdat de waarnemingen alle betrekking hebben op uitkomsten van dezelfde random variabele x geldt: E{xi } = E{x} = µx zodat: n 1X E{ˆ µx } = µx = µ x n i=1
[6.10]
De schatter is dus zuiver. Voor de variantie van de schatter geldt: µx − E{ˆ µx })2 } σ ˆµ2 x = E{(ˆ
[6.11]
Gebruik makend van de, aan het slot van par. 5.5 gevonden, resultaten voor de variantie van de som van een reeks random variabelen kunnen we hiervoor schrijven: σ ˆµ2ˆx =
n X n X n n 1 X 1 X C σx σx Kx x = x x i j n2 i=1 j=1 n2 i=1 j=1 i j i j
[6.12]
Aangezien σxi = σxj = σx is deze uitdrukking ook te schrijven als: σ ˆµ2ˆx =
n X n 1 2X σ Kx x n2 x i=1 j=1 i j
[6.13]
6.2
Schatter voor de gemiddelde waarde en de variantie
89
In het geval dat de waarnemingen onafhankelijk zijn, zijn ze tevens ongecorreleerd. Dit betekent dat: Kx i x j = 1 =0
voor i = j voor i = 6 j
[6.14]
De uitdrukking gaat dan over in: n 1 2X 1 1 = σx2 σ x 2 n n i=1
σ ˆµ2ˆx =
[6.15]
Voor het geval van onafhankelijke waarnemingen geldt tevens de centrale limietstelling en dat betekent, dat de verdelingsdichtheidsfunktie van de schatter van de gemiddelde waarde convergeert naar een normale verdeling met gemiddelde µx en standaarddeviatie √σxn . De schatter is dus asymptotisch normaal. Voor het geval n → ∞, gaat de variantie van de schatter naar nul en omdat hij tevens zuiver is, is hij dus ook asymptotisch raak. We kunnen ook nog het geval bekijken dat de n uitkomsten volledig afhankelijk zijn. In dat geval geldt: Kxi xj = 1 ∀i, j zodat: n X n 1 2X σ 1 = σx2 n2 x i=1 j=1
σ ˆµ2 x =
∀n
[6.16]
In dat geval is de schatter dus wel zuiver maar niet asymptotisch raak. Dit laatste is niet verwonderlijk. Immers, volledige afhankelijkheid betekent dat na de waarneming x1 geen nieuwe informatie meer wordt toegevoegd door de waarnemingen x2 tot en met xn . Dit geval zal in de praktijk uiteraard niet voorkomen. Wel zal er soms een zekere correlatie bestaan tussen fouten in opeenvolgende waarnemingen. Zolang echter Kxi xj ≤ 1, wordt nog steeds bij iedere waarneming nieuwe informatie toegevoegd, waardoor de variantie wordt verkleind. De enige consequentie is, dat meer waarnemingen nodig zijn om de variantie beneden een zekere waarde te krijgen dan in het geval van onafhankelijke waarnemingen. Schatter voor de variantie. Analoog aan het geval van de schatter voor de gemiddelde waarde kan men voor de variantie de volgende schatter defini¨eren: σ ˆx2 =
n 1X (xi − µ ˆ x )2 n i=1
[6.17]
Hierin is µ ˆx de in het voorgaande gedefinieerde schatter. Nadere uitwerking levert dan: σ ˆx2 = =
n n 1X 1X (xi − xj )2 n i=1 n j=1
n n X n n 2X 1 X 1X xj xk ] [xi 2 − xi xj + 2 n i=1 n j=1 n j=1 k=1
[6.18]
90
6
Schattingstheorie
Om te onderzoeken of deze schatter zuiver is beschouwen we de verwachtingswaarde: n X n n n 1X 2X 1 X 2 E{ˆ σ }= E{xj xk )}] [E{xi } − E{xi xj } + 2 n i=1 n j=1 n j=1 k=1 2
[6.19]
Nu geldt dat: E{xi 2 } = σx2 + µ2x en E{xi xj } = Rxi xj = Cxi xj + µ2x = σx2 Kxi xj + µ2x . Invullen in de vergelijking levert dan: n n n X n 1X 2 2X 1 2X 2 2 2 E{ˆ σ } = [σx + µx − σx Kxi xj − 2µx + 2 σx Kxj xk + µ2x ] n i=1 n j=1 n j=1 k=1 2
=
σx2 (1
=
σx2 (1
n X n X n n 1 X 2 X Kx x + Kx x ) − 2 n i=1 j=1 i j n2 j=1 k=1 j k
[6.20]
n X n 1 X − 2 Kx x ) n i=1 j=1 i j
Voor een reeks van waarnemingen xi , met i = 1, 2, ..., n, die ongecorreleerd zijn, geldt: Kxi xj = 1 =0
voor i = j voor i = 6 j
[6.21]
In dat geval gaat de vergelijking over in: E{ˆ σx2 } = σx2 (1 −
n−1 2 1 )= σx n n
[6.22]
Deze schatter is dus niet zuiver. Alleen voor het geval n → ∞ gaat de mathematische verwachting naar de juiste waarde. De schatting is dus slechts asymptotisch zuiver. Een zuivere schatter voor de variantie in het geval van ongecorreleerde waarnen . mingen ontstaat door de eerder gedefinieerde schatter te vermenigvuldigen met n−1 Dit levert dan: σ ˆx2
n 1 X = (xi − µ ˆ x )2 n − 1 i=1
[6.23]
De reden hiervoor is gelegen in het feit dat de som niet meer bestaat uit n onderling onafhankelijke grootheden, maar n − 1 onderling onafhankelijke grootheden, omdat de schatter µ ˆx een funktie is van de n waarnemingen xi . Dit wordt wel uitgedrukt door te zeggen dat de vergelijkingen nog maar n − 1 vrijheidsgraden bevat. Voor het geval van onderling gecorreleerde waarnemingen is ook deze schatter niet meer zuiver. Ten gevolge van de onderling correlatie is het aantal vrijheidsgraden nog verder afgenomen. Een algemene uitdrukking voor een zuivere schatter van de variantie kan op grond van het voorgaande gedefinieerd worden als: σ ˆx2 = =
n X n n X 1 X 1 (1 − 2 Kxi xj )−1 (xi − µ ˆ x )2 n n i=1 j=1 i=1
Pn
n−
ˆ x )2 i=1 (xxi − µ P P n n 1 i=1 j=1 Kxi xj n
[6.24]
6.2
Schatter voor de gemiddelde waarde en de variantie
91
Als regel kent men echter de correlatiematrix niet, zodat dit geen bruikbare schatter is. In de praktijk doet men er dan ook goed aan er voor te zorgen dat experimenten zodanig worden ingericht, dat de uitkomsten van opeenvolgende waarnemingen als onafhankelijk, en dus als ongecorreleerd, beschouwd mogen worden. Voor een nadere interpretatie van de formule kan nog het geval bekeken worden van volledige afhankelijkheid, d.w.z. xi = xj ∀i, j = 1, 2, ..., n. In feite is dit geval equivalent met het doen van 1 waarneming. Dit levert µˆx = xi . De teller van de uitdrukking wordt dus 0. Voor n = 1 wordt de noemer eveneens 0. Met andere woorden: de variantie is onbepaald. Pas voor het geval dat minimaal 2 onafhankelijke waarnemingen worden gebruikt levert de schatter een uitkomst. In principe kan ook een uidrukking voor de variantie van de schatter σ ˆ x2 worden afgeleid. Dit wordt een tamelijk ingewikkelde uitdrukking met termen van de gedaante: n n X n X n X X i=1 j=1 k=1 l=1
E{xi xj xk xl }
[6.25]
Deze uitwerking wordt hier verder achterwege gelaten. Aangetoond kan worden dat voor het geval van onafhankelijke waarnemingen de variantie van deze schatter naar 0 gaat voor n → ∞. De schatter is dus behalve zuiver ook asymptotisch raak. De hier behandelde schatters voor de gemiddelde waarde en de variantie van een random variabele zijn min of meer intu¨ıtief gekozen en daarna eventueel gecorrigeerd op grond van een onderzoek naar de zuiverheid. Iets dergelijks is lang niet altijd mogelijk wanneer het gaat om te schatten grootheden die in een wat ingewikkelder relatie staan tot de waarnemingen.
Hoofdstuk 7 Stochastische processen 7.1 Stochastische processen en hun kenmerkende grootheden In de waarschijnlijkheidsrekening worden experimenten beschouwd, waarbij aan de uitkomst ζ een getal, namelijk de random variabele x(ζ), wordt toegekend. In de stochastiek worden experimenten beschouwd, waarbij aan de uitkomst ζ een tijdsfunktie wordt toegekend. De verzameling van alle uitkomsten wordt een stochastisch proces genoemd. De tijdsfunctie kan zowel continu als discreet zijn. Voor een continue tijdsfunctie wordt de verzameling van alle mogelijke uitkomsten van een experiment een continue tijd stochastisch proces genoemd, deze wordt weergegeven als x(t; ζ). Voor een discrete tijdsfunctie wordt de verzameling x(k; ζ) een discrete tijd stochastisch proces genoemd en weergegeven als x(k; ζ). We zullen in dit hoofdstuk eerst uitgaan van continue tijd stochastische processen. Daarna zullen we de aantal afleidingen geven voor discrete tijd stochastische processen. Een bepaalde uitkomst x(t; ζ1 )of x(k; ζ1 ) wordt een realisering van het stochastische proces genoemd. Dit is een bepaalde funktie van de tijd, ook wel een (discreet) signaal genoemd. Een dergelijke tijdsfunktie wordt in principe geacht te bestaan over het interval [−∞, ∞]. Voor de eenvoud van notatie gebruiken we in (funkties van) discrete tijd stochastische processen k voor de tijdsfunctie in plaats van k∆t. We kunnen ook het gehele proces x(t; ζ) beschouwen op een bepaald tijdstip ti . Dit levert dan een random variabele. Een bepaalde uitkomst ζi op een tijdstip ti levert een getal. Een en ander is in beeld gebracht in fig. 7.1. In het vervolg wordt een stochastisch proces verkort als x(t) (continue tijd stochastisch proces) of x(k) (discrete tijd stochastisch proces) weergeven.
94
7
Stochastische processen
3.5
x(t; ζ1 )
3 2.5
x(t; ζ2 )
2 1.5
x(t; ζ3 )
1 0.5
x(t; ζ4 )
0 −0.5 0
5
10
Tijd [s]
15
20
25
Een stochastisch proces x(t) als uitgangspunt voor een tijdsfunctie x(t; ζ1 ) = x(t), een random variabele x(t1 ) en een getal x(t1 ; ζ1 ) = x(t1 ). Figuur 7.1:
7.2 Continue tijd stochastische processen 7.2.1 Verdelingsfunkties en verdelingsdichtheidsfunkties Aan een stochastisch proces kan men ook een verdelingsfunktie en een verdelingsdichtheidsfunktie toekennen. Deze zullen in het algemene geval ook een funktie van de tijd zijn. De verdelingsfunktie van een stochastisch proces x(t) is gedefinieerd als: Fx (x; t) = P {x(t) ≤ x}
[7.1]
De verdelingsfunktie is dus in principe een funktie van de tijd. De verdelingsdichtheidsfunktie wordt gegeven door: ∂Fx (x; t) P {x < x(t) ≤ x + ∆x} = lim [7.2] ∆x→0 ∂x ∆x Gezamelijke verdelings(dichtheids)functie. Van het meeste belang voor de verdere behandeling is de gezamenlijke verdeling van twee stochastische processen x(t) en y(t). In zijn algemeenheid is dit een funktie van vier variabelen x, y, t 1 en t2 . Deze verdeling zegt iets over de kans van optreden van waarden van het stochastische proces x(t) op een tijdstip t1 in combinatie met waarden van het stochastische proces y(t) op een ander tijdstip t2 . De gezamenlijke verdelingsdichtheidsfunctie wordt gegeven door: fx (x; t) =
Fxy (x, y; t1 , t2 ) = P {x(t1 ) ≤ x; y(t2 ) ≤ y}
[7.3]
7.2
Continue tijd stochastische processen
95
We kunnen de verdelingsfunktie ook schrijven als funktie van t en τ , waarbij t = t 1 en τ gelijk is aan het tijdsverschil τ = t2 − t1 tussen de twee tijdstippen waarop de stochastische processen worden beschouwd, dus Fxy (x, y; t, τ ) = P {x(t) ≤ x; y(t + τ ) ≤ y}
[7.4]
Hierbij behoort de verdelingsdichtheidsfunktie: fxy (x, y; t, τ ) =
∂ 2 Fxy (x, y; t, τ ) ∂x∂y
[7.5]
Stationaire stochastische processen. Bij de verdere behandeling van stochastische processen zullen we ons beperken tot stationaire stochastische processen. Dit zijn stochastische processen waarvan de statistische eigenschappen niet afhankelijk zijn van het tijdstip waarop ze geobserveerd worden, dus: fx (x; t1 ) = fx (x; t2 ) = fx (x)
[7.6]
We zullen er ook van uitgaan dat we steeds combinaties van twee stochastische processen beschouwen die gezamenlijk stationair zijn d.w.z. fxy (x, y; t1 , τ ) = fxy (x, y; t2 , τ ) = fxy (x, y; τ )
[7.7]
In woorden uitgedrukt: De gezamenlijke kansverdeling van twee stochastische processen die onderling over een interval τ in de tijd verschoven zijn, is alleen afhankelijk van de grootte van dit interval τ , maar niet van het tijdstip t waarvoor deze gezamenlijke verdeling wordt beschouwd. Ter illustratie van de begrippen stationair en niet-stationair kunnen we twee voorbeelden beschouwen. Voorbeeld 5.1 De golfhoogte op de Noordzee. We beschouwen een stochastisch proces x(t) dat gedefinieerd is als de golfhoogte van ieder punt op het zeeoppervlak in een gebied van 1 km2 op een bepaalde aangegeven plaats op de Noordzee. Op een bepaald tijdstip t1 hoort hier een bepaalde verdelingsdichtheidsfunktie bij. Valt dit tijdstip in een periode van weinig wind, dan hebben de golven gemiddeld een lage amplitude en is de verdelingsdichtheidsfunktie fx (x; t1 ) vrij smal. Op een tijdstip t2 in een periode van veel wind zijn de golven gemiddeld veel hoger en heeft de funktie fx (x; t2 ) een breder karakter (zie fig. 7.2). Dit is dus een voorbeeld van een niet-stationair stochastisch proces. Voorbeeld 5.2: De draaddikte in een spinnerij. Beschouw een hal met spinmachines in een fabriek van synthetische vezels. Alle machines zijn afgesteld voor het zelfde produkt; een draad van een bepaalde dikte. Deze dikte zal binnen bepaalde toleranties fluktuaties vertonen. Bij een constante produktiesnelheid kunnen we de dikte van een draad als funktie van de tijd beschouwen als een realisatie van een stochastisch proces x(t). Door de op de machines aangebrachte regelingen, maar ook door de regeling van temperatuur en vochtgehalte in de hal zorgt men er voor dat de statistische eigenschappen niet veranderen in de tijd, d.w.z. de verdelingsdichtheidsfunktie van x(t) is onafhankelijk van de tijd: fx (x; t1 ) = fx (x; t2 ) = fx (x), dus x(t) is een stationair stochastisch proces.
96
7
Stochastische processen
Figuur 7.2: Verdelingsdichtheidsfunktie van de golfhoogte in een bepaald gebied van
de Noordzee op twee verschillende tijdstippen, als voorbeeld van een niet-stationair stochastisch proces.
Een verdelingsdichtheidsfunktie fxy (x, y; τ ) voor twee verschillende waarden van τ . Figuur 7.3:
In het bovengenoemde voorbeeld hadden we ook de diktefluktuaties kunnen beschrijven als funktie van de lengte langs de draad in plaats van als funktie van de tijd, dus x(λ). In principe verandert er daardoor niets. Omdat we als regel dergelijke signalen meten als funktie van de tijd, zullen we stochastische processen steeds beschouwen als funktie van de tijd, maar in principe kunnen we hiervoor ook een andere grootheid kiezen. Voor stationaire stochastische processen zijn de verdelingsfunktie en de verdelingsdichtheidsfunktie afhankelijk van 3 parameters. Voor een gegeven waarde van τ is de funktie fxy (x, y; τ ) weer te geven als een heuvel boven het xy-vlak. In principe ziet deze heuvel er nu voor elke waarde van τ anders uit (zie fig. 7.3). Voor twee gezamenlijk stationaire stochastische processen gelden nu de volgende relaties voor
7.2
97
Continue tijd stochastische processen
Integratiegebied voor de bepaling van Fxy (x, y; τ ) uit de verdelingsdichtheidsfunktie fxy (u, v; τ ) voor een bepaalde waarde van τ . Figuur 7.4:
de verdelingsfunktie en de verdelingsdichtheidsfunktie: Fxy (x, y; τ ) = P {x(t) ≤ x; y(t + τ ) ≤ y} ∂ 2 Fxy (x, y; τ ) fxy (x, y; τ ) = ∂x∂y P {x < x(t) ≤ x + ∆x; y < y(t + τ ) ≤ y + ∆y} fxy (x, y; τ ) = lim ∆x → 0 ∆x∆y ∆y → 0 Fxy (x, y; τ ) =
Z
y
v=−∞
Z
x
u=−∞
[7.8]
fxy (u, v; τ )dudv
De interpretatie van de laatste formule is in beeld gebracht in fig. 7.4. Voor een bepaalde waarde van τ wordt de waarde van de verdelingsfunktie voor een zekere x en y bepaald door integratie van de heuvel over het gearceerde deel van het grondvlak. Als we x en y naar ∞ laten gaan krijgen we Fxy (∞, ∞; τ ) d.w.z. P {x(t) < ∞; y(t + τ ) < ∞} = 1, de zekere gebeurtenis. Dat wil zeggen dat voor elke waarden van τ de inhoud onder de heuvel, gekarakteriseerd door de verdelingsdichtheidsfunktie fxy (x, y; τ ), gelijk is aan 1. In feite gelden alle beschouwingen over tweedimensionale verdelingsfunkties en tweedimensionale verdelingsdichtheidsfunkties uit de waarschijnlijkheidsrekening (par. 5.4) ook in de stochastiek. Zo kunnen de eendimensionale verdelingsdichtheidsfunkties fx (x) en fy (y) uit de gezamenlijke verdelingsdichtheidsfunktie worden berekend door integratie naar y respectievelijk x volgens: fx (x) =
Z
fy (y) =
Z
∞ −∞ ∞
−∞
∀τ
[7.9]
fxy (x, y; τ )dx ∀τ
[7.10]
fxy (x, y; τ )dy
Deze relaties moeten gelden voor elke waarde van τ . Een bijzonder geval van een gezamenlijke verdelingsdichtheidsfunktie ontstaat wanneer we niet kijken naar twee verschillende stochastische processen x(t) en x(t) die onderling in de tijd verschoven zijn, maar naar twee onderling in de tijd verschoven uitkomsten van het zelfde stochastische proces. We beschouwen dan de
98
7
Stochastische processen
Bovenaanzicht van de verdelingsdichtheidsfunktie fxy (x1 , x2 ; τ ) met een realisering van het bijbehorende stochastische proces x(t). Figuur
7.5:
kans dat de uitkomst op een tijdstip t kleiner is dan een zekere grootheid x1 en tegelijkertijd de kans dat de uitkomst van hetzelfde stochastische proces op een tijdstip t + τ kleiner is dan een andere grootheid x2 . We krijgen dan de verdelingsdichtheidsfunktie: ∂ 2 Fxx (x1 , x2 , τ ) [7.11] ∂x1 ∂x2 P {x1 < x(t) ≤ x1 + ∆x1 ; x2 < x(t + τ ) ≤ x2 + ∆x2 } = lim ∆x1 → 0 ∆x1 ∆x2 ∆x → 0
fxx (x1 , x2 ; τ ) =
2
In fig. 7.5 is een voorbeeld gegeven van een dergelijke verdelingsdichtheidsfunktie. Daarbij is een blokje getekend, waarvan de inhoud correspondeert met de kans dat x(t) tussen de waarden x1 en x1 +∆x1 ligt en tegelijkertijd x(t+τ ) tussen de waarden x2 en x2 + ∆x2 ligt. De verdelingsdichtheidsfunktie is zodanig getekend, dat bij een hoge waarde van x(t) de kans groot is dat x(t + τ1 ) negatief is. Als x(t) in de buurt van de nul ligt, is de kans groot dat x(t + τ1 ) een hoge waarde heeft. Onder de figuur is een realisering x(t) van het stochastische proces getekend, die deze eigenschappen illustreert.
7.2.2 Gemiddelde produktfunkties, covariantiefunkties en correlatiefuncties Nu we stochastische processen gekarakteriseerd hebben met behulp van verdelingsdichtheidsfunkties, kunnen we ook verder gebruik maken van de, in de waarschijnlijkheidsrekening gebruikte, begrippen. De basis hiervoor is weer het begrip verwachtingswaarde. Verwachtingswaarde. De verwachtingswaarde van een funktie van de stochas-
7.2
99
Continue tijd stochastische processen
tische processen x(t) en y(t) is gedefinieerd als: E{g(x(t)y(t + τ ))} =
Z
∞ −∞
Z
∞
g(x, y)fxy (x, y; τ )dxdy.
−∞
[7.12]
Voorbeelden van dergelijke verwachtingswaarden zijn de gemiddelde waarden en varianties. De gemiddelde waarden van x(t) en y(t) zijn gedefinieerd als: µx = E{x(t)} = µy =
Z
∞ −∞
Z
∞ −∞
Z
∞ −∞
xfxy (x, y; τ )dxdy =
Z
∞ −∞
xfx (x)dx
[7.13]
yfy (y)dy
De varianties van x(t) en y(t) zijn gedefinieerd als: σx2
2
= E{(x(t) − µx ) } = =
σy2
=
Z
Z
∞
−∞ ∞ −∞
Z
∞ −∞
(x − µx )2 fx (x)dx = 2
(y − µy ) fy (y)dy =
Z
∞ −∞ ∞
Z
Z
(x − µx )2 fxy (x, y; τ )dxdy
−∞ ∞
−∞
[7.14]
x2 fx (x)dx − µ2x y 2 fy (y)dy − µ2y
Deze grootheden reduceren voor stationaire stochastische processen tot dezelfde uitdrukkingen als die welke in de waarschijnlijkheidsrekening naar voren kwamen. Dit komt omdat de tijdparameter τ bij deze grootheden geen rol speelt. De factor τ speelt wel een rol bij uitdrukkingen waarin zowel x(t) als y(t + τ ) voorkomen of waarin x(t) en x(t + τ ) voorkomen. Gemiddelde produkt, kruisprodukt en autoprodukt. Een belangrijke grootheid is het gemiddelde produkt. Wanneer het om twee verschillende stochastische processen x(t) en y(t) gaat, spreekt men van een kruisprodukt. Wanneer het produkt betrekking heeft op verschoven waarden van het zelfde stochastische proces, spreekt men van een autoprodukt. Beide zijn een funktie van de tijdverschuiving τ . De gemiddelde kruisproduktfunctie Rxy (τ ) is gedefinieerd als: Rxy (τ ) = E{x(t)y(t + τ )} =
Z
∞ −∞
Z
∞ −∞
xyfxy (x, y; τ )dxdy
[7.15]
De gemiddelde autoproduktfunktie Rxx (τ ) is gedefinieerd als: Rxx (τ ) = E{x(t)x(t + τ )} =
Z
∞ −∞
Z
∞ −∞
x1 x2 fxx (x1 , x2 ; τ )dx1 dx2
[7.16]
We kunnen ook de gemiddelde produkten ten opzichte van hun gemiddelde waarden beschouwen. We krijgen dan de kruiscovariantiefunktie en de autocovariantiefunktie.
100
7
Stochastische processen
De kruiscovariantiefunktie Cxy (τ ) is gedefinieerd als: Cxy (τ ) = E{(x(t) − µx )(y(t + τ ) − µy )} R∞ R∞ = −∞ −∞ (x − µx )(y − µy )fxy (x, y; τ )dxdy
[7.17]
De autocovariantiefunktie Cxx (τ ) is gedefinieerd als: Cxx (τ ) = E{(x(t) − µx )(x(t + τ ) − µx )} =
Z
∞
−∞
Z
∞
−∞
[7.18]
(x1 − µx )(x2 − µx )fxx (x1 , x2 ; τ )dx1 dx2
Normeren van de covariantiefunktie m.b.v. de standaarddeviaties levert tenslotte de kruiscorrelatiefunktie Kxy (τ ), respectievelijk de autocorrelatiefunktie Kxx (τ ). De kruiscorrelatiefunktie Kxy (τ ) is gedefinieerd als: (
)
x(t) − µx y(t + τ ) − µy ) Kxy (τ ) = E σx σy Z ∞ Z ∞ x − µx y − µy = fxy (x, y; τ )dxdy σx σy −∞ −∞
[7.19]
De autocorrelatiefunktie Kxx (τ ) is gedefinieerd als: (
)
x(t) − µx x(t + τ ) − µx ) Kxx (τ ) = E σx σx Z ∞ Z ∞ x1 − µ x x2 − µ y = fxx (x1 , x2 ; τ )dx1 dx2 . σx σx −∞ −∞
[7.20]
Voor het onderlinge verband tussen gemiddelde produktfunkties, covariantiefunkties en correlatiefunkties geldt: Cxy (τ ) = Rxy (τ ) − µx µy Cxy (τ ) Kxy (τ ) = σx σy
[7.21]
en dus Cxx (τ ) = Rxx (τ ) − µ2x Cxx (τ ) Kxx (τ ) = σx2
[7.22]
We hebben nu drie typen funkties gedefinieerd, de gemiddelde produktfunktie, de covariantiefunktie en de correlatiefunktie, die alle aan elkaar gerelateerd zijn. Ze kunnen betrekking hebben op ´e´en stochastisch proces, dan zijn het autofunkties, of op een combinatie van twee stochastische processen, dan zijn het kruisfunkties. De funkties kunnen niet elke willekeurige vorm hebben, maar moeten voldoen aan enkele algemene eigenschappen. Deze worden nu eerst behandeld. We zullen eerst de eigenschappen van autofunkties beschouwen.
7.2
101
Continue tijd stochastische processen
Symmetrie-eigenschap. Voor de funktie Rxx (−τ ) geldt: Rxx (τ ) = E{x(t)x(t − τ )}. Stel t0 = t − τ , dan geldt ook: Rxx (−τ ) = E{x(t0 + τ )x(t0 )} = E{x(t0 )x(t0 − τ )} Voor een stationair stochastisch proces is de verdelingsdichtheidsfunktie geen funktie van t, alleen van τ , dus: Rxx (−τ ) = Rxx (τ )
[7.23]
Uit Cxx (τ ) = Rxx (τ ) − µ2x volgt dan ook: Cxx (−τ ) = Cxx (τ )
[7.24]
en uit Kxx (τ ) = Cxx (τ )/σx2 volgt tenslotte Kxx (−τ ) = Kxx (τ )
[7.25]
Hoogste en laagste waarden. In de waarschijnlijkheidsrekening is reeds afgeleid dat voor de correlatie tussen twee random variabelen x en y geldt: −1 ≤ Kxy ≤ 1. Stel nu x = x(t1 ) en y = x(t1 + τ ) dan geldt dus ook −1 ≤ Kxx (τ ) ≤ 1
[7.26]
Voor de autocovariantiefunktie geldt dan −σx2 ≤ Cxx (τ ) ≤ σx2 , en voor de gemiddelde autoproduktfunktie: −σx2 + µ2x ≤ Rxx (τ ) ≤ σx2 + µ2x
[7.27]
De ligging van het maximum. Cxx (0) = E{(x(t) − µx )2 } = σx2
[7.28]
en dit is de maximale waarde die de funktie Cxx (τ ) kan bereiken. Ook voor de autocorrelatiefunktie en de gemiddelde autoproduktfunktie ligt aldus het maximum bij τ = 0. Waarden voor τ = −∞ en τ = ∞. Als we veronderstellen dat het stochastische proces x(t) geen periodieke componenten bevat, dan betekent dit, dat de grootheden x(t) en x(t + τ ) voor τ → ∞ als onderling onafhankelijk beschouwd kunnen worden, dus lim fxx (x1 , x2 ; τ ) = fx (x1 )fx (x2 )
[7.29]
τ →∞
en lim Rxx (τ ) = τ →∞ =
lim τ →∞ Z
∞
−∞
Z
∞ −∞
Z
∞ −∞
x1 x2 fxx (x1 , x2 ; τ )dx1 dx2
x1 fx (x1 )dx1
Z
∞ −∞
x2 (fx (x2 )dx2 = µ2x
[7.30]
102
7
Stochastische processen
Tevens rekening houdend met de symmetrie-eigenschappen van Rxx (τ ) geldt dus: lim Rxx (τ ) = τlim Rxx (τ ) = µ2x →∞
[7.31]
τ →−∞
Hieruit volgt dan: lim Cxx (τ ) =
lim Cxx (τ ) = 0
τ →−∞
τ →∞
τ →−∞
τ →∞
lim Kxx (τ ) =
[7.32]
lim Kxx (τ ) = 0
Voor de kruisfunkties zijn sommige eigenschappen eveneens geldig, andere niet. Symmetrie: Kruisfunkties zijn in principe niet symmetrisch. De bij de autofunkties gevolgde afleiding levert voor de kruisfunkties wel de volgende relaties: Rxy (−τ ) = Ryx (τ ) Cxy (−τ ) = Cyx (τ ) Kxy (−τ ) = Kyx (τ )
[7.33]
Hoogste en laagste waarden. Evenals voor de autocorrelatiefunkties geldt: −1 ≤ Kxy (τ ) ≤ 1 −σx σy ≤ Cxy (τ ) ≤ σx σy −σx σy + µx µy ≤ Rxy (τ ) ≤ σx σy + µx µy
[7.34]
Ligging van het maximum. Hierover valt voor kruisfunkties niets te zeggen omdat deze in principe niet symmetrisch zijn. Waarden voor τ = −∞ en τ = ∞ Voor twee stochastische processen x(t) en x(t) zonder periodieke componenten geldt: lim Rxy (τ ) =
lim Rxy (τ ) = µx µy
τ →−∞
τ →∞
τ →−∞
τ →∞
τ →−∞
τ →∞
lim Cxy (τ ) =
lim Kxy (τ ) =
lim Cxy (τ ) = 0
[7.35]
lim Kxy (τ ) = 0
Normale verdeling voor twee stochastische processen. Voor een nadere interpretatie van de behandelde funkties beschouwen we twee stationaire stochastische processen x(t) en y(t) die gezamenlijk normaal verdeeld zijn. De verdelingsdichtheidsfunktie wordt beschreven als: fxy (x, y; τ ) = 1 q
2πσx σy 1 − Kxy (τ )2
e
−
1 2(1−Kxy (τ )2 )
2K (τ )(x−µx )(y−µy ) (y−µy ) (x−µx )2 − xy + σx σy σx2 σy2
2
7.2
103
Continue tijd stochastische processen
Noem
x−µx σx
= x1 en
y−µy σy
= y1 en beschouw de volgende werwachtingswaarde
(
x(t) − µx y(t + τ ) − µy E σx σy =
Z
∞ −∞
Z
)
∞
x1 y1
−∞
2π 1 − Kxy (τ )2
q
e
−
2 x2 1 −2Kxy (τ )x1 y1 +y1 2(1−Kxy (τ )2 )
dx1 dy1
[7.36]
uitwerking hiervan levert Kxy (τ ). Dat wil zeggen dat de correlatiefunktie Kxy (τ ) als tijdsafhankelijke parameter in de beschrijving van de verdelingsdichtheidsfunktie is opgenomen. We kunnen nu voor verschillende waarden van τ doorsneden maken van de funktie fxy (x, y; τ ). Dit levert steeds een ellips met een hoofdas onder 450 , zoals afgebeeld in fig. 5.9. Elke waarde van τ levert in principe een andere ellips. Voor de waarden τ = ∞ en τ = −∞ is de doorsnede steeds een cirkel. Bij de covariantiefunktie beschouwen we twee variabelen x2 = x − µx en y2 = y − µy , waarbij we de normering op een standaarddeviatie van 1 hebben laten vervallen. Dit betekent dat eenhoofdas van de ellips niet meer onder 450 staat maar onder de hoek ψ = arctan σσxy . De cirkel bij τ = ∞ en τ = −∞ is nu uitgerekt tot een ellips. Bij de gemiddelde produktfunktie beschouwen we de verdelingsdichtheidsfunktie van de oorspronkelijke variabelen, waarbij het middelpunt van de ellipsen ook niet meer in de oorsprong ligt. Onafhankelijk, orthogonaal en ongecorreleerd. Geheel analoog aan de definities in de waarschijnlijkheidsrekening worden ook in de stochastiek de begrippen onderling onafhankelijk, orthogonaal en ongecorreleerd gebruikt. Onafhankelijk. Twee stochastische processen zijn onafhankelijk als geldt dat: Fxy (x, y; τ ) = Fx (x)Fy (y)
∀τ
[7.37]
en dus ook dat: ∀τ
fxy (x, y; τ ) = fx (x)fy (y)
[7.38]
Orthogonaal. Twee stochastische processen zijn orthogonaal als geldt dat: Rxy (τ ) = 0
∀τ
[7.39]
Ongecorreleerd. Twee stochastische processen zijn ongecorreleerd als geldt dat: Cxy (τ ) = Kxy (τ ) = 0
∀τ
[7.40]
De extra toevoeging voor stochastische processen is, dat de relaties moeten gelden voor elke waard van τ en niet maar voor een paar waarden. Van twee gecorreleerde stochastische processen zal de correlatiefunktie meestal wel een paar nuldoorgangen
104
7
Stochastische processen
De gemiddelde autoproduktfunktie R(τ ), de autocovariantiefunktie C(τ ) en de autocorrelatiefunktie K(τ ) van drie onderling samenhangende stochastische processen.
Figuur 7.6:
hebben. Ook voor stochastische processen geldt weer dat onafhankelijkheid ongecorreleerd impliceert. Ter illustratie van het verschil in informatie tussen gemiddelde produktfunktie, covariantiefunktie en correlatiefunktie zijn voor het geval van een autofunktie deze drie funkties getekend in fig. 7.6 voor een stochastisch proces x(t) met gemiddelde waarde nul en twee daarvan afgeleide stochastische processen. Omdat het autofunkties zijn, die dus symmetrisch zijn t.o.v. τ = 0, is alleen de rechterhelft getekend. De figuur laat zien dat de drie gemiddelde produktfunkties verschillen, maar dat de correlatiefunkties identiek zijn. Deze hebben in dit voorbeeld de gedaante van een uitdempende cosinus. Dit betekent dat er een zekere periodiciteit in de realisaties van het stochastische proces aanwezig lijkt te zijn zolang we maar naar betrekkelijk kleine tijdsintervallen τ kijken. Voor grotere waarden van τ blijkt echter het periodieke verband tussen x(t) en x(t + τ ) steeds minder overtuigend aanwezig te zijn.
7.2
105
Continue tijd stochastische processen
Het stochastische proces is dus wel degelijk ruis, maar dan gefilterd via een nauw bandfilter, waardoor de signalen het karakter krijgen van een periodiek signaal met schommelende amplituden en periodetijd. Men noemt dit nauwebandruis. Het volgende voorbeeld heeft betrekking op een stochastisch proces dat geen ruisvormig karakter heeft en als zodanig dus niet representatief is. De keuze van het voorbeeld berust op de mogelijkheid de covariantiefunktie analytisch te berekenen. Voorbeeld: Gegeven een stochastisch proces x(t) = a sin(ωt + ψ). De vorm van de funktie is deterministisch, alleen de fasehoek ψ is een random variabele. Gegeven is dat deze uniform verdeeld is tussen -π en π. Aangezien de gemiddelde waarde µx = 0, is de covariantiefunktie gelijk aan de gemiddelde produktfunktie. Gevraagd wordt de autocovariantiefunktie analytisch te berekenen. Er geldt nu dat: Cxx (τ ) = E{x(t)x(t + τ )} = E{a sin(ωt + ψ)a sin(ω(t + τ ) + ψ)}
[7.41]
Een mogelijke aanpak bestaat uit het afleiden van de uitdrukking voor fxx (x1 , x2 ; τ ), waarna de gevraagde verwachtingswaarde via integratie berekend kan worden. Een eenvoudiger aanpak volgt uit de overweging dat de hele uitdrukking uiteindelijk een funktie is van slechts ´e´en random variabele, namelijk ψ. Uitwerking uitgaande van deze gedachte levert: Cxx (τ ) = E{a2 sin(ωt + ψ) sin(ω(t + τ ) + ψ)} 2
2
[7.42] 2
= a (sin ωt cos ωτ + sin ωt cos ωt sin ωτ )E{cos ψ} + a2 (cos2 ωt cos ωτ − sin ωt cos ωt sin ωτ )E{sin2 ψ}
+ a2 (2 sin ωt cos ωt cos ωτ + (cos2 ωt − sin2 ωt) sin ωτ )E{sin ψ cos ψ} Beschouw nu een nieuwe random variabele y = sin ψ. De verdelingsdichtheidsfunktie van deze random variabele is gegeven in vorige hoofdstuk. Hij is gelijk aan: fy (y) =
1 π
√1
voor y ≤ 1
1−y 2
= 0
[7.43]
voor y > 1
Er geldt dat E{y2 } = 0.5. Daaruit volgt tevens dat:E{cos2 ψ} = 1 − E{y2 } = 0.5. Tenslotte volgt dat: q
E{sin ψ cos ψ} = E{y 1 − y2 } =
1 π
Z
1
−1
q
y 1 − y2 p
[7.44] 1 21 1 y | =0 dy = 2 2π −1 1−y
[7.45]
Ingevuld in de vergelijking voor Cxx (τ ) levert dit: Cxx (τ ) = 0.5a2 cos ωτ
[7.46]
In fig. 7.7 zijn enkele realiseringen van het in het voorbeeld beschouwde stochastische proces getekend, met daaronder de zojuist berekende covariantiefunktie. De figuur laat zien dat de funktie symmetrisch is, met een maximum bij τ = 0. De faseinformatie van de signalen is verdwenen, maar de informatie over amplitude
106
7
Stochastische processen
Enige realiseringen van het stochastische proces x(t) = a sin(ωt + ψ), met daaronder de bij dit proces behorende autocovariantiefunktie Cx (τ ). Figuur 7.7:
en frequentie zijn nog aanwezig in de covariantiefunktie. Doordat de signalen periodiek zijn geldt nu niet dat limτ →∞ Cxx (τ ) = 0. In het algemeen kan gezegd worden dat de autocovariantie in principe de informatie bevat over de amplitude en de frequentie-inhoud van een stochastisch proces. Fase-informatie zegt in feite iets over de keuze van het tijdstip t = 0 langs de tijdas en deze informatie is dus niet aanwezig in een autocovariantiefunktie. De kruiscovariantiefunktie geeft informatie over hetgeen twee stochastische processen aan amplitude en frequentieinhoud gemeenschappelijk hebben. De kruiscovariantiefunktie bevat eveneens geen informatie omtrent de keuze van het tijdstip t = 0. Wel bevat de kruiscovariantiefunktie informatie over de onderlinge verschuivingen in de tijd. Gemiddelde produktfunkties voegen informatie over de gemiddelde waarden toe aan de informatie van de covariantiefunkties. Correlatiefunkties zijn genormeerde covariantiefunkties. Aan een kruiscovariantiefunktie is niet te zien of het verband tussen twee stochastische processen sterk is of niet. Dit is wel te zien aan een correlatiefunktie omdat de waarde hiervan kan worden vergeleken ten opzichte van de waarde 1. Hier staat tegenover dat de correlatiefunktie geen informatie bevat over de amplituden van de signalen. Het meest gebruikt in de regeltechniek zijn covariantiefunkties en correlatiefunkties, omdat men als regel ge¨ınteresseerd is in de fluctuaties van signalen ten opzichte van hun gemiddelde waarden.
7.3 Discrete tijd stochastische processen In de vorige paragraaf zijn functies gedefinieerd op stochastische processen die op zich een functie waren van de continue tijd. In deze paragraaf worden voor de volledigheid enkele overeenkomstige functies gegeven die gelden voor de discrete tijd stochastische processen. De afleidingen kunnen zonder problemen worden getransformeerd van continue tijd naar discrete tijd. De verdelingsfunktie van een continue tijd stochastisch proces x(k) is gedefinieerd
7.3
107
Discrete tijd stochastische processen
als: Fx (x; k) = P {x(k) ≤ x}
[7.47]
De verdelingsdichtheidsfunktie wordt gegeven door: fx (x; k) =
∂Fx (x; k) P {x < x(k) ≤ x + ∆x} = lim ∆x→0 ∂x ∆x
[7.48]
De gezamelijke verdelingsfunctie van de stochastische processen x(k) en y(k) wordt gegeven door: Fxy (x, y; k1 , k2 ) = P {x(k1 ) ≤ x; y(k2 ) ≤ y}
[7.49]
We kunnen de verdelingsfunktie ook schrijven als funktie van k en l, waarbij k = k 1 en l = k2 − k1 : Fxy (x, y; k, l) = P {x(k) ≤ x; y(k + l) ≤ y}
[7.50]
Hierbij behoren de verdelingsdichtheidsfunkties: fxy (x, y; k, l) =
∂ 2 Fxy (x, y; k, l) ∂x∂y
[7.51]
Voor een stationaire continue tijd stochastisch proces geldt: fx (x; k1 ) = fx (x; k2 ) = fx (x)
[7.52]
en voor een combinaties van twee stochastische processen die gezamenlijk stationair zijn geldt: fxy (x, y; k1 , l) = fxy (x, y; k2 , l) = fxy (x, y; l)
[7.53]
De verwachtingswaarde van een funktie van de discrete tijd stochastische processen x(k) en y(k) is gedefinieerd als: E{g(x(k)y(k + l))} =
Z
∞ −∞
Z
∞ −∞
g(x, y)fxy (x, y; l)dxdy.
[7.54]
De gemiddelde waarden van x(k) en x(k) zijn gedefinieerd als: µx = E{x(k)} = µy =
Z
∞ −∞
Z
∞ −∞
xfxy (x, y; l)dxdy =
Z
∞ −∞
xfx (x)dx
[7.55]
yfy (y)dy
De varianties van x(k) en x(k) zijn gedefinieerd als: σx2 = E{(x(k) − µx )2 } = = σy2 =
Z
∞
−∞ Z ∞ −∞
Z
∞ −∞
(x − µx )2 fx (x)dx = (y − µy )2 fy (y)dy =
Z
∞
−∞ Z ∞
(x − µx )2 fxy (x, y; l)dxdy
−∞ Z ∞ −∞
x2 fx (x)dx − µ2x y 2 fy (y)dy − µ2y
[7.56]
108
7
Stochastische processen
De gemiddelde kruisproduktfunctie Rxy (l) is gedefinieerd als: Rxy (l) = E{x(k)y(k + l)} =
Z
∞
−∞
Z
∞ −∞
xyfxy (x, y; l)dxdy
[7.57]
De kruiscovariantiefunktie Cxy (l) is gedefinieerd als: Cxy (l) = E{(x(k) − µx )(y(k + l) − µy )} =
Z
∞
−∞
Z
∞
−∞
[7.58]
(x − µx )(y − µy )fxy (x, y; l)dxdy
De kruiscorrelatiefunktie Kxy (l), is tenslotte gedefinieerd als: (
)
x(k) − µx y(k + l) − µy ) Kxy (l) = E σx σy Z ∞ x − µx y − µy fxy (x, y; l)dxdy = σx σy −∞
[7.59]
Verschillende eigenschappen van bovenstaande functies van discrete tijd stochastische processen zijn analoog af te leiden als die van continue tijd stochastische processen.
7.4 Diskrete ruis 1
Onder diskrete ruis wordt in dit verband verstaan; ruis die wordt weergegeven door een reeks van random variabelen. De reeks kan ontstaan door het bemonsteren van een stochastisch proces, maar kan ook van nature een reeks getallen zijn, bijvoorbeeld de maximum temperatuur per dag gemeten, of het aantal exemplaren van een bepaalde diersoort dat per jaar in een zeker gebied wordt geteld. Als basis voor het karakteriseren van ruis wordt uitgegaan van het begrip diskrete witte ruis. Hieronder wordt verstaan een stationaire reeks van onderling ongecorreleerde random variabelen w(k; ζ) = w(k). Deze reeks wordt dan gekarakteriseerd door: E{w(j)} = µw E{(w(j) − µw )2 } = σw2 E{(w(j) − µw )(w(j + k) − µw )} = Cww (k) = σw2 =0
∀j ∀j voor k = 0 voor k = 6 0
[7.60]
Gefilterde diskrete witte ruis Uitgaande van het begrip diskrete witte ruis is het mogelijk allerlei andere soorten ruis te karakteriseren. Als voorbeeld beschouwen we de volgende differentievergelijking: x(k) + ax(k − 1) = w(k) 1
Deze paragraaf wordt niet bij ”Signaalanalyse” behandeld.
[7.61]
7.4
109
Diskrete ruis
Hierin is w(k) diskrete witte ruis. Uitgaande van deze vergelijking is het mogelijk de waarde van x(k) uit te drukken in waarden van w(k) uit het verleden, en wel als volgt: −ax(k − 1) + w(k) = −a(−ax(k − 2) + w(k − 1) + w(k) (−a)2 x(k − 2) − aw(k − 1) + w(k) (−a)2 (−ax(k − 3) + w(k − 2) − aw(k − 1) + w(k) (−a)3 x(k − 3) + (−a)2 w(k − 2) + (−a)w(k − 1) + w(k) P (−a)3 x(k − 3) + 2j=0 (−a)j w(k − j)
x(k) = = = = = . . =
(−a)n x(k − n) +
Pn−1
j=0 (−a)
j
[7.62]
w(k − j)
Stel dat de reeks begonnen is met een waarde x(0) = 0, dan geldt: x(k) =
n−1 X j=0
(−a)j w(k − j)
[7.63]
De gemiddelde waarde van x(k) wordt dan µx (k) = E{x(k)} =
k−1 X j=0
(−a)j E{w(k − j)} = µw
k−1 X
(−a)j
[7.64]
j=0
waaruit volgt µx (k) = kµw voor a = −1 1−(−a)k ) µx (k) = µw voor a 6= −1 1+a
[7.65]
Als µw = 0, dan is ook µx (k) = 0 voor elke x(k). Als µw 6= 0, dan is µx (k) een funktie van a, k en µw . Voor a = 1 bijvoorbeeld volgt: µx (k) =
1−(−1)k ) µw 2
= µw voor k oneven = 0 voor k even
[7.66]
In het algemeen zal de reeks x(k) niet stationair zijn t.a.v. zijn gemiddelde als µw 6= 0. In het vervolg wordt dan ook uitgegaan van witte ruis met gemiddelde waarde nul. Voor de autocovariantiefunktie van x(k) geldt dan: Cxx (k) = Rxx (k) = E{x(n)x(n + k)}
[7.67]
met x(n) = w(n) + (−a)w(n − 1) + . . . + (−a)n−2 w(2) + (−a)n−1 w(1) x(n + k) = w(n + k) + (−a)w(n + k − 1) + . . . [7.68] +(−a)k w(n) + . . . + (−a)n−k−1 w(1) Voor k ≥ 0 volgt hieruit E{x(n)x(n + k)} = E{[w(n) + (−a)w(n − 1) + . . . + (−a) n−1 w(1)]· [7.69] [w(n + k) + (−a)w(n + k − 1) + . . . + (−a)k )w(n) + . . . + (−a)n−k−1 w(1)
110
7
Stochastische processen
Aangezien E{w(i)w(j)} = 0 voor i 6= j = σw2 voor i = j
[7.70]
wordt E{x(n)x(n + k)} = Cxx (n, k) dan gelijk aan: Cxx (n, k) = [(−a)0 (−a)k + (−a)(−a)k+1 + . . . + (−a)n−1 (−a)n+k−1 ]σw2 = [(−a)k + (−a)k+2 + . . . + (−a)k+2(n−2) + (−a)k+2(n−1) ]σw2 [7.71] = (−a)k [1 + (−a)2 + . . . + (−a)2(n−2) + (−a)2(n−1) ]σw2 Hieruit volgt Cxx (n, k) = (−a)k nσw2 voor |a| = 1 k 1−a2n 2 = (−a) 1−a2 σw voor |a| 6= 1 en voor k ≥ 0
[7.72]
Voor het geval dat |a| ≥ 1 blijft de waarde van Cxx (n, k) toenemen bij toenemende waarden van de verschuiving k en van de lengte n van de reeks. Voor het geval dat |a| ≤ 1 en bij voldoende grote waarde van n gaat de covariantiefunktie over in: Cxx (n, k) = Cxx (k) =
(−a)k 2 σ 1 − a2 w
voor k ≥ 0
[7.73]
Het diskrete stochastische proces x(k) is nu stationair t.a.v. zijn autocovariantiefunktie. Aangezien een autocovariantiefunktie van een stationair stochastisch proces symmetrisch is, geldt nu: Cxx (k) =
(−a)|k| 2 σ 1 − a2 w
[7.74]
De variantie wordt dus: σx2 = Cxx (0) =
σw2 1 − a2
[7.75]
en voor de autocorrelatiefunktie geldt: Kxx (k) = (−a)|k|
[7.76]
In figuur 7.8 is de autocorrelatiefunktie voor twee waarden van a getekend. Het autoregressieve filter Het beschouwde stochastische proces werd gekarakteriseerd door de eerste orde differentievergelijking x(k) + ax(k − 1) = w(k)
[7.77]
Met behulp van de achterwaartse verschuivingsoperator q −1 is dit ook te schrijven als: (1 + aq −1 )x(k) = w(k)
[7.78]
7.4
111
Diskrete ruis
Autocorrelatiefunkties voor twee waarden van a van een eerste-orde autoregressief proces. Figuur 7.8:
of x(k) =
1 w(k) = [1 + (−a)q −1 + (−a)2 q −2 + . . . + (−a)n q −n ]w(k) [7.79] −1 1 + aq
waarbij in principe n naar oneindig gaat, dus x(k) = n→∞ lim
n X
j=0
(−a)j w(k − j)
[7.80]
Dit is de, al eerder langs een andere weg gevonden, vergelijking, zij het dat n daar de eindige waarde k − 1 kreeg op grond van de veronderstelling dat x(k) de waarde x(k) = 0 had voor k = 0. De bovenstaande uitdrukking is ook te schrijven als: x(k) =
∞ X
j=0
h(j)w(k − j)
[7.81]
waarbij h(j) = (−a)j . Wat hier staat is de convolutie van de reeks w(k) met de reeks h(j). Wanneer we de reeks x(k) beschouwen als de uitgang van een systeem met als ingang diskrete witte ruis, dan beschrijft de reeks h(j) de diskrete impulsresponsie van het systeem, in dit geval een eerste orde systeem. De beschouwde eerste orde differentievergelijking is een bijzonder geval van de meer algemene gedaante: x(k) + a1 x(k − 1) + . . . + aL x(k − L) = w(k)
[7.82]
Ook te beschrijven als: x(k) = −[a1 x(k − 1) + a2 x(k − 2) + . . . + aL x(k − L)] + w(k)
[7.83]
M.a.w. x(k) is, afgezien van een onvoorspelbare ruisterm w(k) een lineaire funktie van zijn eigen verleden. Een lineaire vergelijking waarbij een bepaalde grootheid wordt gekarakteriseerd als een lineaire combinatie van een aantal andere grootheden heet een lineaire-regressie- vergelijking. Wanneer de grootheden in de vergelijking
112
7
Stochastische processen
Figuur 7.9: Het AR(1)-filter gekarakteriseerd in het z-vlak.
betrekking hebben op het eigen verleden spreekt men van autoregressie. Een filter dat gekarakteriseerd wordt door een dergelijke vergelijking noem men een autoregressief filter. Het hier besproken eerste-orde autoregressieve filter wordt kortheidshalve aangeduid als een AR(1)-filter. We kunnen het AR(1)-filter ook in het z-domein bekijken. Uitgaande van de differentievergelijking x(k) + ax(k − 1) = w(k)
[7.84]
X(z) + az −1 X(z) = W(z)
[7.85]
z 1 X(z) = = = H(z) W(z) 1 + az −1 z+a
[7.86]
volgt
of
Deze overdrachtsfunktie heeft een nulpunt in z = 0 en een pool in z = −a (zie figuur 7.9). Voor het geval |a| ≥ 1 valt de pool buiten de eenheidscirkel en het systeem is instabiel. In het geval van het AR(1)-filter is de grootheid a altijd re¨eel en de pool heeft dus geen imaginaire component. Desondanks kan het uitgangssignaal een oscillerend gedrag vertonen. Immers voor het geval a ≥ 0 geldt: x(k) = −ax(k − 1) + w(k)
[7.87]
zodat als de term w(k) er niet was de getallenreeks steeds van teken zou wisselen. Voor a < 0 zou dan het teken steeds hetzelfde blijven. Dit beeld wordt ook teruggevonden in de correlatiefunkties van figuur 7.8. Voor het geval a = 1 ligt de pool precies op de eenheidscirkel en de correlatiefunktie is zuiver periodiek. Voor het geval a = −1 gaat de omhullende e-macht van de correlatiefunktie over in een horizontale rechte lijn: Kxx (k) = 1 ∀k. Voor a > 1 ontstaat een opslingerende periodieke reeks, voor a < −1 een rij exponentieel toenemende getallen. Ditzelfde beeld
7.4
113
Diskrete ruis
is terug te vinden in het gedrag van de impulsresponsie h(k). Voor het AR(1)-filter geldt dus: h(k) = (−a)k = 0
voor k ≥ 0 voor k < 0
[7.88]
en voor de autocorrelatiefunktie van het uitgangssignaal als er witte ruis op de ingang staat: Kxx (k) = (−a)k voor k ≥ 0 = 0 voor k < 0
[7.89]
Let op: deze overeenkomst tussen de rechter helften van beide funkties is geen algemene regel, maar geldt alleen voor een AR(1)-filter. Voor een autoregressief filter geldt in het algemeen het volgende: als het filter stabiel is en het ingangssignaal is stationair met gemiddelde waarde nul, dan is ook het uitgangssignaal stationair met gemiddelde waarde nul. Een autoregressief filter AR(L) kunnen we op verschillende manieren karakteriseren. • Door zijn differentievergelijking: x(k) + a1 x(k − 1) + . . . + aL x(k − L) = w(k)
[7.90]
• Gebruikmakend van de achterwaartse verschuivingsoperator q −1 m.b.v. een polynoom A(q −1 ) = 1 + a1 q −1 + a2 q −2 + . . . aL q −L als A(q −1 )x(k) = w(k)
[7.91]
• In het z-domein m.b.v. de polynoom in z −1 A(z −1 ) = 1 + a1 z −1 + a2 z −2 + . . . + aL z −L als H(z −1 ) =
1 A(z −1 )
[7.92]
• of m.b.v. de polynoom in z A∗ (z) = z L + a1 z L−1 + a2 z L−2 + . . . + aL als H(z) =
zL A∗ (z)
[7.93]
• Tenslotte d.m.v. zijn impulsresponsie h(k) voor 0 ≤ h(k) ≤ ∞ waarbij de waarden van h(k), in de vorm van een polynoom H(q −1 ) = 1 + h1 q −1 + h2 q −2 + h3 q −3 . . . , volgen uit h(q −1 ) =
1 [7.94] A(q −1 )
Het Moving Average filter Behalve het autoregressieve filter bestaat er nog een andere vorm, namelijk het ”moving average”-filter, kortweg aangeduid als het MA-filter. Dit wordt gekarakteriseerd door een differentievergelijking van de volgende gedaante: x(k) = b0 w(k) + b1 w(k − 1) + . . . + bM w(k − M )
[7.95]
114
7
Stochastische processen
of met behulp van de polynoom B(q −1 ) = b0 + b1 + . . . + bM q −M als x(k) = B(q −1 )w(k)
[7.96]
De keuze van b0 hangt af van de definitie van w(k). Als men de witte ruis w(k) zodanig definieert dat σw2 = 1 dan is b0 een maat voor de schaling van x(k). Men kan echter ook b0 = 1 kiezen, dan wordt de schaling weergegeven door σw2 = 1. Voorbeeld. Als voorbeeld beschouwen we de MA(1)-vergelijking x(k) = w(k) + bw(k − 1)
[7.97]
De gemiddelde waarde van x(k) wordt: µx = E{x(k)} = (1 + b)E{w(k)} = (1 + b)µw
[7.98]
We zullen ook hier weer uit gaan van het geval µw = 0, zodat dan geldt µx = 0. De autocovariantiefunktie is te berekenen uit: x(j) = w(j) + bw(j − 1) x(j + k) = w(j + k) + bw(j + k − 1) Cxx (k)
= E{x(j)x(j + k)} = E{w(j)w(j + k)} + bE{w(j)w(j + k − 1)}+ bE{w(j − 1)w(j + k)} + b2 E{w(j − 1)w(j + k − 1)}
[7.99]
Achtereenvolgens invullen van een aantal waarden van k levert: Cxx (0) = (1 + b2 )σw2 Cxx (1) = bσw2 Cxx (k) = 0 voor k ≥ 1
[7.100]
Voor de correlatiefunktie geldt dus: Kxx (0) = 1 b Kxx (1) = 1+b 2 Kxx (k) = 0 voor k ≥ 1
[7.101]
Deze funktie is afgebeeld in figuur 7.10.
De naam ”moving average” wijst op een voortschrijdende middeling over het verleden van w(k) bij de berekening van x(k). De polynoom B(q −1 ) beschrijft in feite de impulsresponsie van het filter. Voor het berekenen van de covariantiefunktie van x(k) kunnen we dus ook gebruik maken van de relatie: Cxx (k) = σw2 ∞ i=0 h(i)h(i + |k|) ∀k 2 P∞ = σw i=0 bi bi+|k| P
[7.102]
In het geval van het MA(1)-proces x(k) wordt dit: Cxx (0) = σw2 (1 · 1 + b · b) = (1 + b2 )σw2 = bσw2 Cxx (1) = σw2 (1 · b) Cxx (k) = 0 voor k > 0
[7.103]
7.4
115
Diskrete ruis
Figuur 7.10: De autocorrelatiefunktie van een MA(1)-proces.
Het Auto-Regressief Moving Average filter Tenslotte komen we dan op de meest algemene vorm voor een lineair diskreet stationair stochastisch proces het ARMA-proces, dat gekarakteriseerd wordt door de differentievergelijking x(k)+a1 x(k−1)+. . .+aL x(k−L) = b0 w(k)+b1 w(k−1)+. . .+bM w(k−M )[7.104] of met behulp van de polynomen A(q −1 ) en B(q −1 ) A(q −1 )x(k) = B(q −1 )w(k)
[7.105]
We kunnen het ruisvormend filter ook karakteriseren door zijn impulsresponsie: H(q −1 ) =
B(q −1 ) A(q −1 )
[7.106]
waarbij x(k) volgt uit: x(k) = H(q −1 ) ∗ w(k) =
∞ X
j=0
h(j)w(k − j)
[7.107]
In het z-domein kan het filter beschreven worden door zijn overdrachtsfunktie: H(z) =
B(z −1 ) B ∗ (z) = A(z −1 ) A∗ (z)
[7.108]
Hierbij zijn A∗ (z) en B ∗ (z) te berekenen door A(z −1 ) en B(z −1 ) te vermenigvuldigen met z tot de hoogste macht van z −1 in A(z −1 ) of B(z −1 ). Verband tussen de impulsresponsie van het filter en de autocorrelatiefunktie van het daardoor gekarakteriseerde proces. Een algemeen geldige uitdrukking voor het uitgangssignaal van een willekeurig stabiel, eventueel niet causaal, filter met witte ruis op de ingang volgt uit: ∞ x(m) = h(i)w(m − i) Pi=−∞ ∞ x(m + k) = h(j)w(m + k − j) j=−∞ P P∞ ∞ Cxy (k) = i=−∞ j=−∞ h(i)h(j)E{w(m − i)w(m + k − j)}
P
[7.109]
116
7
Stochastische processen
waarbij E{w(m − i)(m + k − j)} = σw2 voor j = i + k = 0 voor j 6= i + k
[7.110]
zodat Cxx (k) = σw2
∞ X
h(i)h(i + k)
[7.111]
i=−∞
Voor een causaal systeem en k ≥ 0 wordt de covariantiefunktie Cxx (k) = σw2
∞ X i=0
h(i)h(i + k)
voor k ≥ 0
[7.112]
Uit de symmetrie-eigenschappen van Cxx (k) volgt dan dat Cxx (k) = σw2
∞ X i=0
h(i)h(i + |k|) ∀k
[7.113]
Voorbeeld Voor het AR(1)-filter gold h(i) = (−a)i , zodat Cxx (k) = σw2
∞ X i=0
(−a)2i+|k| = σw2 (−a)|k|
∞ X
(−a)2i = σw2 (−a)|k| [1 + a2 + a4 + . . .][7.114]
i=0
hetgeen klopt met wat al eerder gevonden werd.
Recapitulatie diskrete ruis Een willekeurig continu ruissignaal kan worden opgevat als het uitgangssignaal van een filter met witte ruis op de ingang. Het ruissignaal wordt dan gekarakteriseerd door de beschrijving van dit z.g. vormend filter. Het beschrijven van diskrete ruissignalen verloopt geheel analoog aan deze werkwijze, uitgaande van het begrip diskrete witte ruis. Diskrete witte ruis is gedefinieerd als een reeks onderling ongecorreleerde (eindige) getallen. In tegenstelling tot continue witte ruis heeft diskrete witte ruis een eindige variantie. Een willekeurige diskrete ruis kan worden gekarakteriseerd door een vormend filter met diskrete witte ruis op de ingang. Dit vormend filter kan in het tijdsdomein beschreven worden door zijn differentievergelijking, dan wel zijn impulsresponsie, of in het z-domein door zijn overdrachtsfunktie. Er worden drie typen filters onderscheiden. • Het autoregressief (AR-)filter. De differentievergelijking bevat alleen verschoven waarden van het uitgangssignaal. De overdrachtsfunktie bevat dus alleen een noemerpolynoom. • Het moving average (MA-)filter. De differentievergelijking bevat alleen verschoven waarden van het ingangssignaal. De overdrachtsfunktie bevat dus alleen een tellerpolynoom.
7.5
Ergodiciteit
117
• Het autoregressief moving average (ARMA-)filter. De differentievergelijking bevat zowel verschoven waarden van het ingangssignaal als van het uitgangssignaal. De overdrachtsfunktie bevat dus zowel een tellerpolynoom als een noemerpolynoom. Gebruik makend van de achterwaartse verschuivingsoperator q −1 is de differentievergelijking van een filter ook in het tijdsdomein te karakteriseren als het quotient van een teller- en een noemerpolynoom. De teller- en noemerpolynoom zijn identiek met de polynomen van de overdrachtsfunktie beschreven als polynomen in z −1 . Door de polynomen in q −1 op elkaar te delen wordt een beschrijving van de diskrete impulsresponsie verkregen. Als de impulsresponsie van het filter bekend is, kan hieruit op eenvoudige wijze de autocovariantiefunktie worden berekend van de uitgang van het filter met diskrete witte ruis als ingang.
7.5 Ergodiciteit Voor stationaire stochastische processen ligt alle informatie omtrent gemiddelde produktfunktie, covariantiefunktie, correlatiefunktie en spectrale dichtheid vast in de verdelingsdichtheidsfunktie fxx (x1 , x2 ; l) voor autofunkties en fxy (x, y; l) voor kruisfunkties. Dit zijn funkties van 3 variabelen en als regel zijn ze onbekend. Men kan zich afvragen in hoeverre het mogelijk is een schatting van het verloop van een dergelijke funktie te maken op grond van meetgegevens. Zelfs als men maar voor 10 verschillende waarden van de parameters x, y en l een schatting van fxy (x, y; l) zou willen maken, moeten er nog altijd 1000 waarden geschat worden. Dit vraagt een zeer groot aantal experimentele gegevens om een enigszins betrouwbare schatting te krijgen. Deze aanpak is dan ook niet realistisch. Het probleem zou misschien vereenvoudigd kunnen worden door te veronderstellen dat men de aard van de verdeling kent. Men hoeft dan alleen de parameters van de verdelingsdichtheidsfunktie te schatten. Het lijkt in veel gevallen bijvoorbeeld redelijk te veronderstellen dat twee stochastische processen x(k) en y(k) gezamenlijk normaal verdeeld zijn. De verdelingsdichtheidsfunktie is dan volledig bepaald door de grootheden: µx , µy , σx , σy en Kxy (l). Hierin is Kxy (l) de correlatiefunktie. Dit zijn echter precies de gegevens die de reden vormden om de verdelingsdichtheidsfunktie te willen bepalen. Hiermee komt men dus in een vicieuse cirkel terecht. Om deze cirkel te doorbreken wordt nu het begrip ergodiciteit ge¨ıntroduceerd. Het begrip ergodiciteit relateert ensemblemiddelingen over verdelingsdichtheidsfunkties voor het stochastische proces als geheel aan tijdsmiddelingen over ´e´en realisering x(k) van het stochastische proces. Om de gedachten te bepalen beschouwen we het tijdsgemiddelde over een tijd T van ´e´en realisering van een stationair stochastisch proces: µ ˆN x
N 1 X x(k) = N k=1
[7.115]
Hierin is µ ˆN x een schatting voor de gemiddelde waarde van x: µx = E{x(k)}. In hoofdstuk 6 zullen we nog uitgebreid op de schattingstheorie terugkomen.
118
7
Stochastische processen
De beschikbare middelingstijd voor het schatten van een kruiscovariantiefunktie uit ´e´en realisering, gemeten over een observatietijd N ∆t. Figuur 7.11:
Ergodisch. Indien nu voor een willekeurige realisering geldt dat: N 1 X x(k) = E{x(k)} N →∞ N k=1
lim
[7.116]
dan noemt men het stochastische proces ergodisch ten aanzien van zijn gemiddelde waarde. Dit betekent dat een willekeurige realisering van het stochastische proces reeds de informatie bevat omtrent de gemiddelde waarde van het stochastische proces als geheel. Deze informatie is in principe te verkrijgen uit een oneindig lange observatie van die ene realisering. Op overeenkomstige wijze kunnen we een schatting voor een gemiddelde kruisproduktfunktie beschouwen die gebaseerd is op een middeling over ´e´en realisering van twee stochastische processen x(k) en y(k). Voor een dergelijke schatting moet het tijdsgemiddelde bepaald worden van het produkt x(k) en y(k + l). Als we nu uitgaan van een observatietijd N ∆t dan kunnen we dit produkt middelen over een tijd (N − l)∆t, zoals is ge¨ıllustreerd in fig. 7.11 voor zowel positieve als negatieve waarden van l. Voor positieve waarden van l wordt, de op een observatietijd N ∆t gebaseerde, schatting: N ˆ xy R (l) =
−l 1 NX x(k)y(k + l) N − l k=1
[7.117]
Een algemene gedaante voor zowel positieve als negatieve waarden van l is te geven als: ˆ N (l) = R xy
N −|l| X 1 x(k)y(k + l) N − |l| k=1
[7.118]
waarbij de variabele k loopt over het interval waarover zowel x(k) als y(k +l) bekend zijn.
7.5
119
Ergodiciteit
Men noemt de stochastische processen x(k) en y(k) ergodisch ten aanzien van hun gemiddelde produktfunktie indien geldt dat: lim
(N −|l|)→∞
ˆ N (l) = Rxy (l) R xy
[7.119]
Merk op dat in deze limiet N − |l| naar oneindig moet. In het geval dat zowel N als |l| naar oneindig gaan, echter zodanig dat het interval N − |l| eindig blijft, kan het zijn dat de schatter niet naar de echte waarde convergeert. Dit houdt in dat voor de tijdverschuiving l willekeurig grote, maar wel eindige waarden beschouwd worden als de observatietijd N naar oneindig gaat. Legt men deze restrictie aan, dan kan men ook schrijven: N ˆ xy lim R (l) = Rxy (l)
N →∞
met |l| < ∞
[7.120]
Men spreekt bij stationaire stochastische processen over ergodisch in de meest algemene zin, als het mogelijk is alle statistische eigenschappen met waarschijnlijkheid 1 uit een enkele realisering van de betrokken processen te bepalen over een oneindig lange observatietijd N ∆t, zij het dat slechts verschuivingen over eindige tijden l∆t kunnen worden beschouwd. Of een stationair stochastisch proces, dan wel een combinatie van twee stationaire stochastische processen, als ergodisch beschouwd kan worden, is als regel moeilijk te bewijzen. Meestal wordt de eigenschap als redelijke veronderstelling ge¨ıntroduceerd als er geen aanwijzingen zijn voor het tegendeel. Het uitgaan van de ergodiciteitseigenschap is namelijk de enige mogelijkheid om de theorie van de stochastische processen toe te passen via schatters die op ´e´en realisering gebaseerd zijn. Het in deze paragraaf ge¨ıntroduceerde begrip ergodiciteit vormt de basis voor de praktische toepassing van de stochastiek. Om deze reden is dit begrip hier al ge¨ıntroduceerd, hoewel het schatten van covariantiefunkties en spectrale dichtheden pas later in dit college aan de orde zal komen. We zullen aan de hand van de, in de voorgaande paragrafen ge¨ıntroduceerde begrippen, de relatie tussen stochastische processen en systemen nader beschouwen. Aldus keren we terug tot de oorspronkelijke probleemstelling, namelijk de identificatie van systemen met ruisvormige ingangssignalen en eveneens ruisvormige storingen. Dit probleem zal in de volgende hoofdstukken nader worden beschouwd.
Hoofdstuk 8 Stochastische processen in het frequentie-domein 8.1 Spectrale dichtheden Zoals reeds in het vorige hoofdstuk werd opgemerkt bevatten gemiddelde produktfunkties en de daarvan afgeleide covariantiefunkties en correlatiefunkties informatie over de frequentieinhoud van stochastische processen. Men kan in principe elk van de genoemde tijdfunkties naar het frequentiedomein transformeren. Men is meestal ge¨ınteresseerd in de fouriergetransformeerde van de covariantiefunktie, deze wordt de spectrale dichtheid genoemd. Men onderscheidt de autospectrale dichtheid: Sxx (ω) = F{Cxx (τ )} =
Z
∞ −∞
Cxx (τ )e−jωτ dτ
[8.1]
en de kruisspectrale dichtheid: Sxy (ω) = F{Cxy (τ )} =
Z
∞ −∞
Cxy (τ )e−jωτ dτ
[8.2]
De covariantiefunkties zijn weer uit de spectrale dichtheden te bepalen door terugtransformatie: 1 Z∞ Cxx (τ ) = Sxx (ω)ejωτ dω [8.3] 2π −∞ 1 Z∞ Sxy (ω)ejωτ dω Cxy (τ ) = 2π −∞ Voor discrete tijd stochastische processen zijn vergelijkbare relaties te geven: Autospectrale dichtheid: Sxx (ω) = ∆t
∞ X
Cxx (l∆t)e−jωl∆t
[8.4]
l=−∞
Kruisspectrale dichtheid: Sxy (ω) = ∆t
∞ X
l=−∞
Cxy (l∆t)e−jωl∆t
[8.5]
122
8
Stochastische processen in het frequentie-domein
In dit hoofdstuk zullen we verder alleen de afleidingen voor het continue geval geven. De afleidingen voor het discrete geval zijn eenvoudig af te leiden. Een nadere interpretatie van het begrip autospectrale dichtheid volgt uit de relatie voor Cxx (0) = σx2 . Deze grootheid is gelijk aan: σx2 =
1 Z∞ Sxx (ω)dω 2π −∞
[8.6]
Deze relatie geeft aan dat de variantie gelijk is aan het oppervlak onder de spectrale dichtheid. De spectrale dichtheid heeft de dimensie van een variantie per eenheid van frequentie en geeft dus informatie hoe de energie in het signaal over de frequenties verdeeld is. De kruisspectrale dichtheid geeft aan hoe het onderling samenhangende deel van twee stochastische processen over de frequenties verdeeld is en tevens over de onderlinge faserelatie als funktie van de frequentie. Dit volgt uit een nadere beschouwing van de uitdrukking voor Sxy (ω). Deze is als volgt verder uit te werken: Sxy (ω) = =
Z
Z
∞ −∞ ∞ −∞
Cxy (τ )e−jωτ dτ Cxy (τ ) cos ωτ dτ − j
= ReSxy (ω) + jImSxy (ω)
Z
∞ −∞
Cxy (τ ) sin ωτ dτ
[8.7]
Het re¨ele deel van Sxy (ω) geeft informatie over de frequentiecomponenten van x(t) en y(t) die met elkaar in fase zijn, het imaginaire deel zegt iets over die componenten die onderling 900 in fase verschoven zijn. De kruisspectrale dichtheid kan behalve door zijn re¨ele en imaginaire deel ook beschreven worden door zijn modulus en argument: |Sxy (ω)| = 6
q
ReSxy (ω)2 + ImSxy (ω)2
Sxy (ω) = arctan
ImSxy (ω) ReSxy (ω)
[8.8]
!
Uitgaande van de eigenschappen van de covariantiefunktie en van de fouriertransformatie kunnen we een aantal eigenschappen van kruisspectrale dichtheden en autospectrale dichtheden afleiden.
8.1
123
Spectrale dichtheden
Eigenschappen spectrale dichtheden Kruisspectrale dichtheid. We zullen eerst de kruisspectrale dichtheid nader bezien. Een kruiscovariantiefunktie is over het algemeen noch symmetrisch noch keersymetrisch. Wel kan de funktie Cxy (τ ) beschouwd worden als de som van een symmetrisch deel en een keersymmetrisch deel. Uit de eigenschappen van de fouriertransformatie (zie wb2203 Systeemtheorie) volgt dat het re¨ele deel van Sxy (ω) te beschouwen is als de fouriergetransformeerde van het symmetrisch deel, het imaginaire deel als de fouriergetransformeerde van het keersymmetrische deel. Verder geldt voor de kruispectrale dichtheden dat: • het re¨ele deel symmetrisch is: ReSxy (−ω) = ReSxy (ω) • het imaginaire deel keersymmetrisch is: ImSxy (−ω) = −ImSxy (ω) In het tijdsdomein geldt de relatie: Cxy (−τ ) = Cyx (τ )
[8.9]
Fouriertransformatie van Cxy (−τ ) levert: Syx (ω) = F{Cyx (τ )} = F{Cxy (−τ )} =
Z
∞ −∞
Cxy (−τ )e−jωτ dτ
[8.10]
Stel τ 0 = −τ dan geldt: Syx (ω) =
Z
∞
−∞
0
Cxy (τ 0 )e−j(−ωτ ) dτ 0 = Sxy (−ω).
[8.11]
In het frequentiedomein geldt dus een overeenkomstige relatie als in het tijdsdomein. Als twee stochastische processen ongecorreleerd zijn, is hun kruisspectrale dichtheid eveneens nul voor elke frequentie. Dit volgt direct door invulling van Cxy (τ ) = 0 in de formule voor Sxy (ω). De waarde van de kruisspectrale dichtheid voor de frequentie ω = 0 is gelijk aan Sxy (0) =
Z
∞ −∞
Cxy (τ )dτ
[8.12]
Deze grootheid is re¨eel en is gelijk aan het oppervlak onder de covariantiefunktie. Omgekeerd geldt dat 1 Z∞ Sxy (ω)dω 2π −∞ Z ∞ Z ∞ 1 = ReSxy (ω)dω + j ImSxy (ω)dω 2π −∞ −∞ Z ∞ Z ∞ 1 1 ReSxy (ω)dω = ReSxy (ω)dω = 2π −∞ π 0
Cxy (0) =
[8.13]
De waarde van Cxy (0) wordt dus uitsluitend door het re¨ele deel van Sxy (ω) bepaald. Autospectrale dichtheid. De autospectrale dichtheid is de fouriergetransformeerde
124
8
Stochastische processen in het frequentie-domein
van de autocovariantiefunktie. Aangezien deze symmetrisch is, is een autospectrale dichtheid re¨eel en symmetrisch. Er is reeds afgeleid dat: σx2
1Z∞ 1 Z∞ Sxx (ω)dω = Sxx (ω)dω = Cxx (0) = 2π −∞ π 0
[8.14]
1 De variantie van een stochastisch proces is gelijk aan 2π maal het oppervlak onder de spectrale dichtheid bij gebruik van de ω-schaal (Bij gebruik van de f -schaal [Hz] 1 ). Zonder op dit moment het bewijs hiervan te leveren wordt hier vervalt de term 2π vermeld dat een autospectrale dichtheid, op te vatten als een variantie per eenheid van frequentie, altijd positief is. Als equivalent van de uitdrukking voor Cxx (0) volgt dat de autospectrale dichtheid voor de frequentie ω = 0 gelijk is aan het oppervlak onder de covariantiefunktie:
Sxx (0) =
Z
∞ −∞
Cxx (τ )dτ = 2
Z
∞ 0
Cxx (τ )dτ
[8.15]
Uit de symmetrie- en keersymmetrie-eigenschappen van zowel de kruisspectrale dichtheid als de autospectrale dichtheid volgt dat alle informatie volledig vast ligt in het frequentiegebied ω > 0. Vandaar dat meestal alleen dit deel wordt afgebeeld. Voorbeelden Om enige indicatie te geven van het verband tussen stochastisch proces, autocovariantiefunktie en autospectrale dichtheid, zijn in fig. 8.1 enkele voorbeelden gegeven, bestaande uit een stukje uit een realisering x(t) van een stochastisch proces met daarnaast de bijbehorende funkties Cxy (τ ) en Sxy (ω). De spectra hebben alle een ge¨ıdealiseerde vorm, maar zijn als zodanig wel bruikbaar om een indicatie te geven omtrent het verband tussen Cxy (τ ) en Sxy (ω). Stochastisch proces met bandbreedte ω1 . Het eerste voorbeeld geeft een stochastisch proces waarvan de energie gelijkmatig verdeeld is over een frequentiegebied |ω| < ω1 en daarbuiten nul is. Men zegt dat het stochastische proces een bandbreedte van ω1 rad/s heeft. De frequentie ω1 wordt wel de afsnij-frequentie genoemd. De covariantiefunktie die hoort bij dit stochastische proces is te schrijven als Cxx (τ ) =
a Z ω1 jωτ aω1 sin ω1 τ e dω = 2π −ω1 π ω1 τ
De variantie van dit stochastische proces is σx2 = Cxx (0) =
[8.16] aω1 . π
Laagfrequente ruis. In het tweede voorbeeld zijn de gedaanten van Sxy (ω) en Cxy (τ ) gelijk aan die van het voorgaande geval, alleen is de bandbreedte twee keer zo klein, de hoogte van de spectrale dichtheid is echter twee keer zo groot, zodat de variantie Cxy (0), zijnde het oppervlak onder de spectrale dichtheid, gelijk gebleven is. Aangezien tijd en frequentie elkaars inverse zijn, betekent een versmalling van Sxy (ω) een verbreding van Cxy (τ ).
8.1
Spectrale dichtheden
125
Stochastisch proces, covariantiefunktie en spectrale dichtheid voor enkele gevallen.
Figuur 8.1:
Sinus. Het derde voorbeeld hoort bij het stochastische proces uit figuur 8.1. Hiervoor was afgeleid dat Cxx (τ ) = 0.5a2 cos ωτ , als a de amplitude is van de realiseringen van het stochastische proces x = a sin(ωt + ψ), waarbij ψ een randomvariabele is. Zoals aangegeven in par. 2.2 is dan de bijbehorende spectrale dichtheid: Sxx (ω) = 0.5πa2 (δ(ω − ω1 ) + δ(ω + ω1 )) Nauweband-ruis. Het volgende voorbeeld geeft een nauweband-ruis, met een gemiddelde frequentie ω1 . Deze gemiddelde frequentie is ook in de covariantiefunktie terug te vinden. De mate waarin de cosinus in de covariantiefunktie uitdempt zegt
126
8
Stochastische processen in het frequentie-domein
iets over de breedte van de frequentieband. Hoe smaller de band hoe minder sterk de funktie uitdempt. Uit het feit dat Sxx (0) = 0 volg dat het oppervlak onder de funktie Cxx (τ ) nul moet zijn. Witte ruis. Het laatste voorbeeld staat bekend als continue witte ruis. In het frequentiedomein wordt dit gekarakteriseerd door Sxx (ω) = c voor −∞ ≤ ω ≤ ∞. De naam witte ruis is ontstaan naar analogie van wit licht, d.w.z. licht dat alle kleuren bevat. De bijbehorende covariantiefunktie is een gewogen diracpuls: Cxx (τ ) = cδ(τ ). R∞ Dit is eenvoudig te controleren want: Sxx (ω) = −∞ cδ(τ )e−jωτ dτ = c. De uitdrukking voor Cxx (τ ) betekent dat E{x(t)x(t + τ )} = 0 hoe klein τ ook is. Verder betekent het dat de variantie van x(t) oneindig groot is. De getekende realisering klopt dan ook niet. In verticale richting moet de figuur oneindig ver uitgerekt worden en in horizontale richting oneindig sterk in elkaar geperst. Witte ruis is iets dat fysisch niet bestaat, maar in de regeltechniek is het een belangrijk begrip dat veel rekenwerk vereenvoudigt en als zodanig zal het in een later stadium ook nog naar voren komen.
8.2 Een gemodificeerde fouriertransformatie In het tijdsdomein kunnen stochastische processen worden beschreven, uitgaande van de verdelings- en verdelingsdichtheidsfunkties, met deterministische grootheden zoals gemiddelde produktfunkties, covariantiefunkties en correlatiefunkties. Deze laatste grootheden kunnen weer worden afgebeeld in het frequentiedomein. Dit levert de spectrale dichtheden en de coherentiefunktie. E´en en ander is schematisch afgebeeld in fig. 8.2. Relaties tussen de deterministische grootheden waarmee stochastisch processen gekarakteriseerd worden, zijn afhankelijk van de eigenschappen van tussenliggende systemen. In het tijdsdomein zijn deze relaties altijd convolutieintegralen. Voor heel eenvoudige gevallen zijn deze nog wel te beschrijven. In samengestelde systemen wordt dit echter een moeilijke, zo niet onmogelijke, zaak. In het frequentiedomein daarentegen worden dit eenvoudige vermenigvuldigingen en delingen. De vraag rijst dan ook of het mogelijk is stochastische processen direct te transformeren naar het frequentiedomein, ze daar te karakteriseren door nieuwe verdelingsdichtheidsfunkties, om vervolgens langs deze weg tot spectrale dichtheden te komen. Deze weg is in fig. 8.2 met streeplijnen en vraagtekens aangeduid. In eerste instantie is het antwoord op deze vraag nee, zoals uit de volgende paragraaf zal blijken. Het zal echter ook blijken dat, na het introduceren van een gemodificeerde fouriertransformatie, deze weg wel gevolgd kan worden, mits de beschouwde stochastische processen behalve stationair ook ergodisch zijn. De kruisspectrale dichtheid van twee stationaire stochastische processen x(t) en y(t) is gedefinieerd als: Sxy (ω) = F{Cxy (τ )} =
Z
∞ −∞
Cxy (τ )e−jωτ dτ
[8.17]
8.2
127
Een gemodificeerde fouriertransformatie
Beschrijving van stochastische processen in tijdsdomein en frequentiedomein met behulp van deterministische grootheden. Figuur 8.2:
met, voor het geval dat de gemiddelde waarden nul zijn, Cxy (τ ) = E{x(t)y(t + τ )} =
Z
∞ −∞
Z
∞ −∞
xyfxy (x, y; τ )dxdy
[8.18]
Als de processen ergodisch zijn geldt echter ook dat: Cxy (τ ) = E{Cˆxy (τ )} = E
(
) T 1Z 2 x(t)y(t + τ )dt lim T →∞ T − T 2
[8.19]
In deze uitdrukking is T de voor integratie beschikbare tijd. Bij een signaallengte T0 en een tijdverschuiving τ is deze gelijk aan T = T0 − |τ | , zie ook paragraaf 7.5 (discreet). Fouriertransformatie geeft: Sxy (ω) = lim
Z
T 2
T →∞ − T 2
) T 1Z 2 E x(t)y(t + τ )dt e−jωτ dτ T − T2 (
[8.20]
Er kan aangetoond worden dat dit equivalent is met " T # "Z T #) 1 Z 2 2 −j(−ω)t −jωt x(t)e dt y(t)e dt Sxy (ω) = E lim T →∞ T − T2 − T2 (
[8.21]
128
8
Stochastische processen in het frequentie-domein
hetgeen overeenkomt met ∞·∞ , omdat x(t) en y(t) niet voldoen aan de voorwaarde ∞ dat ze naar nul gaan voor t → −∞ en t → ∞. Het resultaat moet echter wel iets eindigs opleveren. Om dit probleem op te lossen wordt nu voor stochastische processen een gemodificeerde fouriertransformatie gedefinieerd, namelijk: T 1 Z 2 Fs {x(t)} = lim √ x(t)e−jωt dt = X(ω) T →∞ T − T2
[8.22]
Het enige verschil met de bestaande fouriertransformatie is, dat de te transformeren signalen een normeringsconstante hebben meegekregen die er voor zorgt dat de operator Fs {. . .} een eindige ´e´enduidige waarde oplevert. Op zich is dit niets nieuws wanneer deze transformatie wordt vergeleken met de eerder behandelde wijzen van afbeelden in het frequentiedomein: fourierreeks: fouriertransformatie: gemodificeerde fouriertransforatie:
j2πkt 1 Z to +T xk = x(t)e− T dt T Zt0
X(ω) =
∞
−∞
[8.23]
x(t)e−jωt dt
T 1 Z 2 X(ω) = lim √ x(t)e−jωt dt T →∞ T − T2
Gebruik makend van de gemodificeerde fouriertransformatie is de kruisspectrale dichtheid voor stationaire ergodische processen te schrijven als: Sxy (ω) = E{X(−ω)Y(ω)}
[8.24]
Voor het geval dat y(t) = x(t) ontstaat de overeenkomstige uitdrukking voor autospectrale dichtheden, namelijk: Sxx (ω) = E{X(−ω)X(ω)} = E{ lim |XT (ω)|2 } T →∞
[8.25]
T
met XT (ω) = √1T −2T x(t)e−jωt dt. De uitdrukking |XT (ω)|2 wordt ook wel het peri2 odogram genoemd van X(ω) over een interval met lengte T . Deze geeft aan hoe het vermogen over de frequenties is verdeeld. Het praktisch nut van de gemodificeerde fouriertransformatie is zeer groot. In theoretische beschouwingen over relaties in samengestelde systemen kunnen nu op zeer eenvoudige wijze relaties tussen spectrale dichtheden en overdrachtsfunkties worden afgeleid. Dit zal worden ge¨ıllustreerd in het volgende hoofdstuk. R
8.3 De coherentie Zoals in het tijdsdomein het begrip correlatiefunktie is gedefinieerd als een maat voor de samenhang tussen twee stochastische processen, bestaat er ook in het frequentiedomein een enigszins vergelijkbaar begrip. De correlatiefunctie was gedefinieerd als de genormeerde covariantiefunktie: Kxy (τ ) =
Cxy (τ ) σx σy
[8.26]
8.3
129
De coherentie
Voor de correlatiefunctie geldt: −1 ≤ Kxy (τ ) ≤ 1. Een dergelijk concept is niet zonder meer vertaalbaar, omdat de spectrale dichtheid Sxy (ω) een complexe grootheid is. Verder is het zo dat de variantie van een stochastisch proces in het frequentiedomein als het ware verdeeld is langs de frequentieas en wordt gekarakteriseerd door de autospectrale dichtheid. Coherentie. In het frequentie domein heeft men het begrip coherentie ingevoerd dat gedefinieerd is als: v u u Γxy (ω) = t
|Sxy (ω)|2 Sxx (ω)Syy (ω)
[8.27]
Voor de coherentiefunktie geldt: 0 ≤ Γxy (ω) ≤ 1. Dit is als volgt te zien: Stel dat er geen verband is tussen de stochastische processen x(t) en y(t) dan geldt Sxy (ω) = 0 ∀ω en dus geldt ook Γxy (ω) = 0 ∀ω. Een maximaal verband ontstaat in het geval dat geldt: x(t) = y(t) of x(t) = −y(t). In beide gevallen geldt: Sxx (ω) = Syy (ω) en |Sxy (ω)|2 = (Sxx (ω))2 , waardoor dan geldt dat Γxy (ω) = 1 ∀ω. De coherentiefunktie is dus altijd positief, omdat deze afkomstig is van gekwadrateerde grootheden; dit in tegenstelling tot de correlatiefunktie, die altijd tussen -1 en +1 ligt. Recapitulatie. In dit hoofdstuk is onderzocht hoe stochastische processen naar het frequentiedomein zijn te transformeren. Dit bleek mogelijk na introduktie van een gemodificeerde fouriertransformatie. Hierdoor kan in het frequentiedomein de behandeling beperkt blijven tot uitsluitend algebra¨ısche vergelijkingen.
Hoofdstuk 9 Identificatie van systemen met stochastische ingangen In dit hoofdstuk zullen enkele relaties tussen spectrale dichtheden en overdrachtsfunkties worden afgeleid. Systeemidentificatietechnieken met behulp van spectrale dichtheden worden in het algemeen toegepast als men nog weinig of niets van het systeem af weet. De resultaten komen beschikbaar in de vorm van bodediagrammen. Het bodediagram geeft informatie over de struktuur en de parameters van het systeem. De struktuur van het systeem heeft betrekking op de orde van telleren noemerpolynoom van de overdrachtsfunktie en op het al of niet aanwezig zijn van een voortplantingstijd. De parameters geven de numerieke waarden aan van de coefficienten in de overdrachtsfunktie. Het bepalen van een bodediagram met behulp van spectrale dichtheden is vaak een eerste stap in de systeemidentificatie. Op het moment dat men de struktuur kent, kan men gebruik maken van deze informatie om vervolgens de parameters van het systeem te schatten. Ter onderscheiding van parameterschattingsmethoden staat de hierna te behandelen aanpak ook wel bekend als niet-parametrische systeemidentificatie. In dit hoofstuk zullen enkele algemene relaties (in continue tijd) worden behandeld. In het laatste hoofstuk zal worden ingegaan op de toepassing van systeemidentificatie in de praktijk (discrete tijd en beperkte meettijd). In par. 9.1 wordt met behulp van de in het frequentiedomein gevonden relaties een nader onderzoek ingesteld naar mogelijke problemen bij identificatie in open en gesloten ketens. In par. 9.2 wordt nader ingegaan op identificatie van de beschrijvende functie van een niet lineair systeem in een gesloten keten.
132
9
Identificatie van systemen met stochastische ingangen
n(t) u(t)
y(t)
+
+ ? e
- h(t)
-
Een lineair systeem met een stochastisch ingangsproces, waarvan de uitgang verstoord is door een, eveneens stochastisch, proces. Voor de uitgang geldt: uy (ω) . y(t) = x(t) + n(t). Als de ruis ongecorreleerd is met de ingang geldt: H(ω) = SSuu (ω)
Figuur 9.1:
9.1 Identificatie van lineaire systemen 9.1.1 Bepaling van overdrachtsfunkties en andere relaties uit spectrale dichtheden via het tijdsdomein We beschouwen een lineair systeem, gekarakteriseerd door zijn impulsresponsie h(t). Het systeem heeft een stochastisch proces u(t) als ingang. De responsie x(t) op dit ingangsproces wordt verstoord door additieve ruis n(t), zodat het meetbare uitgang y(t) gelijk is aan y(t) = x(t) + n(t) (zie fig. 9.1). Voor de ingangs-uitgangsrelatie van het systeem geldt: y(t) = n(t) + x(t) = n(t) +
Z
∞ −∞
h(t0 )u(t − t0 )dt0
[9.1]
We stellen ons nu ten doel de relatie te vinden waarmee we de invloed van de ruis n(t) kunnen elimineren. Met dit doel voor ogen voeren we de volgende stappen uit: • Verschuif het proces y(t) over een tijd τ : y(t + τ ) = n(t + τ ) +
Z
∞ −∞
h(t0 )u(t + τ − t0 )dt0
[9.2]
• Vermenigvuldig het proces y(t + τ ) met een hulpproces z(t) waarvan de eigenschappen nog nader gekozen zullen worden: z(t)y(t + τ ) = z(t)n(t + τ ) +
Z
∞ −∞
h(t0 )z(t)u(t + τ − t0 )dt0
[9.3]
• Neem nu de verwachtingswaarde van het produkt, dit levert: Rzy (τ ) = Rzn +
Z
∞ −∞
h(t0 )Rzu (τ − t0 )dt0
[9.4]
• Als regel zijn we geinteresseerd in de variaties ten opzicht van de gemiddelde waarde. Als we daarom in plaats van de gemiddelde produktfunktie de covariantiefunktie beschouwen, krijgen we: Czy (τ ) = Czn +
Z
∞ −∞
h(t0 )Czu (τ − t0 )dt0
[9.5]
9.1
Identificatie van lineaire systemen
133
• Als we nu in staat zijn een hulpproces z(t) te kiezen dat ongecorreleerd is met de ruis n(t), maar wel gecorreleerd met het ingangsproces u(t), d.w.z. Czn (τ ) = 0 ∀τ en ∃τ Czu (τ ) 6= 0, dan gaat de vergelijking over in: Czy (τ ) =
Z
∞ −∞
h(t0 )Czu (τ − t0 )dt0
[9.6]
We hebben nu een verband waaruit de invloed van de ruis is geelimineerd. De keuze van het hulp proces z(t) zullen we illustreren aan twee veel voorkomende gevallen. Systeem in open keten. In fig. 9.1 is een systeem gegeven in een open keten. Stel dat nu gegeven is dat de ruis n(t) ongecorreleerd is met de ingang u(t). In dat geval voldoet u(t) zelf aan de eisen die aan een hulpproces z(t) worden gesteld. De vergelijking voor de ingangs en uitgangsrelatie wordt dan: Cuy (τ ) =
Z
∞ −∞
h(t0 )Cuu (τ − t0 )dt0
[9.7]
In de configuratie van fig. 9.1 is het vrij aannemelijk dat de ingang en de storing verschillende oorzaken hebben en dus ongecorreleerd zijn. De hier gegeven uitdrukking, namelijk een convolutie in het tijdsdomein, is niet het meest handige om het systeem te identificeren omdat de onbekende impulsresponsie h(t) in een integraalvergelijking voorkomt. Handiger is om de overdrachtsfunctie H(ω) uit een algebraische vergelijking in het frequentiedomein te bepalen. De algemene uitdrukking wordt dan: H(ω) =
Suy (ω) Suu (ω)
[9.8]
Voor een systeem in een open keten is behalve de overdrachtsfunktie ook de spectrale dichtheid van de restruis te bepalen via de volgende stappen: • Als u(t) en n(t) ongecorreleerd zijn dan geldt: Sun (ω) = 0 en Sxn (ω) = 0 ∀ω
[9.9]
• Als Sxn (ω) = 0 ∀ω dan geldt Syy (ω) = Sxx (ω) + Snn (ω)
[9.10]
1 • Uit de relaties Sux (ω) = H(ω)Suu (ω), Sxu (ω) = H(ω) Sxx (ω) en Sxu (ω) = Sux (−ω) = H(−ω)Suu (−ω) = H(−ω)Suu (ω) kan afgeleid worden dat:
Sxx (ω) = H(ω)H(−ω)Suu (ω) = |H(ω)|2 Suu (ω)
[9.11]
• Uit de combinatie van vgl. [9.10] en vgl. [9.11] volgt dan: Snn (ω) = Syy (ω) − |H(ω)|2 Suu (ω)
[9.12]
134
9
Identificatie van systemen met stochastische ingangen
n(t) r(t)
e(t)
-e + -6
-
g(t) regelaar
u(t)
- h(t)
+
+ ? e
y(t) -
systeem
Figuur 9.2: Een lineair systeem met een verstoring op de uitgang in een configuratie
met terugkoppeling. Indien r(t) ongecorreleerd is met de ruis in de keten geldt: ry (ω) . H(ω) = SSru (ω) Systeem in gesloten keten. In het tweede geval, dat afgebeeld is in fig. 9.2 zullen de ingang u(t) van het systeem en de storing n(t) niet meer onderling ongecorreleerd kunnen zijn, omdat de verstoring via de terugkoppelbaan weer in de ingang van het systeem terechtkomt. Het is in deze configuratie wel aannemelijk dat de storing n(t) ongecorreleerd is met het van buiten de keten komende proces r(t). In dit geval zal z(t) = r(t) een bruikbare keuze zijn en dan geldt: Cry (τ ) =
Z
∞ −∞
h(t0 )Cru (τ − t0 )dt0
[9.13]
Na transformatie van deze vergelijking naar het frequentiedomein krijgen we: H(ω) =
Sry (ω) Sru (ω)
[9.14]
We zijn dus inderdaad in staat de overdrachtsfunktie te bepalen van een systeem met een ruisvormig ingang en een ruisvormige verstoring, mits we een stochastisch proces kunnen vinden dat ongecorreleerd is met de storing, maar gecorreleerd met de ingang.
9.1.2 Bepaling van overdrachtsfunkties uit spectrale dichtheden via directe relaties in het frequentiedomein. De in vorige paragraaf afgeleide relaties kunnen ook op een meer directe manier in het frequentiedomein worden afgeleid gebruikmakend van de eerder afgeleide gemodificeerde fouriertransformatie. Voor de relaties tussen de signalen van fig. 9.1 geldt, gebruikmakend van deze transformatie: Y(ω) = H(ω)U(ω) + N(ω)
[9.15]
Vermenigvuldigen met een willekeurig signaal Z(−ω) levert: Z(−ω)Y(ω) = H(ω)Z(−ω)U(ω) + Z(−ω)N(ω)
[9.16]
De verwachtingswaarde van deze uitdrukking levert de volgende relatie tussen spectrale dichtheden: Szy (ω) = H(ω)Szu (ω) + Szn (ω)
[9.17]
9.1
Identificatie van lineaire systemen
135
In het algemeen kan gesteld worden dat uit een relatie tussen stochastische signalen in het frequentiedomein, direct de relatie tussen spectrale dichtheden met een te kiezen hulpproces volgt. Merk op dat voor de signalen de gemodificeerde fouriertransmformatie gebruikt is maar dat de overdrachtsfunctie de normale fouriergetransformeerde is van de impulsresponsie. Een uitdrukking voor de autospectrale dichtheid van de ruis is nu ook eenvoudig af te leiden. Uit de uitdrukking voor het proces Y(ω) volgt namelijk: Syy (ω) = E{Y(−ω)Y(ω)} = E{[H(−ω)U(−ω) + N(−ω)][H(ω)U(ω) + N(ω)] = |H(ω)|2 Suu (ω) + H(−ω)Sun (ω) + H(ω)Snu (ω) + Snn (ω) [9.18] Uit de symmetrieeigenschappen van spectrale dichtheden volgt dat Snu (ω) = Sun (−ω), zodat de middelste twee termen te schrijven zijn als: H(−ω)Sun (ω) + H(ω)Sun (−ω) = H(−ω)Sun (ω) + [H(−ω)Sun (ω)]∗
[9.19]
waarbij het ∗-teken de toegevoegd complexe aangeeft. Aangezien voor de fouriergetransformeerde van re¨ele functies in het tijdsdomein geldt dat het re¨ele deel symmetrisch is en het imaginaire deel keersymmetrisch, worden de re¨ele delen bij elkaar opgeteld en de imaginaire delen vallen weg, zodat uiteindelijk geldt: Syy (ω) = |H(ω)|2 Suu (ω) + Snn (ω) + 2Re{H(ω)Sun (ω)}
[9.20]
In het geval van een systeem in een open keten met Sun (ω) = 0 volgt dan de eerder afgeleide relatie van vgl. [9.12]. Merk op dat langs deze weg op een eenvoudige manier het veel algemenere geval verkregen wordt door pas aan het eind het geval van ongecorreleerde ruis te beschouwen zoals dat als regel het geval is in een open keten. In een gesloten keten geldt altijd dat Sun (ω) 6= 0. De gevonden uitdrukking voor Sun (ω) 6= 0 is eveneens via het tijdsdomein af te leiden, maar dit vraagt een aanzienlijke langere weg die hier achterwege gelaten zal worden. Wanneer het gaat om wat ingewikkelder relaties is een afleiding via het tijdsdomein echter niet meer mogelijk en is de directe afleiding in het frequentiedomein de enige manier. De volgende paragraaf geeft hiervan een interessante illustratie.
9.1.3 Schatten in een gesloten keten. Wat kan er mis gaan? In de meeste boeken op het gebied van de stochastiek ligt het accent op het karakteriseren van de signalen d.m.v. hun covariantiefunctie of autospectrale dichtheden en de toepassing van filtertechnieken. De toepassing voor systeemidentificatie komt meestal maar summier aan de orde en als regel wordt dan uitgegaan van een systeem in een open keten, waarbij dan uiteraard verondersteld wordt dat de ruis ongecorreleerd is met het ingangsproces. Er wordt dan ook niet uitgegaan van het concept van een hulpproces z(t) dat aan bepaalde eisen moet voldoen, maar er wordt direct uitgegaan van de relatie tussen de autospectrale dichtheid van het ingangsproces (of ”de ingang”) en de kruisspectrale dichtheid tussen in- en uitgang als een vanzelfsprekende zaak. Dit brengt velen in de verleiding om deze methode altijd toe te
136
9
Identificatie van systemen met stochastische ingangen
N(ω) R(ω)
E(ω)
-e + -6
- H1 (ω)
regelaar Figuur 9.3:
U(ω)
- H2 (ω)
+
+ ? e
Y(ω) -
systeem Een systeem in een gesloten keten.
passen, ook voor systemen in een gesloten keten. In de praktijk is dit nu juist het meest voorkomende geval bij metingen aan systemen in bedrijf. Zoals al opgemerkt wordt de juiste relatie gevonden m.b.v. de uitdukking H(ω) = Sry (ω) , waarbij r(t) een extern referentieproces is dat ongecorreleerd is met de ruis. Sru (ω) Voor deze situatie, zoals weergegeven in fig. 9.3 zullen we nu bezien wat het resultaat is van de toepassing van de open keten methode voor het identificeren in de gesloten keten. uy (ω) Voor het berekenen van de uitkomst H20 (ω) = SSuu drukken we de signalen U(ω) (ω) en Y(ω) in de keten uit in de twee van buiten komen de onderling ongecorreleerde signalen R(ω) en N(ω). Dit resulteert in: H1 (ω) H1 (ω) R(ω) − N(ω) 1 + H1 (ω)H2 (ω) 1 + H1 (ω)H2 (ω) 1 H1 (ω)H2 (ω) Y(ω) = R(ω) + N(ω) 1 + H1 (ω)H2 (ω) 1 + H1 (ω)H2 (ω) U(ω) =
Gemakshalve defini¨eren we de grootheid T (ω) =
1 . 1+H1 (ω)H2 (ω)
Er geldt dan:
Suu (ω) = E{U(−ω)U(ω)} = |H1 (ω)T (ω)|2 Srr (ω) + |H1 (ω)T (ω)|2 Suu (ω) Suy (ω) = E{U(−ω)Y(ω)} = |H1 (ω)T (ω)|2 H2 (ω)Srr (ω) − H1 (−ω)|T (ω)|2 Suu (ω) waaruit volgt: H20 (ω)
|H1 (ω)T (ω)|2 H2 (ω)Srr (ω) − H1 (−ω)|T (ω)|2 Suu (ω) Suy (ω) = = Suu (ω) |H1 (ω)T (ω)|2 Srr (ω) + |H1 (ω)T (ω)|2 Suu (ω)
[9.21]
Boven en onder delen door H1 (−ω)|T (ω)|2 levert dan:
H1 (ω)H2 (ω)Srr (ω) − Snn (ω) H1 (ω)(Srr (ω) + Snn (ω)) Snn (ω) Srr (ω) 1 = H2 (ω) − Srr (ω) + Snn (ω) H1 (ω) Srr (ω) + Snn (ω)
H20 (ω) =
[9.22]
Voor een nadere interpretatie bezien we het blokschema. Het verband tussen U(ω) en Y(ω) wordt gegeven door twee relaties, die in de voorwaartse tak via H 2 (ω) en via de terugkoppelbaan van Y(ω) naar U(ω) via −H1 (ω), dus van U(ω) naar Y(ω) via − H11(ω) . De invloed van de signalen r(t) en n(t) volgt uit het beschouwen van twee uiterste gevallen: Snn (ω) = 0 Srr (ω) = 0
levert H20 (ω) = H2 (ω) levert H20 ω) = − H11(ω)
9.2
137
Identificatie van niet-lineaire systemen
u(t)
-
y(t)
-
NL
x(t) + ? - e(t)-e
- lineair systeem
Benadering van een niet-lineair systeem met een stochastische ingang door een lineair model. Figuur 9.4:
M.a.w. het hangt af van de sterkte van de ruis t.o.v. de externe ingang of de uitkomst dichter bij H2 (ω) of bij − H11(ω) zal liggen. Meestal is de ruis in de keten onbekend. Echter ook al zijn zowel de externe ingang en de ruis als de overdrachtsfunctie van de regelaar H1 (ω) bekend, zodat H2 (ω) gereconstrueerd zou kunnen worden, dan nog is deze methode niet aan te bevelen.
9.2 Identificatie van niet-lineaire systemen We beschouwen een constant niet-lineair systeem met een stationair stochastisch proces u(t) aan de ingang. Dit systeem willen we benaderen door een lineair model met impulsresponsie h(t), zodanig dat het verschil e(t) tussen systeemuitgang y(t) en de modeluitgang x(t) minimaal is (fig. 9.4). We schrijven het stochastische proces e(t) als funktie van de, bekend veronderstelde, stochastische processen u(t) en y(t) en de onbekende impulsresponsie h(t), nl: e(t) = y(t) − x(t) = y(t) −
Z
∞ −∞
h(t1 )u(t − t1 )dt1
[9.23]
Als te minimaliseren grootheid kiezen we de variantie van e(t), dus E{e(t) 2 }. Hiervoor kunnen we schrijven: 2
2
E{e(t) } = E{y(t) } − 2E{y(t) + E{
Z
∞
−∞
+
∞
−∞
Z
∞ −∞
h(t1 )u(t − t1 )dt1
= E{y(t)2 } − 2 Z
Z
∞
−∞
Z
∞
−∞
h(t1 )u(t − t1 )dt1 } +
Z
∞
−∞
[9.24]
h(t2 )u(t − t2 )dt2 }
h(t1 )E{u(t − t1 )y(t)}dt1
h(t1 )h(t2 )E{u(t − t1 )u(t − t2 )}dt1 dt2
De beschouwde stochastische processen beschrijven variaties rond een werkpunt van het niet-lineaire systeem. De processen hebben daarom een gemiddelde waarde nul en de verwachtingswaarden leiden dan tot covarianties, dus: V = Cee (0) [9.25] R∞ R∞ R∞ = Cyy (0) − 2 −∞ h(t1 )Cuy (t1 )dt2 + −∞ −∞ h(t1 )h(t2 )Cuu (t1 − t2 )dt1 dt2
138
9
Identificatie van systemen met stochastische ingangen
Het te minimaliseren criterium V is door het nemen van de verwachtingswaarde een deterministische funktie geworden. Het probleem dat overblijft is nu het minimaliseren van een criterium naar een funktie, in dit geval h(t), in plaats van naar een constante. De oplossing wordt gegeven door de variatierekening. Stel: h(t) = h0 (u, t) + he (t)
[9.26]
Waarbij h0 (u, t) de optimale funktie is en he (t) een willekeurige funktie. Voor de optimale impulsresponsie moet gelden = 0. Ga nu het criterium minimaliseren naar . Invullen van vgl. [9.26] in vgl. [9.25] en differentieren naar levert: ∂V ∂
= −2 Z
+
∞
Z
he (t1 )Cuy (t1 )dt1 + 2
−∞ ∞ Z ∞
−∞
−∞
Z
∞ −∞
Z
∞ −∞
he (t1 )he (t2 )Cuu (t1 − t2 )dt1 dt2
[h0 (u, t1 )he (t2 ) + h0 (u, t2 )he (t1 )]Cuu (t1 − t2 )dt1 dt2
De oplossing moet gelden voor elke willekeurige funktie he (t) en voor = 0, dus: −2
Z
∞
he (t1 )Cuy (t1 )dt1 −∞ R∞ R∞ + −∞ −∞ [h0 (u, t1 )he (t2 )
[9.27] + h0 (u, t2 )he (t1 )]Cuu (t1 − t2 )dt1 dt2 = 0
Omdat Cuu (t1 − t2 ) = Cuu (t2 − t1 ), leveren beide termen onder het dubbele intergraalteken dezelfde uitkomst. Deze uitdrukking is daarom ook te schrijven als: Z
∞ −∞
he (t1 )[
Z
∞ −∞
h0 (u, t2 )Cuu (t1 − t2 )dt2 − Cuy (t1 )]dt1 = 0
[9.28]
Dit resultaat moet gelden voor iedere willekeurige funktie he (t). Dit kan alleen als de uitdrukking tussen de rechte haken nul is, dus: Z
∞ −∞
h0 (u, t2 )Cuu (t1 − t2 )dt2 − Cuy (t1 ) = 0 voor −∞ ≤ t1 ≤ ∞
[9.29]
Noem t1 = τ en t2 = t0 , dan is dit ook te schrijven als: Cuy (τ ) =
Z
∞ −∞
h0 (u, t0 )Cuu (τ − t0 )dt0
voor −∞ ≤ τ ≤ ∞
[9.30]
Dit is precies de uitdrukking die gevonden werd in par 9.1 als oplossing voor het elimineren van ruis bij het identificeren van een lineair systeem in een open keten. Voor de waarde van h0 (u, t0 ) die aan bovenstaande integraalvergelijking voldoet is het mogelijk de covariantiefunktie Cue (τ ) te berekenen. Uit e(t) = y(t) − x(t) volgt: Cue (τ ) = Cuy (τ ) − Cux (τ ) Verder geldt x(t) =
R∞
−∞
h0 (u, t0 )u(t − t0 )dt0 en dus
Cux (τ ) = E{u(t)x(t + τ )} = =
Z
∞ −∞
[9.31]
Z
∞ −∞
h0 (u, t0 )E{u(t)u(t + τ )}dt
h0 (u, t0 )Cuu (τ − t0 )dt0 = Cuy (τ )
[9.32]
9.2
139
Identificatie van niet-lineaire systemen
u(t)
-
y(t) NL
- lineair systeem
-
n(t) x(t) + ? + y(t) -e
-
Vervangingsschema voor een niet-lineair systeem met een stochastisch proces als ingang. Figuur 9.5:
zodat Cue (τ ) = Cuy (τ ) − Cux (τ ) = 0
[9.33]
Samenvattend: Een niet lineair systeem met een stochastisch proces op de ingang (Fig. 9.4) kan worden beschreven door middel van een combinatie van een lineair model en een stochastisch proces n(t), dat wordt opgeteld bij de uitgang van het lineaire model (fig 9.5), zodanig dat weer het stochastisch proces y(t) van de uitgang van het oorspronkelijke niet-lineaire systeem ontstaat. In principe bestaat er een oneindig aantal mogelijke combinaties van een lineair model en een restruis n(t) dat de uitgang y(t) kan opleveren bij een gegeven u(t). Uit dit oneindig aantal mogelijkheden wordt echter een unieke combinatie gekozen, namelijk dat lineaire model met impulsresponsie h0 (u, t), dat er voor zorgt dat de variantie van n(t) minimaal is. Deze restruis blijkt dan ongecorreleerd te zijn met u(t). Deze optimale impulsresponsie h0 (u, t) is de oplossing van een integraalvergelijking. De beschrijving van het lineaire systeem is het gemakkelijkst te vinden in het frequentiedomein als oplossing van de vergelijking: Suy (ω) = H(u, ω)Suu (ω)
ofwel H(u, ω) =
Suy (ω) Suu (ω)
[9.34]
De overdrachtsfunctie H(u, ω) is niet alleen een funktie van de frequentie ω maar ook van het ingangsproces u(t), daarom duiden we hem aan met H(u, ω) i.p.v. H(ω). Deze functie staat bekend als de beschrijvende functie van het niet-lineaire systeem voor stochastische ingangen. Uit het feit dat Sun (ω) = 0, volgt volgens vgl. [9.12] dat het spectrum van de restruis n(t) te bepalen is uit: Snn (ω) = Syy (ω) − |H(u, ω)|2 Suu (ω)
[9.35]
We kunnen nu een vergelijking maken met de beschrijvende funktie, zoals voor deterministische signalen is bepaald in par 2.4. In beide gevallen zijn we volgens dezelfde gedachtengang te werk gegaan. Minimalisatie van het verschil tussen het uitgangssignaal van het niet-lineaire systeem en het uitgangssignaal van het lineaire model met keuze van een kwadratische criterium. Het restsignaal dat overblijft blijkt dan geen lineair verband meer te hebben met het ingangssignaal. Bij een sinusvormig ingangssignaal bestaat het restsignaal dan uit hogere harmonischen. De hier gegeven beschouwing geldt voor een niet-lineair systeem in een open keten. Wanneer het niet-lineaire systeem zich in een gesloten keten bevindt, gelden de hiervoor gegeven relaties niet meer. Af te leiden valt dat dan gebruik gemaakt moet worden van de kruisspectra met het externe ingangssignaal, dus H(u, ω) = Sry (ω) , net zoals bij een lineair systeem. Sru (ω)
140
9
Identificatie van systemen met stochastische ingangen
n(t) u(t)
- h(t)
+
+ ? e
y(t) -
Figuur 9.6: Systeem in open keten.
9.2.1 Coherentie Voor een nadere interpretatie van de coherentiefunctie zoals gedefinieerd in het vorige hoofdstuk beschouwen we het systeem van fig. 9.6 met Sun (ω) = 0. In een dergelijk systeem is men vaak geinteresseerd in het aandeel dat het ruisvrije gedeelte van het uitgangssignaal heeft in het gehele uitgangssignaal, d.w.z. in de verhouding Syy (ω)−Snn (ω) (ω) = SSxx . Syy (ω) yy (ω) Aangezien Sxx (ω) niet direkt te bepalen is, wordt deze grootheid uitgedrukt in, als regel wel te bepalen, spectrale dichtheden en wel als volgt: |H(ω)|2 Suu (ω) Sxx (ω) = Syy (ω) Syy (ω) Voor H(ω) kunnen we invullen: H(ω) = levert dit: |Suy (ω)|2 Sxx (ω) = = Γ2uy (ω) Syy (ω) Suu (ω)Syy (ω)
[9.36] Suy (ω) , Suu (ω)
zodat |H(ω)|2 =
|Suy (ω)|2 2 (ω) . Suu
Ingevuld [9.37]
In dit geval geeft de coherentie de mate van lineaire samenhang tussen ingangsen uitgangssignaal van een systeem, ongeacht de vorm van de tussenliggende overdrachtsfunktie. Zoals reeds opgemerkt ligt de coherentie altijd tussen 0 en 1. In het geval x(t) = 0, dus y(t) = n(t) geldt dat Γuy (ω) = 0. In het geval dat n(t) = 0, dus y(t) = x(t) geldt Γuy (ω) = 1. Uiteraard kan men ook de coherentie tussen twee signalen bepalen die niet op te vatten zijn als een ingang en een uitgang van een systeem. Ze kunnen bijvoorbeeld beide een gevolg zijn van een gemeenschappelijke oorzaak. Recapitulatie. In dit hoofdstuk is behandeld hoe systemen met stochastische ingangssignalen en, eveneens stochastische, stoorsignalen in principe ge¨ıdentificeerd kunnen worden. Wanneer men in staat is een hulpsignaal te vinden dat gecorreleerd is met de ingang van het systeem, maar ongecorreleerd met het daarop werkende stoorsignaal, dan zijn hiervoor relaties af te leiden in het tijdsdomein. Deze relaties worden gekarakteriseerd door convolutie-integralen die het verband geven tussen impulsresponsies en covariantiefunkties. Door deze relaties te transformeren naar het frequentiedomein ontstaan algebra¨ısche vergelijkingen die veel gemakkelijker te hanteren zijn. Deze geven het verband tussen overdrachtsfunkties en spectrale dichtheden. Wanneer het te identificeren systeem deel uitmaakt van een groter geheel, worden de vergelijkingen in het tijdsdomein al gauw ingewikkeld en ondoorzichtig. Transformeren van stochastische processen naar het frequentiedomein is mogelijk door het
9.2
Identificatie van niet-lineaire systemen
141
gebruik van de in het vorige hoofdstuk ge¨ıtroduceerde gemodificeerde fouriertransformatie. Hierdoor kan in het frequentiedomein de behandeling beperkt blijven tot uitsluitend algebra¨ısche vergelijkingen.
Hoofdstuk 10 Schatten van spectrale dichtheden en overdrachtsfunkties Zoals we tot nog toe gezien hebben, kunnen stochastische processen gekarakteriseerd worden door deterministische grootheden, zoals covariantiefunkties in het tijdsdomein en spectrale dichtheden in het frequentiedomein. Om dit soort grootheden te bepalen, moeten we een tweedimensionale verdelingsdichtheidsfunktie kennen, die bovendien nog een funktie is van de tijd. In de praktijk kennen we die nooit. Het enige wat we kunnen doen is ´e´en realisering van een stochastisch proces meten over een eindige tijd. Als we veronderstellen dat het beschouwde proces ergodisch is, d.w.z. dat de ene gemeten realisering representatief is voor het stochastische proces als geheel, mogen we de ensemblemiddeling over de verdelingsdichtheidsfunktie vervangen door een middeling in de tijd. We maken een schatting op grond van ´e´en realisering, die we bovendien slechts over een eindige tijd meten. Een dergelijke schatting zal altijd afwijken van de echte funktie. Deze afwijkingen kunnen vaak vrij groot zijn. Om op deze wijze verkregen schattingen te kunnen beoordelen, zullen we iets moeten weten over de afwijkingen ten gevolge van de gevolgde schattingsprocedure. Dit betreft dan zowel de systematische afwijkingen (de onzuiverheid/bias) als de willekeurige afwijkingen (de variantie). In dit hoofdstuk zullen dan ook enkele schatters en hun eigenschappen besproken worden. Achtereenvolgens zal eerst in par. 10.1 het schatten van funkties in het tijdsdomein worden besproken namelijk de gemiddelde produktfunktie, de covariantiefunktie en de correlatiefunktie. Vervolgens zal het schatten van spectrale dichtheden worden behandeld en wel via twee wegen, namelijk via een schatting van de covariantiefunktie (par. 10.2.1) en via direkte transformatie van gemeten signalen (par. 10.2.3). Behalve met het feit dat een schatter slechts op ´e´en realisering gebaseerd is, en dan nog maar over een eindige tijd, hebben we ook te maken met bemonsterde signalen. De geschatte funkties worden voor een discreet aantal punten in het tijdsdomein of in het frequentiedomein berekend. De presentatie in de vorm van figuren op beeldscherm is als regel weer continu.
144
10
Schatten van spectrale dichtheden en overdrachtsfunkties
10.1 Schatten van gemiddelde produkt-, covariantie- en correlatiefunkties We gaan uit van twee stationaire ergodische stochastische processen x(t) en y(t) waarvan we ´e´en realisering hebben gemeten over een interval 0 ≤ t ≤ T . Aangezien de schattingen altijd uitgevoerd zullen worden met behulp van een computer, wordt verder gewerkt met bemonsterde signalen, x(k) en y(k), gemeten over een interval ter lengte T = N ∆t.
10.1.1 Uitdrukkingen voor de schatters Schatter voor de gemiddelde produktfunktie. Als schatter voor de gemiddelde kruisproduktfunktie Rxy (l) wordt het tijdsgemiddelde van het kruisprodukt x(k)y(k + l) genomen. Bij een tijdverschuiving l worden de signalen gemiddeld over een integratieinterval N − |l|, (zie par. 7.5). Bij deze schattingsformules valt op te merken, dat voor het geval dat |l| groot is t.o.v. N , d.w.z. N − |l| N de middeling nog maar over een betrekkelijk klein aantal monsters van het signaal plaats vindt en dus geen erg betrouwbare resultaten zal opleveren. Daarom wordt de uitkomst van de sommatie veelal door N gedeeld i.p.v. door N − |l|. Voor kleine waarden van |l| maakt dit nauwelijks verschil. Voor grote waarden van |l| zal de produktfunktie als regel naar nul gaan en ook dan is de systematische fout dus gering. De variantie daarentegen zal dan veel kleiner worden. Uiteindelijk levert de formule bij deling door N dan ook de kleinste afwijking. Dit is een illustratie van het feit, dat zuiverheid zonder meer niet altijd de beste schatter oplevert in de zin van de kleinste totale gemiddelde fout ten gevolge van de combinatie van onzuiverheid en variantie. Indien we uit gaan van de wens om een schatting te krijgen met een kleine variantie leidt dit tot de volgende schattingsformules voor de gediskretiseerde gemiddelde produktfunktie: −|l| 1 NX N ˆ Rxy (l) = x(k)y(k + l) N k=1
voor |l| < N
[10.1]
Met behulp van deze schatter kan de gemiddelde kruisproduktfunktie Rxy (l) worden bepaald voor waarden van l in het gebied |l| < N . Schatter voor de covariantiefunktie. In de praktijk is men als regel meer ge¨ınteresseerd in de covariantiefunktie dan in de gemiddelde produktfunktie omdat in de regeltechniek voornamelijk gekeken wordt naar fluctuaties ten opzichte van een bepaalde gemiddelde waarde. Uitgaande van de schatter voor de gemiddelde kruisproduktfunktie kan men voor de kruiscovariantiefunktie de volgende schatter defini¨eren: −|l| 1 NX N ˆ x0 (k)y 0 (k + l) voor |l| < N Cxy (l) = N k=1
waarbij x0 (k) = x(k) − µ ˆ x en µ ˆx =
1 N
PN
k=1
x(k).
[10.2]
10.1
Schatten van gemiddelde produkt-, covariantie- en correlatiefunkties
145
In de praktijk betekent dit dat men de gemiddelde produktfunktie schat van signalen waarvan men eerst een schatting van de gemiddelde waarde heeft afgetrokken. In het vervolg van dit hoofdstuk zullen we dan ook veronderstellen dat we steeds te maken hebben met signalen waarvan de gemiddelde waarde nul is, zodat de covariantiefunktie gelijk is aan de gemiddelde produktfunktie. De schatters voor de auto- en kruiscovariantiefunktie worden dan dus: N (l) = Cˆxx
N (l) = Cˆxy
−|l| 1 NX x(k)x(k + l) voor |l| < N N k=1
[10.3]
−|l| 1 NX x(k)y(k + l) N k=1
Aangezien in de meeste standaardpakketten voor signaalverwerking wordt uitgegaan van deling door N zullen we in het vervolg, tenzij dit uitdrukkelijk anders vermeld wordt, van deze schatters uitgaan. Voor de schatter van de kruiscorrelatiefunktie gebruiken we de relatie: N ˆ xy (l) = q K
N Cˆxy (l) N (0)C N (0) ˆyy Cˆxx
[10.4]
welke relatie voor de autocorrelatiefunktie overgaat in: Cˆ N (k) N ˆ xx K (l) = xx N (0) Cˆxx
[10.5]
10.1.2 Eigenschappen van de beschouwde schatters Om iets te kunnen zeggen over de bruikbaarheid van een schatter is het van belang te weten of hij al dan niet zuiver of asymptotisch raak is. Voor de hier gedefinieerde schatters van de covariantiefunktie en correlatiefunktie zullen we nu de eigenschappen bekijken. Covariantiefunkte. Om te onderzoeken of de schatter voor de covariantiefunktie zuiver is kijken we naar de verwachtingswaarde van de schatter. Voor twee signalen met gemiddelde waarde nul geldt: N E{Cˆxy (l)} =
−|l| −l 1 NX 1 NX N − |l| E{x(k)y(k + l)} = Cxy (l) Cxy (l) = N k=1 N k=1 N
De schatter is dus niet zuiver. Echter voor kleine waarden van l t.o.v. N is de −|l| term NN praktisch gelijk aan 1, voor grote waarden van l gaat voor stochastische processen waar geen deterministische funktie in voorkomt de waarde van Cxy (l) naar nul. In beide gevallen is de onzuiverheid te verwaarlozen. Overigens is de schatter N wel asymptotisch zuiver: limN →∞ E{Cˆxy (l)} = Cxy (l). De schatter waarbij niet door N maar door N − |l| wordt gedeeld is echter wel zuiver.
146
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Om te kunnen beoordelen of de schatter ook asymptotisch raak is kijken we naar de variantie. Voor de variantie van de schatter van de covariantiefunktie valt af te leiden uit Jenkins & Watts (1969): 1 N V ar{Cˆxy (l)} = N
N −|l|
X
k=−(N −|l|)
[Cxx (k)Cyy (k) + Cxy (l + k)Cxy (l − k)]
[10.6]
Bij de afleiding is onder andere verondersteld dat de stochastische processen normaal verdeeld zijn. Wanneer x(t) en y(t) geen periodieke componenten bevatten, maar echt ruis zijn, geldt dat de covariantiefunkties naar nul gaan voor grote verschuivingen. Dit betekent weer, dat in het limietgeval N → ∞ de sommatie altijd een eindige waarde oplevert, bijv. a. Er geldt dan dat voor grote waarden van N de variantie proportioneel is met N1 : a N lim V ar{Cˆxy (l)} ≈ lim =0 N →∞ N →∞ N
[10.7]
De uitdrukking wordt dus nul voor N → ∞. De schatter is dus behalve asymptotisch zuiver ook asymptotisch raak. Uitgaande van de formule voor de variantie van een kruiscovariantiefunktie is die van de autocovariantiefunktie af te leiden door te stellen x(t) = y(t). Er volgt dan: 1 N V ar{Cˆxx (l)} = N
N −|l|
X
k=−(N −|l|)
[Cxx (k)2 + Cxx (l + k)Cxx (l − k)]
[10.8]
Voor de variantie van zowel de kruiscovariantiefunktie als de autocovariantiefunktie valt verder nog het volgende op te merken. Voor grote waarden van l gaan de covariantiefunkties van stochastische processen waarin geen periodieke componenten voorkomen naar 0. Dit betekent dat voor grote waarden van l de term 1 PN −|l| k=−(N −|l|) Cxy (l + k)Cxy (l − k) in de schatter voor de kruiscovariantiefunktie eveN neens 0 wordt. Dit leidt dan tot een sterk vereenvoudigde uitdrukking, namelijk: 1 N V ar{Cˆxy (l)} = N
N −|l|
X
k=−(N −|l|)
Cxx (k)Cyy (k) voor l 0
[10.9]
De uitdrukking is nu geen funktie meer van l. Voor het geval dat Cxy (l) = 0 voor alle waarden van l, ontstaat dezelfde uitdrukking voor de variantie maar nu voor het hele gebied van de funktie. De uitdrukking voor de variantie van de autocovariantiefunktie is voor grote waarden van l op overeenkomstige manier te vereenvoudigen tot:
N V ar{Cˆxx (l)} ≈
1 N
N −|l|
X
k=−(N −|l|)
Cxx (k)2
voor l 0
[10.10]
10.2
147
Schatten van spectrale dichtheden
Correlatiefunktie. Voor de verwachtingswaarde van de schatter van de correlatiefunktie geldt:
N Cˆxy (l) N ˆ xy E{K (l)} = E q N (0)C N (0) ˆyy Cˆxx
[10.11]
Deze uitdrukking is vrij moeilijk uit te werken, maar via benaderingen, gebaseerd op de veronderstelling dat de fouten in de schatters van de covariantiefunkties betrekkelijk klein zijn, is de uitdrukking voor het geval van deling door N − |l| te vereenvoudigen tot een gedaante die leidt tot de gewenste eigenschap van zuiverheid. Voor het geval van deling door N geldt dan analoog aan de schatter van de covariantiefunktie dat N ˆ xy E{K (l)} ≈
N − |l| Kxy (l) N
[10.12]
Voor de variantie van de schatter van de correlatiefunktie is eveneens een benadering te geven. Deze is echter een stuk ingewikkelder. Zie hiervoor Priestley (1981) of Jenkins en Watts (1969). Voor het geval dat Kxy (l) = 0 voor alle waarden van l gaat deze uitdrukking echter over in dezelfde eenvoudige vorm als die van de covariantiefunktie, nl: 1 N ˆ xy V ar{K (l)} = N
N −|l|
X
Kxx (k)Kyy (k)
[10.13]
k=−(N −|l|)
Deze uitdrukking is van belang als men wil onderzoeken of twee stochastische processen al of niet gecorreleerd zijn. Voorbeeld Om enig idee te geven omtrent het verloop van de variantie bij een covariantiefunktie en een correlatiefunktie zijn deze grootheden berekend voor een eenvoudig voorbeeld van eerste orde ruis. Fig. 10.1 geeft de autocovariantie en de variantie van de schatter van de autocovariantie- en autocorrelatiefunktie voor een gegeven observatietijd. In de onderste plaatjes is de autocovariantie- en autocorrelatiefunktie nogmaals getekend, met daaromheen de waarden plus en min de standaarddeviatie. Tevens zijn hierin enkele uitkomsten van een schatting getekend.
10.2 Schatten van spectrale dichtheden De klassieke methode voor het schatten van spectrale dichtheden gaat uit van de definitie van de spectrale dichtheid als de fouriergetransformeerde van de covariantiefunktie. Voor het schatten van de spectrale dichtheid werd dan ook eerst een covariantiefunktie geschat op de in de vorige paragraaf beschreven wijze. Hierbij werd de covariantiefunktie niet over het maximale bereik van |l| < N geschat, omdat de covariantiefunktie als regel al praktisch 0 is bij waarden van |l| ≈ N . Ten gevolge van de optredende variantie gaat de schatter echter nog niet naar 0. Vandaar dat
148
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Figuur 10.1:
a) De echte autocovariantiefunktie (links) van een laagfrequente ruis (rechts). b) De variantie van de schatter van de autocovariantie- en autocorrelatiefuntie c) De autocovariantie- en autocorrelatiefuntie met grenzen van 1x de standaardeviatie en de uitkomsten van 4 schattingen voor een bemonsterfrequentie van 2π rad/s (1 Hz) en een observatietijd van 512 s. het niet zinvol is om de staarten van de covariantiefunktie mee te transformeren. Immers, de informatie-inhoud is gering, maar er wordt wel een grote hoeveelheid variantie naar het frequentiedomein getransformeerd. Een bijkomend voordeel van het niet meenemen van de staarten in de schatting van de covariantiefunktie was de beperking in de rekentijd die, met de in de 60-er en 70-er jaren beschikbare computers, aanzienlijk was. Het niet meenemen van de staarten heeft echter ook wel een nadeel. Als regel is een covariantiefunktie nog niet exact 0 voor eindige waarden voor de tijdverschuiving en een afgehakte staart kan daardoor een zekere vervorming opleveren in het frequentiedomein. De getransformeerde grootheid is in feite te beschouwen als het
10.2
Schatten van spectrale dichtheden
149
produkt van een funktie met staarten en een vensterfunktie die 0 is voor M < |l| < N en ongelijk aan 0 voor |l| < M . Dit levert dan een zekere vervorming op van de aldus geschatte spectrale dichtheid. Om deze vervorming zo klein mogelijk te maken zijn dan ook verschillende funkties bedacht om als venster te gebruiken. De moderne methode voor het schatten van spectrale dichtheden gaat uit van de beschrijving van de spectrale dichtheid als een produkt van fouriergetransformeerde signalen. Dit levert hetzelfde beeld van de spectrale dichtheid op als bij transformatie van de covariantiefunktie die bepaald is over de maximaal mogelijke lengte van |l| < N , dus een schatter met een grote variantie. Om de variantie te verkleinen wordt nu uitgemiddeld over een aantal naast elkaar gelegen frequentie-bandjes. De variantie wordt dan verkleind ten koste van het scheidend vermogen. Het uitmiddelen in het frequentiedomein is in feite de tegenhanger van het toepassen van een venster in het tijdsdomein. Een voordeel is echter dat nu vervormingen te vermijden zijn. Deze methode werkt bovendien aanzienlijk sneller, dankzij de toepassing van de Fast Fourier Transform. Hoewel aanbevolen wordt om altijd de methode via transformatie van signalen te gebruiken, zal toch eerst de methode via de covariantiemethode besproken worden. Redenen zijn: • Het geeft inzicht in de relaties tussen bewerkingen in tijdsdomein en frequentiedomein. • De methode wordt door sommigen nog steeds gebruikt, hetgeen zijn weerslag vindt niet alleen in de literatuur, maar ook in de signaalverwerkingspakketten.
10.2.1 Schatten van spectrale dichtheden via de covariantiefunktie Voor het schatten van een kruispectrale dichtheid gaan we uit van twee signalen 2π x(k) en y(k) gemeten over een tijd T = N ∆t met een bemonsterfrequentie ωs = ∆t N [rad/s]. Uit deze signalen bepalen we een schatter Cˆxy (l) voor |l| < N , dus over de maximaal haalbare tijd volgens vergelijking [10.4]. Fouriertransformatie van deze funktie levert een schatting voor de spectrale dichtheid over een frequentiegebied π π van [− ω2s , ω2s ] = [− ∆t , ∆t ] [rad/s], verdeeld over 2N frequentiebandjes ter breedte π 2π N (n) symmetrisch is en het im∆ω = 2N ∆t = T [rad/s]. Omdat het re¨ele deel van Sˆxy maginaire deel keersymmetrische, zit alle informatie in het frequentiegebied [0, ω2s ]. N (n) gekregen voor 0 ≤ n < N . Uitgaande van We hebben nu dus een schatting Sˆxy 2N re¨ele getallen van de twee signalen hebben we nu N complexe getallen gekregen voor de schatter van de spectrale dichtheid. Deze schatter heeft een gemiddelde waarde en een zekere variantie. Deze variantie is vrij groot, omdat er in wezen geen middeling heeft plaatsgevonden. Stel dat we nu de observatietijd 4 maal zo groot maken, dan kunnen we een covariantiefunktie schatten voor −4N < l < 4N . Hieruit kunnen we dan weer een spectrale dichtheid schatten. Het frequentiegebied is nog steeds [0, ω2s ], maar de extra informatie is tot uiting gekomen in een toename van het
150
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Figuur 10.2: Linksboven: twee signalen gemeten over 128 en 512 s. Rechtsboven: de
echte covariantiefunkties. Onder: geschatte covariantiefunkties en spectrale dichtheden over T=128 en over T=512s. scheidend vermogen langs de frequentieas. Er zijn nu namelijk 4N frequentiebandπ . De variantie van de schatter is niet veranderd jes ter breedte ∆ω = 4Nπ∆t = 4T (Fig. 10.2). Verkleinen van de variantie m.b.v. een venster Om de variantie te verkleinen gaan we terug naar de covariantiefunktie. We gaan er hierbij van uit dat deze geen periodieke componenten bevat, dus dat het stochastisch proces alleen ruis bevat. De informatie zit dan bij de kleine waarden van de tijdver-
10.2
151
Schatten van spectrale dichtheden
Figuur 10.3: Links een afgebroken covariantiefunktie, gezien als produkt van een niet afgebroken funktie met een venster als weegfunktie. Rechts een schatting van spectrale dichtheden via de afgebroken covariantiefunktie voor T=128 (onveranderd) en T=512.
schuiving. De staarten gaan altijd naar 0. De staarten dragen dan ook voornamelijk bij in de vorm van variantie, maar leveren weinig informatie. Om die redenen wordt de schatting van de covariantie dan ook beperkt tot een gebied |l| < M net M N . Fouriertransformatie levert nu M frequentiebandjes ter breedte ∆ω = Mπ∆t = Tπ1 met T1 = M ∆t T . Het scheidend vermogen langs de frequentieas is afgenomen, omN is toegenomen, maar de dat de breedte van een frequentiebandje met een factor M variantie is nu sterk verkleind. Wiskundig gezien is deze operatie op te vatten als de transformatie van het produkt van de over de volle lengte geschatte covariantie en een z.g. venster. Dit venster w(l) is een funktie met de eigenschap: w(l) = 0 voor |l| > M en w(l) 6= 0 voor |l| ≤ M . Het vergroten van de observatietijd bij gelijkblijvende vensterbreedte heeft nu wel tot gevolg dat de variantie van de schatter van de spectrale dichtheid verkleind wordt. Vergroting van de observatietijd van de signalen van N naar 4N , betekend nu dat de variantie van de schatter van de covariantiefunktie binnen het venster ook met een factor 4 omlaag gaat. In het frequentiedomein blijft de breedte van de frequentiebandjes hetzelfde, maar de variantie wordt ook hier met een factor 4 verkleind, en de standaarddeviatie dus met een factor 2. Fig. 10.2 tot 10.3 geeft een illustratie van de hier besproken effecten.
10.2.2 Transformatievensters (windowing) Zoals in het voorgaande is opgemerkt, betekent het toepassen van een venster dat de schatter in het frequentiedomein op te vatten is als de fouriergetransformeerde van het produkt van twee funkties, nl. van een schatter met veel variantie en een venster: 0 N Sˆxy (ω) = F{Cˆxy (l)w(l)} = ∆t
∞ X
l=−∞
N Cˆxy (l)w(l)e−jωl∆t
[10.14]
152
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Hierin is ω nog een continue variabele. Er geldt dan: 1 Z ∞ ˆN 0 0 N Sˆxy (ω) = Sˆxy (ω) ∗ W (ω) = S (ω )W (ω − ω 0 )dω 0 2π −∞ xy
[10.15]
Door het bemonsteren in het tijdsdomein is W (ω) een periodieke functie geworden in het frequentiedomein met periode ωs = 2N2π∆t = Nπ∆t . Zoals in paragraaf 3.2 is afgeleid worden de waarden van W (ω) voor frequenties |ω| > ω2s als het ware teruggevouwen naar een lagere frequentie in het gebied |ω| < ω2s . Dit heeft tot gevolg dat een andere functie W 0 (ω) ontstaat en de convolutieintegraal verandert daardoor in: ω 1 Z 2s ˆN 0 ˆ Sxy (ω) = Sxy (ω − ω 0 )W 0 (ω 0 )dω 0 ωs 2π − 2
[10.16]
De radiaalfrequentie ω is hier nog een continue variabele. In de praktijk wordt gewerkt met de discrete fouriertransformatie met toepassing van de F F T -routine, zodat de integraal overgaat in een sommatie over discrete frequenties n∆ω met ∆ω = 2N2π∆t = Nπ∆t : 0 Sˆxy (n∆ω) =
N X 1 SˆN ((n − p)∆ω)W 0 (p∆ω) 2N ∆t p=−N xy
[10.17]
0 N Voor de bepaling van Sˆxy (n∆ω) worden daardoor ook de bijdragen van Sˆxy (n∆ω) meegewogen voor alle andere frequenties. Zoals echter zal blijken is de vorm van de weegfuncties zodanig dat voornamelijk de waarden in de buurt van de frequenties n∆ω worden meegewogen. Anders gezegd het venster heeft een middelend effect over de frequenties rond de waarde ω = n∆ω. Dit is echter een gewenst uitmiddelend effect waardoor de variantie wordt verkleind. Als neveneffect kan het venster echter ook een vervorming teweeg brengen. Aard en omvang van deze vervorming zullen zowel van de vorm van het venster afhangen als van de vorm van het spectrum. Om te beginnen zullen enkele vensters worden behandeld. Daarna zal de invloed van de vorm van het spectrum worden onderzocht.
Het rechthoekig venster Dit is het vensterpaar dat ontstaat door simpelweg afhakken van de staarten van de covariantiefuntie zoals behandeld in de vorige paragraaf. Voor een continu venster in tijds- en frequentiedomein geldt het volgende transformatiepaar: ωa (t) = 1 = 0.5 =0 Wa (ω) = 2T1
voor |t| < T1 voor |t| = T1 voor |t| > T1
sin(ωT1 ) ωT1
[10.18]
[10.19]
Deze funktie staat bekend als de sinc-functie en bestaat uit een piek met een aantal uitdempende zogenaamde zijlobben.
10.2
153
Schatten van spectrale dichtheden
wa(t)
Wa(om)=F{wa(t)} 10
1
T1=M*dt=4 (s)
0.8 0.6
5
0.4 0.2
0
0 −0.2 −10
−5
0
5
10
−10
wa(i)
−5
0
5
10
Wa(om)=F{wa(i)} 10
1
dt=1 [s], dus oms=2pi (rad/s)
0.8 0.6
5
0.4 0.2
0
0 −0.2 −10
−5
0 tijd (s)
5
10
−10
−5 0 5 frequentie (rad/s)
10
Links: Het rechthoekig venster in tijds- en frequentiedomein, zowel continu als discreet. Rechts: verschil tussen continu en discreet.
Figuur 10.4:
Voor een in het tijdsdomein bemonsterde rechthoek ontstaat in het frequentiedomein een periodieke funktie, waarin de staart van de sinc-funcktie als het ware in opgevouwen toestand verpakt zit, waardoor de zijlobben hoger geworden zijn. Het in de tijd bemonsterde venster ziet er als volgt uit: wa (l) = 1 =0
voor |l| ≤ M voor |l| > M
[10.20]
Fouriertransformatie levert de volgende continue functie in het frequentiedomein: sin((M + 12 )ω∆t) Wa (ω) = sin( 12 ω∆t)
[10.21]
Zoals te zien is in fig. 10.4 wijkt deze functie in het van belang zijnde frequentiegebied niet veel af van de sinc-functie. Bij gebruik van de discrete fouriertransformatie 2πn wordt deze functie ook in het frequentiedomein bemonsterd, dus met ω = 2M ∆t wordt dit: sin( 2MM+1 πn) Wa (n) = sin( πn M
[10.22]
Het effect in het frequentiedomein van het vergroten van M is te zien in fig. 10.5. De figuur laat zien dat een vergroting van de vensterbreedte tot gevolg heeft dat het frequentiegebied dat meegewogen wordt in de convolutieintegraal voor de berekenN (ω) smaller wordt. In een grove benadering kan men tevens stellen dat ing van Sˆxy 1 voornamelijk de frequenties in een band ter breedte 4πM worden meegewogen, zij het niet overal even zwaar. In principe wordt echter het gehele spectrum meegewogen door de uitslingerende staarten. Er geldt dat voor M → ∞ het venster W (ω) convergeert naar een diracfunktie. Dit illustreert het feit dat dan een oneindig fijne
154
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Het effect in het frequentiedomein van het vergroten van de vensterbreedte in het tijdsdomein voor het rechthoekig venster. Figuur 10.5:
verdeling langs de frequentieas ontstaat. Het driehoekige venster Voor dit venster, dat ook bekend staat als het Bartlett window, geldt in het tijdsdomein: wb (l) = 1 − =0
|l| M
voor |l| ≤ M voor |l| > M
[10.23]
De bijbehorende afbeelding in het frequentiedomein wordt gegeven door: 1 Wb (n) = M
sin( π2 n) πn sin( 2M )
!2
[10.24]
In fig. 10.6 is dit venster afgebeeld. Ook hier geldt dat Wb (ω) convergeert naar een diracpuls als M naar ∞ gaat. Het cosinusvenster Dit venster, dat ook bekend staat onder de namen Hamming window en Tukey window, is in het tijdsdomein gedefinieerd als: πl wc (l) = 0.5(1 + cos M ) =0
voor |l| ≤ M voor |l| > M
[10.25]
In het frequentiedomein wordt het venster beschreven door: 1 1 1 Wc (n) = Wa (n − 1) + Wa (n) + Wa (n + 1) 4 2 4
[10.26]
10.2
Schatten van spectrale dichtheden
155
Figuur 10.6: Overzicht van de verschillende vensters in tijds- en freqentie domein.
met Wa (n) zoals gegeven in vergelijking [10.22]. Van deze eigenschap kan gebruik gemaakt worden bij het berekenen van een met behulp van een cosinusvenster geschat spectrum. Eerst wordt dan getransformeerd met een rechthoekig venster. Vervolgens wordt in het frequentiedomein een gewogen middeling over drie punten uitgevoerd. Het venster is afgebeeld in fig. 10.6. Evenals bij de twee andere vensters convergeert W (ω) naar een diracfunktie als M naar oneindig gaat. Een nadere vergelijking van de vorm toont, dat alle drie vensters in het frequentiegebied een hoofdband hebben met uitslingerende zijlobben. Voor het rechthoekige venster zijn deze zijlobben vrij hoog en dempen maar langzaam uit bij toenemende frequentie. Uit een nadere beschouwing van de uitdrukkingen voor Wa (ω), Wb (ω) en Wc (ω) volgt dat voor hoge frequenties deze zijlobben voor Wa (ω) uitdempen met een 2 3 factor ω1 , voor Wb (ω) met ω1 en voor Wc (ω) met ω1 . Verder weg liggende frequenties hebben dus bij het cosinusvenster de minste invloed en bij het rechthoekige venster de meeste invloed. Zowel bij het rechthoekige venster als bij het cosinusvenster treden ook zijlobben op met een negatieve waarde. Bij het driehoekige venster zijn ze altijd positief. Door hun eindige breedte hebben de vensters in het frequentiedomein een uitmiddelende effect, waardoor de variantie van de spectrale dichtheid verkleind wordt ten koste van het scheidend vermogen. Vervorming. Behalve dit gewenste effect kan het afhakken van de staarten van geschatte covariantiefunkties m.b.v. vensters echter ook nog een ongewenst effect hebben, namelijk vervorming van de geschatte spectrale dichtheid ten gevolge van
156
10
Schatten van spectrale dichtheden en overdrachtsfunkties
de zijlobben van het venster. Om inzicht te krijgen in het al of niet optreden van vervorming bekijken we twee uitersten: witte ruis en een zuivere sinus. In het eerste geval Cxx (l) = cδ(l) wordt de covariantiefunktie niet verminkt, welk van de besproken vensters we ook toepassen. Als gevolg hiervan wordt ook de spectrale dichtheidsfunktie niet vervormd. In het tweede geval Cxx (l) = a2 cos ωl hebben we een covariantiefunktie die niet nul wordt voor |l| → ∞. Toepassing van welk venster dan ook geeft dus altijd vervorming van de spectrale dichtheid, al zal deze vervorming voor het cosinusvenster ook veel geringer zijn dan voor het rechthoekige venster. We hebben hier echter te maken met een deterministisch signaal waarvoor de theorie van de spectrale dichtheden in principe niet ontworpen is. Beide gevallen geven dan ook alleen de uitersten weer. De werkelijkheid zit hier altijd tussen in. De conclusie die hier echter uit getrokken kan worden is dat men bij betrekkelijk vlakke spectra bijna geen vervorming heeft, maar dat men moet oppassen bij spectra met pieken. Deze hebben de neiging te vervormen en wel in de richting van de vorm van de fouriergetransformeerde van het toegepaste venster, waardoor z.g. zijlobben kunnen ontstaan. Pieken in spectra vindt men bijvoorbeeld in het geval van mechanische constructies, waarin resonantieverschijnselen kunnen optreden bij aanstoten door ruis, die op zichzelf over een goede bandbreedte vrij vlak kan verlopen. Ideaal venster Van een ideaal vervormingsvrij venster zou men eigenlijk willen dat het in een frequentieband ter breedte ∆ω alle frequenties even zwaar meeweegt en de frequenties daarbuiten niet. Een dergelijk venster zou er in het frequentiedomein dan uit moeten zien als: M Wd (ω) = 2π =0
voor |ω| ≤ 0.5∆ω met ∆ω = voor |ω| > 0.5∆ω
2π M
M De schaalfaktor 2π dient er voor om te zorgen dat de totale oppervlakte onder de functie gelijk is aan 1. Dit venster samen met de bijbehorende functie in het tijdsdomein, is afgebeeld in fig. 10.7. Een dergelijk venster impliceert echter dat de geschatte autocovariantiefunktie Cˆxy (l) dan bekend moet zijn over het interval −∞ ≤ l ≤ ∞. De staarten van Cˆxy (l) worden dan over dit gehele interval meegewogen, zij het slechts in geringe mate. Een dergelijk venster is dus op de hiervoor beschreven wijze praktisch niet te realiseren. Zoals nog zal blijken is dit wel mogelijk via de methode van transformatie van bemonsterde signalen.
Recapitulatie schatter via transformatie van de covariantiefuncties De schatters verkregen op de klassieke manier, d.w.z. via transformatie van een, over beperkte waarden van de verschuiving l, geschatte covariantiefunktie zijn als regel onzuiver. Deze onzuiverheid wordt veroorzaakt door de zijlobben van het toegepaste venster in het frequentiedomein. Voor betrekkelijk vlakke spectra is deze onzuiverheid te verwaarlozen. Alleen smalle pieken zullen een zekere vervorming ondergaan. De schatter is in ieder geval asymptotisch zuiver. Verder is af te leiden
10.2
Schatten van spectrale dichtheden
157
Figuur 10.7: Het vervormingsvrije venster in tijdsdomein en frequentiedomein.
dat de variantie naar nul gaat voor T naar oneindig, d.w.z. de schatters zijn behalve (asymptotisch) zuiver ook asymptotisch raak. In het algemene geval is de schatting onzuiver, alleen voor ´e´en specifiek venster (het ideale venster) is de schatting zuiver. Bij deze conclusie moeten echter enkele opmerkingen gemaakt worden. • Hoewel alle andere vensters dan wd (l) in principe tot een onzuivere schatting leiden valt dit in de praktijk nogal mee, omdat de grootste bijdrage aan de berekening van de spectrale dichtheid geleverd wordt door de kleine waarden van l. • Zoals nog zal blijken bij de behandeling van het schatten van overdrachtsfunkties hoeft een onzuiverheid in de geschatte spectrale dichtheden, die nodig zijn voor het schatten van een overdrachtsfunktie, geen bezwaar te zijn, omdat deze elkaar kunnen compenseren. Wanneer we niet in de vorm van de spectra als zodanig ge¨ınteresseerd zijn, zijn deze onzuiverheden dan ook toelaatbaar.
10.2.3 Schatten van spectrale dichtheden via transformatie van signalen Uitgaande van de in hoofdstuk 8 behandelde relatie Sxy (ω) = E{X(−ω)Y(ω)}
[10.27]
met X(−ω) en Y(ω) volgens de gemodificeerde fouriertransformatie, kunnen we ook een schatter baseren op fouriergetransformeerde signalen. Bij deze weg zal worden uitgegaan van de bemonsterde signalen x(k) en y(k) gemeten over een observatietijd
158
10
Schatten van spectrale dichtheden en overdrachtsfunkties
N ∆t. Met behulp van de DF T worden ze getransformeerd tot twee getallenreeksen XN (n) en YN (n) met n = 0, 1, ...N −1 en een bemonsterinterval langs de frequentieas van ∆ω = N2π∆t . Zoals is uiteengezet in hoofdstuk 3, is ten gevolge van het bemonsteren in het tijdsdomein het signaal periodiek geworden in het frequentiedomein, d.w.z. dat XN (N ) = XN (0) en XN (n + N ) = XN (n). Uit de reeksen XN (n) en YN (n) kan nu voor het frequentiegebied 0 ≤ n∆ω ≤ (N − 1)∆ω een schatting gemaakt worden voor de spectrale dichtheid volgens: N Sˆxy (n) =
1 XN∗ (n)YN (n) N ∆t
[10.28]
Waarbij XN (−n) = XN∗ (n) de toegevoegd complexe van XN (n) is. Een schatting van de autospectrale dichtheid wordt dan N Sˆxx (n) =
1 |XN (n)|2 N ∆t
[10.29]
waarbij N1∆t |XN (n)|2 het periodogram van x(k) is. De grootheden X ∗ (n) = X(−n) en Y (n) zijn hier gebaseerd op de Discrete Fourier Transformatie. De op deze wijze verkregen waarden van het gediscretiseerde spectrum zijn op te vatten als de gemiddelde waarde van de spectrale dichtheid in een frequentiebandje ter breedte ∆ω = N2π∆t . Een nauwkeuriger beeld van het verloop van de spectrale dichtheid tussen twee discrete punten in is niet te verkrijgen. We hebben nu uitgaande van 2 signalen, elk bestaande uit N getallen, een schatter voor de kruispectrale dichtheid verkregen over N frequentiebandjes. Dit is nog een ruwe schatter met een grote variantie, omdat er nog geen uitmiddeling heeft plaatsgevonden, zoals ook het geval was bij het schatten via de covariantiefunktie zonder toepassing van een venster. Er mag dan ook een zekere relatie tussen deze schatters worden verwacht die we dan ook nader zullen onderzoeken. Relatie tussen langs twee verschillende wegen verkregen schatters. Uitgaande van de via de DF T getransformeerde signalen komen we tot de volgende schatter 1 N X(−n)Y (n) [10.30] Sˆxy (n) = N ∆t " # " # N N X X j2πmn j2πkn 1 N y(m)e− N ∆t x(k)e ∆t = N ∆t k=1 m=1 N N X j2π(m−k)n ∆t X x(k)y(m)e− N = N k=1 m=1
voor n = 0, 1, . . . , N − 1
Noem m − k = l, dus m = k + l. Voor de grenzen van het tweede sommatieteken geldt dan dat voor m = 1 geldt dat l = 1 − k en voor m = N geldt l = N − k, zodat N N −k X j2πln ∆t X ˆ x(k)y(k + l)e− N Sxy (n) = N k=1 l=1−k
[10.31]
Voor het geval k = 1 loopt de sommatie over l = 0, . . . , N − 1, voor het geval k = N loopt de sommatie van l = 1 − N, . . . , 0. Door eerst over k te sommeren en dan over
10.2
159
Schatten van spectrale dichtheden
l krijgen we twee reeksen, namelijk ´e´en voor de negatieve waarden van l en ´e´en voor de positieve waarden van l: −1 −1 N N −l X X j2πln ∆t X ∆t NX − j2πln ˆ N Sxy (n) = + x(k)y(k + l)e x(k)y(k + l)e− N N l=1−N k=1−l N l=0 k=1
−1 X
N j2πnl 1 X x(k)y(k + l) e− N = ∆t l=1−N N k=1−k
+∆t
N −1 X l=0
"
−l j2πnl 1 NX x(k)y(k + l) e− N N k=1
#
voor n = 0, 1, . . . , N − 1, ∆ω =
2π N ∆t
[10.32]
In par. 10.1 is uitgegaan van de volgende schattingsformules voor de covariantiefunktie −|l| 1 NX N ˆ x(k)y(k + l) voor |l| < N Cxy (l) = N k=1
[10.33]
hetgeen identiek is met de grenzen van l en k in de voorgaande formule, zodat uiteindelijk Sˆxy (n) = ∆t
N −1 X
l=−(N −1)
j2πnl Cˆxy (l)e− N
voor |l| < N , n = 0, 1, . . . , N − 1 en ∆ω1 =
2π N ∆t
Wat opvalt is, dat de via transformatie van signalen geschatte kruisspectrale dichtheid bestaat uit N punten met een interval ∆ω1 = N2π∆t . De kruiscovariantiefunktie wordt geschat over 2N − 1 punten. Indien men deze weg volgt, zal men bij toepassing van de F F T -routine hier nog een getal met waarde nul aan toevoegen en aldus 2N punten in het tijdsdomein transformeren naar 2N punten in het frequentiedomein met een interval ∆ω2 = Nπ∆t . Het totale frequentiegebied dat wordt beschouwd is in 2π 2π beide gevallen gelijk namelijk N ∆ω1 = ∆t of 2N ∆ω2 = ∆t . De spectrale dichtheid verkregen via transformatie van signalen is daarom ook te beschrijven als Sˆxy (n) = DF T {Cˆxy (l)} voor |l| < N, n = 0, 2, . . . , 2N − 2, ∆ω2 =
π N ∆t
Omdat we bij het schatten van Cˆxy (l) gebruik gemaakt hebben van een deling door N , was deze schatter in feite niet zuiver. Voor een zuivere schatter, die dan echter wel een grotere variantie heeft, hadden we moeten delen door N − |l|. Voor de verwachtingswaarde van de fouriergetransformeerde van deze schatter geldt dan ook: E{Sˆxy (n)} = E{DF T {Cˆxy (l)}} = DF T {E{Cˆxy (l)}} ) ( N − |l| Cxy (l) = DF T {w1 (l)Cxy (l)} = DF T N
[10.34]
−|l| met w1 (l) = NN voor |l| ≤ N . De weegfunktie w1 (l) is een diskrete beschrijvingswijze van het eerder besproken driehoekige venster. De fouriergetransformeerde
160
10
Schatten van spectrale dichtheden en overdrachtsfunkties
van dit venster wordt beschreven door een aantal discrete punten, gelegen op de continue funktie die de fouriergetransformeerde beschrijft van een in het tijdsdomein bemonsterde driehoek, zoals afgebeeld in fig. 10.6. Deze wordt beschreven door W1 (n∆ω1 ) = N ∆t voor n = 0 = 0 voor n 6= 0
[10.35]
Voor de verwachtingswaarde van de, m.b.v. dit venster geschatte, spectrale dichtheid volgt nu: E{Sˆxy (n∆ω1 )} = =
∞ ∆ω1 X W1 (l∆ω1 )Sxy ((n − l)∆ω1 ) 2π l=−∞
[10.36]
∆ω1 W1 (0)Sxy (n∆ω1 ) = Sxy (n∆ω1 ) 2π
Met andere woorden: voor die frequenties die een veelvoud zijn van ∆ω1 = N2π∆t wordt de spectrale dichtheid zuiver geschat. In feite heeft men door 2N punten in het frequentiedomein te bepalen niet meer informatie gekregen dan in het geval van N punten. In het algemeen zal zoiets geen bezwaar zijn. De extra tussenliggende punten zullen nu afhankelijk zijn van de twee naastliggende waarden. Echter, uit een nadere beschouwing van het venster blijkt dan men nu zijlobben introduceert over deze extra tussenliggende frequenties. Dit pleit dus voor het vermijden van dit soort redundanties. Als men de weg volgt via transformatie van signalen is dit probleem te vermijden. Het probleem kan echter optreden in die gevallen waarbij men de signalen kunstmatig verlengd met een aantal nullen. Als men een signaal van N monsters uitbreidt met N nullen, krijgt men namelijk exact dezelfde uitkomst bij fouriertransformatie als wanneer men de weg via schatting van de covariantiefunktie gevolgd had. Soms zijn er redenen om deze operatie uit te voeren, vandaar dat aandacht geschonken wordt aan dit verschijnsel. De gevonden ruwe schatter gebaseerd op transformatie van signalen over N punten levert gelukkig een zuivere schatting op maar heeft nog wel een grote variantie en is niet asymptotisch raak. De volgende stap is dan ook om hier een praktisch bruikbare schatter van te maken. Een praktisch bruikbare schatter via transformatie van signalen Zoals al eerder werd opgemerkt is de zojuist besproken schatter Sˆxy (n∆ω1 ) exact gelijk aan die welke werd verkregen via transformatie van een niet afgebroken covariantiefunktie. Het is een schatter gebaseerd op slechts twee uitkomsten namelijk XN (ω) en YN (ω). Vergroten van N betekent alleen verkleinen van ∆ω1 = N2π∆t . m2π , dan kan men door Gaat men echter uit van een gewenste bandbreedte ∆ω = N ∆t 2π vergroten van N het aantal bandjes m ter breedte ∆ω1 = N ∆t binnen ∆ω vergroten. n Aldus ontstaat voor een frequentie m ∆ω de schatter: m−1 2 1 X n Sˆxy ((m + k)∆ω1 ) voor m oneven Sˆxy ( ∆ω) = m m k=− m−1 2
10.2
161
Schatten van spectrale dichtheden
Wm voor N=64, m=8, dt=0.5 [s] 1
0.5
0 −2
−1 0 1 frequentie (rad/s)
2
Venster dat ontstaat door optellen van onderling verschoven getransformeerde driehoekige vensters voor ∆ω = N2π∆t .
Figuur 10.8:
m
−1
2 X n − 0.5 1 Sˆxy ( Sˆxy ((m + k)∆ω1 ) voor m even ∆ω) = m m k=−( m −1) 2
Het uitmiddelen over m bandjes is in feite de tegenhanger van het afbreken van de covariantiefunktie bij een zekere waarde M = Nm∆t . Er is echter een groot verschil, hetgeen blijkt uit de vorm van het venster dat ontstaat door de middelingsoperatie in het frequentiedomein. Dit nieuwe venster zal zijn ontstaan uit het venster dat hoorde bij de ruwe schatter. Deze is gedefinieerd als: m 2 1 X n Wm ( ∆ω) = W1 ((n + k)∆ω1 ) met m < N m m k=− m
[10.37]
2
Hierin is W1 het venster dat behoort bij een elementair bandje van de ruwe schatter en Wm het venster dat is ontstaan na uitmiddelen over m bandjes. De grenzen waartussen k verloopt verschillen voor m even en oneven, maar zijn hier niet ingevuld. Voor elke waarde van k in het bereik tussen − m2 en m2 is er bij de gekozen nummeringen voor m even en m oneven ´e´en waarde van n waarvoor n+k = 0, zodat Wm (
n 1 ∆ω) = N ∆t binnen het bandje ∆ω m m = 0 daarbuiten
[10.38]
Anders gezegd: na het middelen is er nog steeds geen vervorming, hetgeen te verwachten was. Het toegepaste venster is in feite de diskrete uitvoering van het ideale venster. Fig. 10.8 is een weergave van dit venster in het frequentiedomein. Recapitulatie schatten via getransformeerde signalen De spectrale dichtheid is gedefinieerd als de fouriergetransformeerde van de covariantiefunktie, zijnde de verwachtingswaarde van het produkt van onderling in de tijd verschoven signalen. Uitgaande van een gemodificeerde fouriertransformatie voor stochastische signalen van N = −∞ tot ∞, werd gevonden dat de spectrale dichtheid ook te beschrijven is als een produkt van getransformeerde signalen in
162
10
Schatten van spectrale dichtheden en overdrachtsfunkties
het frequentiedomein. Een vergelijkbare uitdrukking is te vinden voor schatters die gebaseerd zijn op, over eindige tijd gemeten, bemonsterde signalen, namelijk 1 Sˆxy (n∆ω) = X(−n∆ω)Y (n∆ω) N
[10.39]
waarbij X(n∆ω) = DF T {x(k∆t)}. Afgeleid is, dat deze schatter gelijk is aan ˆ Sˆxy (n∆ω) = DF T {C(l∆t)}
[10.40]
PN −|l|
met Cˆxy (l∆t) = N1 k=1 x(k)y(k + l). De hier gedefinieerde schatters zijn nog ruwe schatters, d.w.z. ze hebben nog een grote variantie. Om hiervan een meer bruikbare schatter te krijgen, kan men de variantie verkleinen door het scheidend vermogen langs de frequentieas te verminderen en wel door uit te middelen over een aantal naast elkaar gelegen frequentiebandjes ter breedte ∆ω = N2π∆t . Deze methode is op te vatten als de toepassing van een ideaal venster in het frequentiedomein. Het heeft de vorm van een rechthoek en geen zijlobben, zoals dat wel het geval is bij de weg via fouriertransformatie van geschatte covariantiefunkties. Het blijkt dat de weg van fouriertransformatie van signalen gevolgd door uitmiddelen over bandjes een schatter oplevert die zuiver is en asymptotisch raak. Door gebruik te maken van de Fast Fourier Transform vraagt deze schatter aanzienlijk minder rekentijd dan via het schatten van een covariantiefunktie. Overigens vindt men de klassieke methoden ook nog steeds terug in de beschikbare programmapakketten voor signaalverwerking.
10.3 Eigenschappen van schatters in het frequentiedomein. 10.3.1 Schatter voor spectrale dichtheid Zoals in par. 8.1 is vermeld is een spectrale dichtheid te interpreteren als een maat voor de energie per eenheid van frequentie. Beschouwt men de spectrale dichtheid als een continue functie van ω, dan is de eenheid van frequentie oneindig klein. Bij het schatten van een spectrale dichtheid bepaalt men niet de waarde voor ´e´en bepaalde frequentie, maar een gemiddelde waarde van de spectrale dichtheid in een frequentiebandje ∆ω. Uitgaande van deze interpretatie kan aangetoond worden dat de schatter gebaseerd op fouriertransformatie van signalen en uitmiddeling over een aantal frequentiebandjes zuiver is. Voor normaal verdeelde stochastische processen zijn door Jenkins en Watts (1969) de volgende benaderingen afgeleid voor de variantie van de schatter van de kruispectrale dichtheid: I {Sxx (ω)Syy (ω) + |Sxy (ω)|2 } 2T ! I 1 ˆ − 1 [rad] V ar{6 Sxy (ω)} ≈ 2T Γ2xy (ω)
V ar{|Sˆxy (ω)|} ≈
[10.41]
10.3
Eigenschappen van schatters in het frequentiedomein.
163
Hierin is I een vormfactor die afhankelijk is van het toegepaste venster. Deze grootheid I is the interpreteren als de hoogte van het rechthoekige venster in het frequentiedomein dat dezelfde reduktie van de variantie oplevert als het beschouwde venster. Voor de in de vorige paragraaf besproken vensters wa (t), wb (t) en wc (t) zijn deze waarden respectievelijk: Ia = 2T1 , Ib = 23 T1 en Ic = 43 T1 . Voor het rechthoekige venster dat ontstaat door uitmiddeling over m bandjes ter breedte ∆ω1 = N2π∆t was in par. 10.2.3 afgeleid dat Wm = Nm∆t binnen het bandje ∆ω en 0 daarbuiten. Voor dit rechthoekige venster geldt dus I = Wm zodat de factor I 1 = 2NI∆t gelijk wordt aan 2m , zodat voor de hier beschouwde schatter geldt: 2T 1 {Sxx (ω)Syy (ω) + |Sxy (ω)|2 } 2m ! 1 1 V ar{6 Sˆxy (ω)} ≈ − 1 [rad] 2m Γ2xy (ω)
V ar{|Sˆxy (ω)|} ≈
[10.42]
Voor het bijzondere geval dat Sxy (ω) = 0 gaan deze uitdrukkingen over in: 1 {Sxx (ω)Syy (ω)} 2m V ar{6 Sˆxy (ω)} = ∞
V ar{|Sˆxy (ω)|} ≈
[10.43]
De uitdrukking voor de variantie van het argument doet in eerste instantie vreemd aan. De interpretatie hiervan luidt, dat de schatting van een vector in het complexe vlak die nul moet zijn een vector met een zekere lengte zal opleveren met een argument dat elke hoek kan opleveren in het gebied tussen 0 en 2π ± k2π, waarbij k nog elke willekeurige waarde tussen −∞ en ∞ kan krijgen, anders gezegd deze hoek is volledig onbepaald. Een ander bijzonder geval is de schatter voor een autospectrum. Hiervoor geldt y = x. Een autospectrum is altijd re¨eel en positief en dit geldt ook voor de schatter. Voor de variantie geldt dan: 1 2 V ar{Sˆxx (ω)} ≈ Sxx (ω) m
[10.44]
Invullen in de uitdrukking voor de variantie van het argument levert de waarde nul op, hetgeen juist is omdat het argument per definitie altijd gelijk is aan 0. Uit deze uitdrukking is overigens ook te zien hoe groot de variantie is van de ruwe schatter van de autospectrale dichtheid, dus het geval dat nog geen middeling is uitgevoerd, dus m = 1. Dan geldt dat de variantie gelijk is aan de waarde van de spectrale dichtheid in het kwadraat, dus de standaarddeviatie van de schatter is even groot als de spectrale dichtheid zelf. Zoals uit de formules voor de variantie van de schatters blijkt, kan deze willekeurig klein gemaakt worden door het aantal bandjes waarover wordt uitgemiddeld maar voldoende groot te maken. Als we ervan uitgaan dat er bepaalde eisen aan het scheidend vermogen gesteld wordt, dus dat ∆ω vastligt dan moeten we om het aantal bandjes m te kunnen vergroten dus de observatietijd T = N ∆t vergroten. In het limietgeval N → ∞, kan ook m → ∞ en de variantie gaat naar 0. De schatter is dus niet alleen zuiver maar ook asymptotisch raak.
164
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Links: Voorbeeld van een ruwe schatter van een autospectrale dichtheid. Rechts: Schatter na middeling over 8 frequentiebandjes.
Figuur 10.9:
Fig. 10.9 geeft een voorbeeld van een ruwe schatter van een autospectrale dichtheid met daaronder de schatter die ontstaat na middeling over 8 frequentiebandjes. Omdat een autospectrum per definitie altijd positief is kan de schatter nooit normaal verdeeld zijn, zoals ook te zien is in de figuren. Als uitgegaan wordt van normaal verdeelde signalen zullen na transformatie de re¨ele en imaginaire delen van de signalen nog steeds normaal verdeeld zijn, omdat de fouriertransformatie een lineaire bewerking is. Ten gevolge van het kwadrateren en sommeren ontstaat nu een chi-kwadraat verdeling voor de schatter van de spectrale dichtheid. Het is wel zo dat bij uitmiddelen over een toenemend aantal bandjes de normale verdeling hoe langer hoe meer benaderd wordt, zoals ook volgt uit de centrale limietstelling.
10.3.2 Schatter voor de coherentiefunctie Een schatter voor de coherentiefunctie kan, uitgaande van de definitie als volgt geformuleerd worden: v u u u ˆN t Γ (ω) = xy
N (ω)|2 |Sˆxy N (ω)S N (ω) ˆyy Sˆxx
v u u u N ˆ Γxy (ω) = t
N (ω)|2 u | 1 X(−ω)Y (ω)|2 |Sˆxy = t 1N ∆t2 =1 N (ω)S N (ω) ˆyy ( N ∆t ) |X(ω)|2 |Y (ω)|2 Sˆxx
[10.45]
Stel dat we een schatter gebruiken, die gebaseerd is op de met ω = n∆ω1 = N2πn ∆t ruwe, dus niet uitgemiddelde, schatters voor de spectrale dichtheid. De vraag is: levert dit de basis voor een bruikbare schatter? Om deze vraag te beantwoorden zullen we dit idee nader uitwerken. Er geldt dan: v u
[10.46]
Dit geldt altijd, zelfs als Sxy (ω) = 0. Om een betrouwbare schatting te krijgen zal altijd over bandjes moeten worden uitgemiddeld. Dan nog blijft er een afwijking bestaan. De oorzaak ligt in het
10.3
165
Eigenschappen van schatters in het frequentiedomein.
1
1 m=1
0.9
0.9
0.8
0.8 0.7
2 standaarddeviatie
onzuiverheid
0.7 0.6 0.5
4
0.4 0.3 0.2
8
0.6 0.5 0.4 0.3
16
0.2
32 0.1 0 0
m=1
2
4 8 16 32
0.1 0.5 coherentie
1
0 0
0.5 coherentie
1
Onzuiverheid en standaardeviatie van de schatter van de coherentiefunktie als funktie van het aantal bandjes waarover wordt uitgemiddeld.
Figuur 10.10:
kwadrateren van de modulus van de schatter van de spectrale dichtheid. Daardoor middelen positieve en negatieve afwijkingen elkaar niet uit maar worden gesommeerd. De schatter heeft dus altijd een te hoge waarde. Er kan afgeleid worden dat de verwachtingswaarde van een schatter gebaseerd op het uitmiddelen over m bandjes kan worden benaderd door: ˆ xy (ω)} ≈ E{Γ
s
m−1 2 1 Γxy (ω) + m m
[10.47]
Voor het geval m = 1 levert dit altijd de waarde 1, ook als Γxy (ω) = 0. Voor het geval dat Γxy (ω) = 1 is de verwachtingswaarde ook altijd 1 voor elke waarde van m. Voor de variantie is door Jenkins and Watts de volgende benadering afgeleid: ˆ xy (ω)} ≈ I 1 − Γ2xy (ω) 2 = 1 1 − Γ2xy (ω) 2 V ar{Γ [10.48] 2T 2m Voor de standaarddeviatie is dit dus: ˆ xy (ω)} ≈ √1 (1 − Γ2xy (ω)) Std{Γ [10.49] 2m Fig. 10.10 geeft het verloop van onzuiverheid en standaarddeviatie als funktie van Γxy (ω) voor een aantal waarden van m. Kennis van deze relatie maakt het mogelijk om op grond van een geschatte coherentiefunktie te toetsen of de coherentie van ˆ xy (ω)} ≈ √1 en nul verschilt. Voor het geval Γxy (ω) = 0 geldt namelijk: E{Γ m 1 ˆ Std{Γxy (ω)} ≈ √2m . In fig.10.11 wordt een voorbeeld gegeven waarin onderzocht wordt of er een relatie bestaat tussen twee signalen. Behalve een mogelijke overdrachtsfunctie is ook de coherentie geschat. Hierbij is aangegeven wat de verwachtingswaarde is met daaromheen het gebied ± de standaarddeviatie voor het geval dat de coherentie nul is.
166
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Voorbeeld waarbij tussen twee signalen de overdrachtsfunctie en de coherentie is geschat. De uitkomst van de schatter van de coherentie toont dat beide signalen ongecorreleerd zijn.
Figuur 10.11:
10.3.3 Schatter voor de overdrachtsfunktie in open keten. In hoofdstuk 9 is aangetoond dat de overdrachtsfunktie van een systeem dat verstoord wordt door ruis kan worden bepaald uit het quotient van twee spectrale dichtheden. Er geldt dan namelijk dat H(ω) =
Szy (ω) Szu (ω)
[10.50]
Hierbij is u(t) het ingangssignaal, y(t) het uitgangssignaal en z(t) een hulpsignaal dat moet voldoen aan twee eisen: z(t) moet gecorreleerd zijn met het ingangssignaal u(t), maar ongecorreleerd met het stoorsignaal n(t). In het meest eenvoudige geval, namelijk van een systeem in een open keten met een storing n(t) die ongecorreleerd is met de ingang u(t) is de optimale keuze z(t) = u(t), zodat de vergelijking over uy (ω) gaat in H(ω) = SSuu . We zullen eerst voor dit geval de eigenschappen van de (ω) ˆ ˆ schatter van H(ω) beschouwen. Deze schatter is gelijk aan H(ω) = Suy (ω) , waarbij Sˆuu (ω)
de schatters voor de spectrale dichtheden gebaseerd zijn op fouriertransformatie van bemonsterde signalen, gevolgd door uitmiddeling over frequentiebandjes. Deze schatter is dus te schrijven als: n Sˆuy ( m ∆ω) n ˆ ˆ H(ω) = H( ∆ω) = = m Sˆuu ( n ∆ω) m
1 m 1 m
P m−1 2
i=− m−1 2
P m−1 2
i=− m−1 2
N ((n + i)∆ω1 ) Sˆuy N ((n + i)∆ω ) Sˆuu 1
[10.51]
met ∆ω1 = N2π∆t . Gemakshalve is m hier oneven verondersteld. Voor het geval dat ˆ ˆ n−0.5 ∆ω) en de sommatiegrenzen m even is verandert de schatter in H(ω) = H( m lopen van i = − m2 − 1 tot i = m−1 − 1. 2
10.3
167
Eigenschappen van schatters in het frequentiedomein.
De ruwe schatter voor de kruisspectrale dichtheid is verder uit te werken tot: 1 U (−(n + i)∆ω1 )Y ((n + i)∆ω1 ) [10.52] N ∆t 1 U (−(n + i)∆ω1 )[H((n + i)∆ω1 )U ((n + i)∆ω1 ) = N ∆t +N ((n + i)∆ω1 )] N N = H((n + i)∆ω1 )Sˆuu ((n + i)∆ω1 ) + Sˆun ((n + i)∆ω1 )
N Sˆuy ((n + i)∆ω1 ) =
zodat: ˆ n ∆ω) = H( m 1 m
P m−1 2
i=− m−1 2
[10.53] N H((n + i)∆ω1 )Sˆuu ((n + i)∆ω1 ) + 1 m
P m−1 2
i=− m−1 2
1 m
P m−1 2
i=− m−1 2
N Sˆun ((n + i)∆ω1 )
N ((n + i)∆ω ) Sˆuu 1
Wanner geldt dat H((n + i)∆ω1 ) als constant beschouwd mag worden over een 2πm brandbreedte ∆ω = m∆ω1 = N dan gaat de vergelijking over in ∆t ˆ n ˆ n ∆ω) = H( n ∆ω) + Sun ( m ∆ω) H( n m m Sˆuu ( m ∆ω)
[10.54]
Wanneer we de schatter voor de spectrale dichtheden beschouwen als de som van de echte waarde plus een afwijking ten gevolge van de variantie is de schatter voor de overdrachtsfunctie te schrijven als: Sun (ω) + ∆Sˆun (ω) ˆ H(ω) = H(ω) + Suu (ω) + ∆Sˆuu (ω)
[10.55]
n 2πn met ω = m ∆ω = mN . In het hier beschouwde geval is uitgegaan van de situatie ∆t dat Sun (ω) = 0. Verder gaan we ervan uit dat het aantal frequentiebandjes m voldoende groot gekozen is zodat ∆Sˆuu (ω) Suu (ω) waardoor de schatter kan worden benaderd door:
∆Sˆun (ω) ˆ H(ω) ≈ H(ω) + Suu (ω)
[10.56]
Uitgaande van het feit dat de toegepaste schatters voor de spectrale dichtheden zuiver en asymptotisch raak zijn geldt dat ˆ E{H(ω)} ≈ H(ω) +
E{∆Sˆun (ω)} = H(ω) Suu (ω)
[10.57]
m.a.w. de schatter is zuiver. De variantie van de schatter van de modulus is te benaderen door V ar{|Sˆun (ω)|} ˆ V ar{|H(ω)|} ≈ 2 (ω) Suu
[10.58]
168
10
Schatten van spectrale dichtheden en overdrachtsfunkties
Invullen van de uitdrukking voor de variantie van de kruisspectrale dichtheid van twee ongecorreleerde signalen levert dan: 1 Suu (ω)Snn (ω) 1 Snn (ω) ˆ V ar{|H(ω)|} ≈ = 2 2m Suu (ω) 2m Suu (ω)
[10.59]
Aangezien de hier beschouwde schatter van de overdrachtsfunktie gebaseerd is op deling van een kruisspectrum door een autospectrum, is de variantie van het argument van de overdrachtsfunctie gelijk aan de variantie van het argument van de kruisspectrale dichtheid van de schatter Sˆuy (ω). Er geldt dan "
1 1 ˆ = V ar{6 Sˆuy (ω)} ≈ −1 V ar{6 H(ω)} 2 2m Γuy (ω) |Suy (ω)|2 Suu (ω)Syy (ω) Snn (ω) 1 zodat |H(ω)|2 Suu (ω)
Uitgaande van de definitie Γ2uy = volgt dat
1 Γ2uy (ω)
−1=
Snn (ω) 1 1 ˆ V ar{6 H(ω)|} ≈ 2 2m |H(ω)| Suu (ω)
#
[rad]
[10.60]
2 en van de relatie |Suy (ω)|2 = |H(ω)|2 Suu (ω)
[rad]
[10.61]
Hieruit blijkt dat: ˆ = V ar{6 H(ω)}
1 ˆ V ar{|H(ω)|} [rad] |H(ω)|2
[10.62]
Bij een toename van de observatietijd bij gelijkblijvende gewenste resolutie ∆ω langs de frequentieas neemt dus het aantal bandjes m waarover kan worden uitgemiddeld ˆ toe. In het limietgeval T = N ∆t → ∞ geldt dus m → ∞ en V ar{|H(ω)|} → 0. ˆ De schatter voor H(ω) is dus behalve zuiver ook asymptotisch raak. De praktische interpretatie van dit theoretische begrip kan als volgt geformuleerd worden. Bij een gegeven waarde van het scheidend vermogen ∆ω langs de frequentieas en een gegeven toelaatbare waarde voor de variantie van de schatter van de overdrachtsfunctie is er altijd een waarde voor de observatietijd T te vinden, zodanig dat aan deze eis wordt voldaan. Wel is het zo dat in de praktijk deze waarde van T niet altijd te realiseren is. In de procesindustrie heeft men vaak te maken met tijdconstanten in de orde van uren. Voor een goede schatting van het gedrag bij lage frequenties moet een meting dan dagen duren. Dit lukt vaak niet omdat er bijvoorbeeld ergens een defect optreedt of omdat er instellingen van het proces gewijzigd worden. Bij metingen aan het menselijk regelgedrag is de tijd waarover het gedrag als constant te beschouwen is weer beperkt door het optreden van factoren als vermoeidhied en verveling. Overigens heeft men in beide genoemde voorbeelden te maken met te identificeren systemen in een gesloten keten.
10.3.4 Schatter voor de overdrachtsfunctie in een gesloten keten. Voor dit geval beschouwen we het servosysteem van fig. 10.12. Hierin is H1 (ω) de
10.3
169
Eigenschappen van schatters in het frequentiedomein.
N(ω) R(ω)
-e + -6
- H1 (ω)
U(ω)
- H2 (ω)
regelaar
Y(ω)
+
+ ? e
-
systeem
Figuur 10.12: Systeem in gesloten keten
N(ω)
-
R(ω)
−H1 (ω)
1 + ? e-
1 1+H1 (ω)H2 (ω)
e+ - H1 (ω)H2 (ω) - ?
1 1+H1 (ω)H2 (ω)
-
+
H1 (ω)
+
U(ω)
-
Y(ω)
-
Vertaling van het systeem van vorig figuur naar een systeem met 2 ingangen en 2 uitgangen.
Figuur 10.13:
regelaar, H2 (ω) is het te regelen systeem dat wordt verstoord door ruis N (ω), die ongecorreleerd is met het door de uitgang Y (ω) te volgen referentiesignaal R(ω). ˆ 2 (ω) = Sˆry (ω) , met De overdrachtsfunctie H2 (ω) wordt geschat uit de relatie H Sˆ (ω) ru
2πn n ∆ω1 = mN , voor 0 ≤ n ≤ N . ω=m ∆t Voor het beoordelen van de eigenschappen van deze schatter beschrijven we de signalen U (ω) en Y (ω) in het frequentiedomein als funktie van de ongecorreleerde signalen R(ω) en N (ω) die van buiten de keten komen.
H1 (ω)H2 (ω 1 R(ω) + N (ω) 1 + H1 (ω)H2 (ω) 1 + H1 (ω)H2 (ω) H1 (ω) H1 (ω) U (ω) = R(ω) − N (ω) 1 + H1 (ω)H2 (ω) 1 + H1 (ω)H2 (ω)
Y (ω) =
[10.63]
Fig. 10.13 geeft het bij deze beschrijving behorende blokschema. Dit levert de volgende relaties tussen de schatters van de spectrale dichtheden. 1 H1 (ω)H2 (ω) ˆ Srr (ω) + Sˆrn (ω) 1 + H1 (ω)H2 (ω) 1 + H1 (ω)H2 (ω) H1 (ω) H1 (ω) Sˆru (ω) = Sˆrr (ω) − Sˆrn (ω) 1 + H1 (ω)H2 (ω) 1 + H1 (ω)H2 (ω) Sˆry (ω) =
ˆ 2 (ω) wordt dan gelijk aan De schatter voor H ˆ ˆ ˆ ˆ 2 (ω) = Sry (ω) = H1 (ω)H2 (ω)Srr (ω) + Srn (ω) H Sˆru (ω) H1 (ω)Sˆrr (ω) − H1 (ω)Sˆrn (ω) H2 (ω)Sˆrr (ω) − H2 (ω)Sˆrn (ω) + H2 (ω)Sˆrn (ω) + = Sˆrr (ω) − Sˆrn (ω)
[10.64] 1 Sˆ (ω) H1 (ω) rn
170
10
Schatten van spectrale dichtheden en overdrachtsfunkties
1 = H2 (ω) + H2 (ω) + H1 (ω)
!
Sˆrn (ω) Sˆrr (ω) − Sˆrn (ω)
zodat ˆ 2 (ω) − H2 (ω) = H2 (ω) + H
1 H1 (ω)
Sˆrn (ω) Sˆrr (ω) − Sˆrn (ω)
!
[10.65]
Aangezien Srn (ω) = 0 bevat Sˆrn (ω) alleen een variantieterm. Verder nemen we aan dat m voldoende groot gekozen is, zodat bij benadering geldt dat Sˆrr (ω) − Sˆrn (ω) ≈ Sˆrr (ω). De uitdrukking gaat dan over in: ˆ 2 (ω) − H2 (ω) ≈ H2 (ω) + 1 H H1 (ω)
!
Sˆrn (ω) Srr (ω)
[10.66]
Voor de verwachtingswaarde hiervan geldt dan: ˆ 2 (ω) − H2 (ω)} ≈ E{H
1 + H1 (ω)H2 (ω) Sˆrn (ω) E{ }=0 H1 (ω) Srr (ω) !
[10.67]
De schatter is dus als zuiver te beschouwen. Voor de variantie van de modulus van ˆ 2 (ω) geldt dan uitgaande van vgl. [10.66]: H ˆ 2 (ω)|} V ar{|H
1 + H (ω)H (ω) 2 V ar{S ˆrn (ω)} 1 2 ˆ 2 (ω) − H2 (ω)| } ≈ = E{|H 2 (ω) H1 (ω) Srr 2 1 1 + H (ω)H (ω) 1 2 2m Srr (ω)Snn (ω) ≈ 2 (ω) H1 (ω) Srr 2 1 + H (ω)H (ω) 1 S (ω) 1 2 nn ≈ 2m Srr (ω) H1 (ω) 2
ˆ 2 (ω) = 6 Sˆry (ω)− 6 Sˆru (ω) Voor het argument van de schatter van H2 (ω) geldt: 6 H ˆ 2 (ω) hangt nu dus af van de varianties van twee kruisspectra. en de variantie van 6 H Voor de afzonderlijke varianties geldt: 1 1 Srr (ω)Syy (ω) − |Sry (ω)|2 − 1 = Γ2ry 2m |Sry (ω)|2 !
1 V ar{6 Sˆry (ω)} ≈ 2m
1 Srr (ω)Suu (ω) − |Sru (ω)|2 1 − 1 = Γ2ru 2m |Sru (ω)|2 !
1 V ar{6 Sˆru (ω)} ≈ 2m
[rad] [rad]
Aan de hand van het multivariabele open keten blokschema van fig. 10.13 is dit te vertalen naar: V ar{6 Sˆry (ω)}
2
1 1 1+H1 (ω)H2 (ω) Snn (ω) 1 Snn (ω) 1 ≈ = 2 2 2m H1 (ω)H2 (ω) Srr (ω) |H1 (ω)H2 (ω)| 2m Srr (ω) 1+H1 (ω)H2 (ω)
V ar{6 Sˆru (ω)}
2 H1 (ω) 1 1+H1 (ω)H2 (ω) Snn (ω) 1 Snn (ω) ≈ = 2 H1 (ω) 2m 2m Srr (ω) Srr (ω) 1+H (ω)H (ω) 1
2
[rad]
10.3
171
Eigenschappen van schatters in het frequentiedomein.
ns=80 m=16
1
10
0
10
0
−1
10
10
−1
10
−2
10
m=16
1
10
−2
−1
10
0
1
10 10 frequentie [rad/s]
2
10
10
−1
10
50
50
0
0
−50
−50
−100
−100
−150 −1 10
0
10
1
10
2
10
−150 −1 10
0
1
10
1
10
10 10 frequentie [rad/s]
0
10
10
2
2
Bodediagram van een eerste-orde systeem. Links zijn daarin op 2 manieren bepaalde grenzen van ± de standaarddeviatie van een schatter getekend voor het geval van uitmiddeling over 16 bandjes. Manier 1: theoretische waarde; manier 2: geschat aan de hand van 80 simulaties. Rechts zijn de grensen volgens de theorie gegeven met daarin 1 van de 80 uitkomsten van de simulaties. Figuur 10.14:
ˆ 2 (ω) is nu gelijk aan: De variantie van 6 H ˆ 2 (ω)} = V ar{6 Sˆry (ω)} + V ar{6 Sˆru (ω)} V ar{6 H 1 + |H1 (ω)H2 (ω)|2 1 Snn (ω) = |H1 (ω)H2 (ω)|2 2m Srr (ω)
[10.68]
Voor het geval dat m → ∞ gaat de variantie naar nul. Dus de schatter voor H(ω) is zuiver en asymptotisch raak. Voorbeeld Fig. 10.14 geeft een voorbeeld van de schatting van een overdrachtsfunctie H2 (ω) 1 voor het geval dat H1 (ω) een PI-regelaar is met H1 (ω) = K1 + jωτ , met K1 = 5 1 K2 , en τ1 = 0.1 en het te regelen systeem een eerste orde systeem is; H2 (ω) = 1+jωτ 2 met K2 = 3 en τ2 = 0.5. De spectrale dichtheden van het referentiesignaal is gelijk 1 0.25 aan Srr = 1+0.09ω 2 ; de spectrale dichtheid van het ruissignaal is S nn = 1+0.04ω 2 . De figuur geeft het bodediagram met daarin aangegeven de echte waarde ± de standaarddeviatie samen met de uitkomst van een schatting. Verder is nog een schatting gemaakt van de standdaarddeviatie van modulus en argument op grond van 80 simulaties. Deze zijn op een lineaire schaal weergegeven in fig. 10.15 samen met de op grond van de formules voorspelde standaarddeviaties.
172
10
0.4
Schatten van spectrale dichtheden en overdrachtsfunkties
Stand.dev. Modulus ns=80, m=16
Stand.dev. Argument
25
0.3
20
0.2
15
0.1 0 0
30
10 20 40 60 frequentie [rad/s]
80
5 0
20 40 60 frequentie [rad/s]
80
Theoretische waarden van de standaarddeviatie van de schatter van het eerste orde systeem uit vorige figuur, bij uitmiddeling over 16 frequentiebandjes, samen met de geschatte waarden hiervan uit 80 simulaties. Figuur 10.15: