Onderwerpen Masterproef Opleiding Wiskunde Academiejaar 2013-2014 Vakgroep Toegepaste Wiskunde, Informatica en Statistiek
Gestructureerde populatiemodellen Promotor: Prof. W. Govaerts (
[email protected]) Begeleider: Charlotte Sonck (
[email protected])) Doelgroep: Master wiskunde Korte beschrijving In populatiemodellen is de basiseenheid het individu. Er wordt getracht om de kennis over mechanismen op het individuele niveau te vertalen naar modellen voor het aantal individuen. Een voorbeeld van zo’n individu is een cel, zoals biergist, waarvan men de individuele groei kan voorstellen door één of meerdere differentiaalvergelijkingen. Bij het opstellen van populatiemodellen is men geïnteresseerd in wat er een niveau hoger gebeurt: hoe is de verdeling van de celgrootte bij een populatie van cellen in functie van de tijd? De meest natuurlijke aanpak is om de individuele celtoestand zo compleet mogelijk trachten te beschrijven door een beperkt aantal numerieke variabelen (zoals grootte, massa,…) en om vervolgens vergelijkingen op te stellen die het verband vormen tussen de processen in de individuele cel en het statistische en dynamische gedrag van de populatie cellen. Het is de bedoeling dat de student in deze thesis inzicht krijgt in de basis van gestructureerde populatiemodellen aan de hand van het uitwerken van een aantal voorbeelden. Uitgangspunt hiervoor is deel I van [1], een basiswerk voor dit soort modelleringen. Deze voorbeelden omvatten o.a. modellen voor grootteafhankelijke reproductie bij ectothermische dieren en bij ééncelligen. Het uitwerken van deze voorbeelden houdt o.a. het begrijpen van de onderliggende dynamiek in, het bestuderen van de gewone en partiële differentiaalvergelijkingen en het oplossen van de oefeningen uit het hoofdstuk. Naargelang de interesse van de student, kan dit onderwerp dan verder uitgespit worden in een bepaalde richting. Referentie: [1] J.A.J. Metz and O. Diekmann, The Dynamics of Physiologically Structured Populations, Springer-Verlag 1986.
Het genereren van moeilijke vervulbaarheidsproblemen in vaaglogica. Promotor: Prof. dr. Martine De Cock, UGent,
[email protected] Co-Promotor: Prof. dr. Ann Nowé, VUB,
[email protected] Begeleider: Tim Brys, VUB,
[email protected] Doelgroep: Master Wiskunde, Toegepaste Wiskunde Korte beschrijving: Vervulbaarheid (satisfiability, kortweg SAT) is een concept in logica dat beschrijft of er voor een verzameling formules een waarheidstoekenning voor de variabelen bestaat die elke formule waar maakt.
Zo is de verzameling p,p∨q vervulbaar (kies p vals en q waar) maar de verzameling p,p^q niet. Een verzameling van formules wordt in deze context ook een SAT-instantie genoemd. Een SAT-solver is een programma dat beslist of een SAT-instantie vervulbaar is of niet, en in het eerste geval ook een geschikte waarheidstoekenning voor de variabelen aanreikt. Veel problemen in Artificiële Intelligentie kunnen geformuleerd worden als SAT-instanties, dus het is belangrijk om over goede SAT-solvers te beschikken die ook moeilijke SAT-instanties binnen aanvaardbare tijd kunnen oplossen. Vervulbaarheid wordt reeds lang onderzocht in propositielogica, en veel eigenschappen hiervan zijn gekend. Een belangrijk aspect bij het begrijpen van vervulbaarheid is verstaan wat een verzameling formules moeilijk maakt. In propositielogica bestaat er de gekende ‘phase-transition’ tussen vervulbare en onvervulbare instanties. Bij een zekere ratio tussen het aantal formules en het aantal variabelen in een verzameling formules is de kans dat ze vervulbaar is 50%. Instanties rond deze phase-transition zijn typisch moeilijk op te lossen, en zijn daardoor interessant voor het bouwen en vergelijken van SATsolvers. Het genereren van moeilijke random problemen is enkel een kwestie van de parameters zo te zetten dat op de phase-transition wordt gemikt. Vaaglogica (fuzzy logic) is een veralgemening van klassieke logica waarbij de waarheidswaarden komen uit gans het interval [0, 1] i.p.v. enkel 0 (vals) en 1 (waar). In vaaglogica is vervulbaarheid (SAT) veel minder onderzocht, en is er nog maar weinig gekend omtrent wat vervulbaarheidsproblemen moeilijk maakt. SAT-instanties bestaan uit veel meer parameters dan SAT in klassieke propositielogica. In klassieke logica zijn er maar twee waarheidswaarden, en een formule is waar wanneer haar waarheidswaarde voor een gegeven toekenning van de variabelen 1 is (of waar). In vaaglogica wordt een formule waar genoemd wanneer haar waarheidswaarde tussen een onder- en bovengrens [0, 1] ligt. Bij het genereren van moeilijke problemen is de keuze van deze grenzen zeer belangrijk en waarschijnlijk samen met het aantal formules en aantal variabelen bepalend voor de moeilijkheid van instanties. De enige huidig gekende methode die soms moeilijke SAT-instanties kan genereren is ad-hoc, en de controle over de moeilijkheidsgraad van problemen is klein. De bedoeling van deze masterproef is om mee onderzoek te doen naar de moeilijkheid van SAT, en bijgevolg methoden op te stellen die uitdagende SAT-instanties kunnen genereren. Je vertrekt hierbij vanuit een literatuurstudie omtrent SAT, de phase-transition in SAT, en het easy-hardeasy patroon. Vervolgens wordt van jou verwacht dat je gaat analyseren wat bepalend is voor de moeilijkheid van SAT-instanties, naar analogie met de analyses voor SAT, en dat je bijgevolg methodes opstelt die moeilijke SAT-instanties kunnen genereren. Dit onderzoek kadert in een gezamenlijk VUBUGent onderzoeksproject. Referenties Een bespreking van de phase-transition en het genereren van moeilijke problemen in SAT: B. Selman, D. G. Mitchell, and H. J. Levesque. “Generating hard satisfiability problems.” Artitificial Intelligence 81.1 (1996). https://dspace.ist.utl.pt/bitstream/2295/1034846/1/Selman95.pdf1.2 Een paper over het easy-hard-easy patroon: D. L. Mammen, and T. Hogg. “A new look at the easy-hard-easy pattern of combinatorial search difficulty.” Journal of Artificial Intelligence Research (1997). http://www.jair.org/media/370/live370-1621-jair.pdf Een beschrijving van SAT en de enige gekende methode om moeilijke instanties te genereren: S. Schockaert, J. Janssen and D. Vermeir, “Satisfiability Checking in Lukasiewicz Logic as Finite Constraint Satisfaction”. Journal of Automated Reasoning, 2012. http://download.springer.com/static/pdf/632/art%253A10.1007%252Fs10817-011-92270.pdf?auth66=1364026036_74c9d2101603b49b38b678ba5437c0dd&ext=.pdf
Een optimalizatie benadering voor het oplossen van SAT: T. Brys, Y.-M. De Hauwere, M. De Cock and A. Nowé, “Solving Satisfiability in Fuzzy Logics with Evolution Strategies”. In Proceedings of the 31st Annual North American Fuzzy Information Processing Society Meeting, 2012. http://ai.vub.ac.be/sites/default/files/46.pdf
Titel: Veralgemeende Fourier transformaties: discreet versus continu Promotor: Hendrik De Bie (
[email protected]) Joris Van der Jeugt (
[email protected]) Doelgroep: Studenten uit de tweede master Wiskunde. Korte beschrijving: De klassieke Fourier transformatie (FT) kan men linken aan een realisatie in termen van differentiaaloperatoren van de Lie algebra sl_2. Deze herschrijving laat vervolgens toe om vergaande veralgemeningen van de FT te bekomen, door nieuwe differentiaaloperator realisaties van sl_2 (of zelfs ingewikkeldere Lie (super)algebra's ) te construeren. De laatste jaren vormt dit een actief domein van onderzoek, waar zowel continue als discrete transformaties ingevoerd werden. In veel gevallen is er bovendien een interessante kwantummechanische interpretatie. Doel van deze scriptie is om een aantal dergelijke transformaties in detail te bestuderen, en in het bijzonder een vergelijkende studie te maken van het discrete en continue geval.
Titel: “Constant term identities” Promotor: Joris Van der Jeugt (
[email protected]) Doelgroep: Studenten uit de tweede master Wiskunde. Korte beschrijving: In de literatuur zijn er tal van intrigerende “constant term identities” te vinden, die dikwijls hun oorsprong vinden in algebra of combinatoriek. Het berekenen of bepalen van de constante term van een rationale functie (van een bepaalde klasse) is niet eenvoudig. Meestal moet men zich wenden tot technieken die dan kunnen geïmplementeerd worden in computeralgebrapakketten. Voor deze scriptie onderzoekt de student eerst een gebied waarin de berekening van constante termen van belang is, zoals de bepaling van Kronecker coëfficiënten voor symmetrische functies. Hiervoor is kennis van symmetrische functies en karakters van S_n een pluspunt. Vervolgens onderzoekt de student enkele methodes/algoritmes om constante term berekeningen te doen. Implementatie van zulke algoritmes in Maple (of Sage) maakt ook deel uit van het werk. Referenties: A. Garsia, N. Wallach, G. Xin and M. Zabrocki, Kronecker coefficients via symmetric functions and constant term identities. (zie o.a. arXiv:0810.0060 [math.CO]). G. Xin, A fast algorithm for MacMahon’s partition analysis (arXiv:math/0408377 *math.CO+).
Titel: Algoritmen voor symbolische sommatie Promotor: Joris Van der Jeugt (
[email protected]) Doelgroep: Studenten uit de tweede master Wiskunde. Korte beschrijving: De algoritmen van Gosper en Zeilberger dienen voor de symbolische sommatie van reeksen met hypergeometrische termen (zoals bij voorbeeld reeksen met termen bestaande uit producten van binomiaalcoëfficiënten, of rationale vormen). Deze algoritmen dateren uit het begin van de jaren 90 en zijn nu reeds geïmplementeerd in een MAPLE-pakket sumtools. De scriptie bestaat uit: overzicht van de belangrijkste sommatietheorema's voor reeksen; studie van Gospers algoritme en Zeilbergers algoritme; gebruik van programma's in MAPLE. Afhankelijk van de interesse van de student kan de studie uitgebreid worden met het onderzoek van reeksen die voorkomen in “supersymmetrische uitbreidingen”. Referenties: M. Petkovsek, H. Wilf en D. Zeilberger, A=B. A.K. Peters, 1996. (http://www.math.upenn.edu/~wilf/AeqB.html) W. Koepf, Hypergeometric summation. Vieweg, 1998. (http://www.mathematik.unikassel.de/~koepf/hyper.html)
Discrete hedgingstrategieën Promotor: Prof. dr. M. Vanmaele (
[email protected]) Doelgroep: studenten uit de tweede master Wiskunde Korte beschrijving In een complete markt kan een optie perfect gerepliceerd en dus gehedged worden door een deltahedgingstrategie te volgen. Deze hedgingstrategie veronderstelt echter dat men de samenstelling van de hedgingportefeuille continu in de tijd kan aanpassen wat niet realistisch is in praktijk. Ook de zogenaamde kwadratische hedgingstrategieën zoals de lokaal risicominimiserende strategie en de mean-variance strategie die gebruikt worden in een incomplete markt zijn continue hedgingstrategieën. Zelfs om deze strategieën numeriek uit te testen moet men een in de tijd gediscretiseerde benadering maken. Echter, hedgingstrategieën die optimaal zijn in het continue geval zijn niet noodzakelijk optimaal in het discrete geval. De bedoeling van deze masterproef is om discrete hedgingstrategieën rechtstreeks te gaan bestuderen evenals een aantal numerieke voorbeelden te berekenen adhv MatLab. Een aantal interessante artikels over dit onderwerp zijn van F. Angelini en co-auteurs, zie http://accounts.unipg.it/~angelini/#ricerca Dan zijn er ook de volgende artikels (te vinden op de websites van de vermelde auteurs): M. Schweizer (1995a) ,"Variance-Optimal Hedging in Discrete Time". Mathematics of Operations Research 20, 1-32
M. Brodén, P. Tankov (2011), “Tracking errors from discrete hedging in exponential Lévy models”. International Journal of Theoretical and Applied Finance, 14, 1-35 L. Schiefner (2002), “Risk-Minimizing Hedging of General Cash Flows in Discrete Time”. EFA 2002 Berlin Meetings Discussion Paper. Available at SSRN: http://ssrn.com/abstract=302320 or http://dx.doi.org/10.2139/ssrn.302320
Monte Carlo optieprijsberekening gekoppeld aan Fouriertransformaties Promotor: Prof. dr. M. Vanmaele (
[email protected]) Begeleider: Catherine Daveloose Doelgroep: studenten uit de tweede master Wiskunde Korte beschrijving Opties waarvan de onderliggende waarde gedreven wordt door een proces waarvan de verdelingsfunctie niet gekend is in gesloten vorm is moeilijk te simuleren met de Monte Carlotechniek (MC). Echter wanneer dit proces wel een karakteristieke functie heeft in gesloten vorm dan kan een de cumulatieve verdelingsfunctie gereconstrueerd worden uit de toenames via Fourier inversietechnieken (FT). Deze gecombineerde MC-FT techniek is beschreven in: Ballotta, Laura and Kyriakou, Ioannis, Monte Carlo Option Pricing Coupled with Fourier Transform for the CGMY Process (October 28, 2011). Cass Business School Research Paper. Available at SSRN: http://ssrn.com/abstract=1951537 or http://dx.doi.org/10.2139/ssrn.1951537 In dit artikel wordt de techniek toegepast voor een CGMYproces en worden ook andere manieren om dit proces te simuleren besproken. In Chen, Zisheng, Feng, Liming and Lin, Xiong, Simulating Levy Processes from Their Characteristic Functions and Financial Applications (July 30, 2011). ACM Transactions on Modeling and Computer Simulation, Forthcoming. Available at SSRN: http://ssrn.com/abstract=1983134, wordt een Hilbertransformatie gebruikt om de karakteristieke functie te inverteren. Verder wordt er in Vlad Bally, Lucia Caramellino, Antonino Zanette: Pricing and hedging American options by Monte Carlo methods using a Malliavin calculus approach. Monte Carlo Meth. and Appl. 11(2): 97-133 (2005), aandacht besteed aan het simuleren van Amerikaanse opties beschreven op een onderliggende gedreven door een Brownse beweging. Het voorgestelde algoritme werkt van achter naar voren en maakt gebruik van de Brownse brug. In de context van gamma- en variance-gammaverdelingen beschrijft Avramidis et al. (2003) een algoritme dat onderstelt dat de conditionele verdelingsfunctie expliciet gekend is en dat geïnspireerd is op de Brownse brug sampling algoritmes, zie Athanassios N. Avramidis, Pierre L’Ecuyer, Pierre-Alexandre Tremblay: Efficient simulation of gamma and variance-gamma processes, in: Proceedings of the 2003 Winter Simulation Conference, S. Chick, P. J. Sánchez, D. Ferrin, and D. J. Morrice, eds., 319-326. Deze masterproef heeft dan tot doel vooreerst vertrouwd te worden met Lévyprocessen en in het bijzonder het CGMYproces en het variance-gamma-proces. Vervolgens worden de verschillende simulatietechnieken bestudeerd die steunen op de karakteristieke functie en in het bijzonder algoritmes voor conditionele verdelingsfuncties die werken van achter naar voren. Tot slot worden er numerieke experimenten uitgevoerd voor het prijzen van verschillende types opties met speciale aandacht voor Amerikaanse opties.
Een ander onderwerp in het domein van de financiële wiskunde Promotor: Prof. dr. M. Vanmaele Doelgroep: studenten uit de tweede master Wiskunde Bespreekbaar
Titel: Veralgemeende ruwverzamelingen en hun uitbreiding naar de vaagverzamelingenleer Promotor: Chris Cornelis (
[email protected]) Begeleider: Nele Verbiest (
[email protected]) Doelgroep: Master wiskunde Korte beschrijving Ruwverzamelingenleer (Eng. Rough set theory; Pawlak, 1982) is een wiskundige theorie waarbij men deelverzamelingen A van een universum U benadert m.b.v. een equivalentierelatie R over U, of gelijkwaardig hiermee, een partitie P van U. Meer bepaald omvat de onderbenadering van A alle equivalentieklassen van R die volledig bevat zitten in A en de bovenbenadering van A alle klassen die een niet-ledige doorsnede hebben met A. Deze theorie kent uitgebreide toepassing binnen data-analyse en is ook nauw verwant met topologie en formele logica. Wanneer men de eis dat R een equivalentierelatie is (resp., dat P een partitie vormt) minder strikt maakt door slechts te eisen dat R een willekeurige binaire relatie over U is (P een willekeurige collectie van deelverzamelingen van U), spreekt men over veralgemeende ruw-verzamelingen. De definitie van onderen bovenbenadering is in dit geval niet langer eenduidig bepaald. In een recent artikel (Yao en Yao, 2012) onderscheiden de auteurs bvb. niet minder dan 20 verschillende paren van benaderingsoperatoren gebaseerd op een bedekking (Eng. Covering) C van U, en deze lijst is niet-exhaustief. De studie van de verbanden tussen verschillende definities en de eigenschappen die ze vervullen is een relevant en actueel onderzoeksthema. Een andere interessante uitbreiding van ruwverzamelingenleer bestaat erin A, R en P te veralgemenen tot de vaagverzamelingenleer (Eng. Fuzzy set theory; Zadeh, 1965). Hierbij drukt men uit dat elementen in een bepaalde mate tot een verzameling of relatie kunnen behoren. Meer nog dan in het niet-vage geval heeft men een grote vrijheid bij de keuze van de definitie van de benaderingsoperatoren, zie bvb. (Cornelis et al., 2008); het onderzoek hiernaar staat nog relatief in de kinderschoenen, zeker wat betreft de definities gebaseerd op uitbreidingen van een partitie of bedekking. In deze masterthesis dient de student de beschikbare literatuur over veralgemeende ruw-verzamelingen kritisch te bestuderen en de verbanden tussen verschillende definities in kaart te brengen. In een volgend stadium zal hij/zij nieuwe definities voor benaderingsoperatoren in de vaagverzamelingenleer uitwerken, en deze aftoetsen m.b.t. de eigenschappen die ze vervullen. Via dit onderwerp kan de student een rechtstreekse bijdrage leveren tot het actueel wetenschappelijk onderzoek in de wiskunde. Referenties: C. Cornelis, M. De Cock, A.M. Radzikowska, Fuzzy Rough Sets: from Theory into Practice, in: Handbook of Granular Computing, Wiley, p. 533-552, 2008.
Z. Pawlak, Rough sets, International Journal of Computer and Information Sciences 11(5), pp. 341– 356, 1982. L. Zadeh Fuzzy Sets, Information and Control 8, pp. 338-353, 1965. Y.Y. Yao, B. Yao, Covering Based Rough Sets Approximations, Information Sciences 200, pp. 91–107, 2012.
Targeted maximum likelihood estimation (TLME) voor het schatten van causale effecten in observationele studies Promotor: Stijn Vansteelandt Begeleider: Karel Vermeulen Doelgroep: studenten wiskunde met interesse in mathematische statistiek Korte beschrijving In heel wat epidemiologische studies is men geïnteresseerd in het schatten van het causaal effect van een blootstelling op een bepaalde uitkomst; bijvoorbeeld, het causaal effect van roken op het risico op sterfte. Dit wordt vaak bemoeilijkt door confounding: de aanwezigheid van factoren die zowel de blootstelling als uitkomst beïnvloeden, waardoor de associatie tussen beiden niet langer een zuiver causaal effect weerspiegelt. Bijvoorbeeld, niet-rokers zijn doorgaans individuen met een gezondere levensstijl dan rokers. Het niet in rekening brengen van confounding leidt tot een vertekende inschatting van het effect van roken. Over de laatste jaren zijn er heel wat schattingstechnieken ontwikkeld om vertekening ten gevolge van confounding te elimineren. Hiervoor moeten statistische modellen worden gebouwd die de associatie van confounders met de uitkomst en/of blootstelling modelleren. Wanneer deze modellen echter niet correct gespecifieerd zijn, kunnen vertekende schattingen worden bekomen. Recent werd er in de literatuur een algemene schattingsmethode voorgesteld, targeted maximum likelihood estimation, die om die reden zuinig omspringt met statistische modellering en schatters met gunstige eigenschappen (bvb. kleine variantie) oplevert. Het doel van deze masterproef zal in eerste instantie zijn om inzicht te verwerven hoe deze schattingsmethode te werk gaat en vervolgens de performantie van TMLE door middel van een simulatiestudie te vergelijken met andere bestaande schattingsmethoden om een causaal effect van een blootstelling op een uitkomst te schatten. Uitgangspunt is het boek “Targeted Learning, causal inference for observational and experimental data” van Mark J. van der Laan en Sherri Rose, Springer Series in Statistics, hoofdstukken 1 tot 7.
Optimale inschatting van nuisance parameters in statistische analyses Promotor: Stijn Vansteelandt Begeleider: Karel Vermeulen Doelgroep: studenten wiskunde met interesse in ofwel theoretische, ofwel toegepaste statistiek.
Korte beschrijving Over de laatste jaren maken statistische analyses meer en meer gebruik van `invers wegen'. Dit is een techniek waarbij de metingen van elk individu op een specifieke manier gewogen worden, met als doel bepaalde vormen van vertekening (bijvoorbeeld, ten gevolge van confounding) te elimineren. Een nadeel van deze techniek is echter dat de gewichten, die op basis van de maximum kans methode bekomen worden, voor sommige individuen soms zeer hoog kunnen oplopen. Dat heeft tot gevolg dat deze individuen zeer invloedrijk worden in de analyse, en bijgevolg de analyse danig in de war kunnen sturen. In deze masterproef zult u betrokken worden in een lopend onderzoeksproject waarbij een algemene theorie werd ontwikkeld om deze gewichten op een veel betere manier in te schatten (niet via de maximum kans methode). Het doel zal er meer concreet in bestaan om, na een studie van deze theorie, ze toe te passen op een concrete probleemstelling die momenteel zeer veel aandacht krijgt in de literatuur. Met name zullen we de theorie toepassen om (via zogenaamde directe en indirecte effecten) inzicht te krijgen in het causale mechanisme waarbij een bepaalde blootstelling een bepaalde uitkomst beïnvloedt. Deze toepassing is gemotiveerd door de concrete probleemstelling waarom bepaalde genen met longkanker geassocieerd zijn: omdat ze mensen ertoe aanzetten te roken, of omdat ze rechtstreeks het risico op longkanker beïnvloeden. De focus van deze masterproef kan, afhankelijk van de interesses van de student, van zeer theoretisch tot zeer toegepast variëren.
Statistische consulting Promotor: Stijn Vansteelandt Doelgroep: studenten wiskunde met interesse in toegepaste statistiek Korte beschrijving In deze masterproef zult u betrokken worden in één of meerdere statistisch (medisch) consulting projecten. Het concrete onderwerp zal worden bepaald in functie van de consulting projecten die zich bij de promotor aandienen voor eind september. Het doel is om de nodige statistische technieken voor de succesvolle afwerking van het project aan te leren, deze vervolgens toe te passen en de resultaten zowel schriftelijk als mondeling terug te rapporteren aan de betrokken clinici.
Vine copula's Promotor: David Vyncke Doelgroep: Toegepaste Wiskunde Korte beschrijving Vine copula's vormen een flexibele klasse van afhankelijkheidsstructuren voor het modelleren van hoogdimensionale data. Daarbij modelleert men de afhankelijkheid als een hiërarchische structuur van tweedimensionale copula's. Voor deze scriptie zal de student zich verdiepen in de recente literatuur over vines en één of meerdere artikels in detail uitwerken.
Referenties ● T. Bedford, R. Cooke (2002). Vines — a new graphical model for dependent random variables. Annals of Statistics 30, 1031–1068. ● K. Aas, C. Czado, A. Frigessi, H. Bakken (2009). Pair-copula constructions of multiple dependence. Insurance: Mathematics and Economics 44 (2), 182-198.
Multivariate Extreme Waarde Theorie en copula's Promotor: David Vyncke Doelgroep: Toegepaste Wiskunde Korte beschrijving Naar analogie met de Centrale Limietstelling voor het steekproefgemiddelde stelden Fisher en Tippett (1928) een limietverdeling op voor het steekproefmaximum. Dit resultaat leidde tot een nieuw onderzoeksgebied in de statistiek, nl. dat van de Extreme Waarde Theorie (EWT). De EWT vindt haar toepassingen o.a. bij banken en verzekeringen waar extreem grote verliezen en hoge claims nefaste gevolgen kunnen hebben. In het univariate geval is de EWT al uitgebreid behandeld, maar voor multivariate risico's is de theorie veel beperkter. Dit is deels te wijten aan het ontbreken van een standaard ordening in de meerdimensionale ruimte, maar ook aan de onenigheid over de te volgen aanpak. Eén mogelijke aanpak bestaat erin de multivariate verdeling op te splitsen in twee delen: de marginale (univariate) verdelingen enerzijds en hun copula (afhankelijkheidsstructuur) anderzijds. De bedoeling van deze scriptie is de resultaten in verband met multivariate EWT in kaart te brengen, met bijzondere aandacht voor de Extreme Waarde Copula. Referenties ● T. Mikosch (2005). How to model multivariate extremes if one must? Statistica Neerlandica 59 (3), 324–338. ● G. Gudendorf, J. Segers (2009). Extreme-Value Copulas. Discussion Paper 0926, Institut de Statistique, Université Catholique de Louvain.
Moving from Value-at-Risk to Expected Shortfall under Basel III regulatory framework Promotor: David Vyncke Begeleider: Joseph Mavor (PwC) Doelgroep: Toegepaste Wiskunde Korte beschrijving Over the past years, Value-at-Risk (VaR) has been largely used by financial institutions and regulators in order to measure the risk of loss on a portfolio of financial assets. However, while the approach still presents several advantages, it has weaknesses that have been recently exacerbated by the current
financial crisis. Value-at-risk is often criticised as not presenting a full picture of the risks a company faces, the tail risk of VaR emerging since it measures only a single quantile of the profit/loss distributions and disregards any loss beyond the VaR level. The Basel Committee on Banking Supervision has recently proposed using expected shortfall instead of value-at-risk as the central metric for regulatory market risk capital (“Fundamental review of the trading book”, BCBS consultative document, May 2012). The purpose of this thesis is to produce an overview of the various approaches suggested when calculating Expected Shortfall and VaR (focussing on Historical VaR and Monte-Carlo VaR). In addition, practical examples based on an equity option portfolio must be developed to illustrate the approaches and their issues. In addition to the follow-up provided by the University, the student will be followed by a member of the PwC quant group. The thesis can be combined with a PwC internship. References ● Foundations of the Proposed Modified Supervisory Formula Approach; BCBS Working Papers No 22 (January 2013) ● John Hull Risk Management and Financial Institutions (3rd edition) Wiley, (2012) ● Carlo Acerbi; Dirk Tasche (2001) Expected Shortfall: a natural coherent alternative to Value at Risk ● Yamai, Yasuhiro; Yoshiba, Toshinao (2008) On the Validity of Value-at-Risk: Comparative Analyses with Expected Shortfall; Monetary and Economic Studies. Vol 20, 1, p 57-85
Titel: Optimalisatie-algoritmen voor het sorteren van permutaties door omkeringen Promotor/begeleider: Veerle Fack (
[email protected]) Doelgroep: Master Wiskunde (Toegepaste Wiskunde) Korte beschrijving Wanneer in een permutatie π = π1 . . . πn het segment πi . . . πj omgekeerd wordt tot πj . . . πi , dan noemt men dit een omkering ρ(i, j). Een willekeurige gegeven permutatie π kan door een sequentie van geschikte omkeringen getransformeerd worden tot de identieke permutatie. Dit wordt sorteren door omkeringen genoemd. Het minimum aantal omkeringen dat nodig is om een permutatie π te sorteren, wordt de omkeringsafstand d(π) genoemd. ¨ Dit is een onhandelbaar probleem, m.a.w. het is hoogst onwaarschijnlijk dat er een efficient (m.a.w. polynomiaal) algoritme voor bestaat. Hierdoor zijn heuristische benaderingen het meest geschikt. Een eenvoudig gretig algoritme, gebaseerd op de identificatie van breekpunten in de permutatie, heeft een benaderingsverhouding 4. Met een relatief eenvoudige uitbreiding van dit algoritme wordt een 2-benaderingsalgoritme bekomen. Het beste gekende benaderingsalgoritme heeft benaderingsverhouding 1.375. Een toepassing van dit probleem vindt men in de bioinformatica, waar de volgorde van de genen in een genoom gerepresenteerd kan worden door een permutatie. Het bepalen van een waarschijnlijke manier waarop een genoom door evolutie in een ander genoom getransformeerd kan zijn, kan dan gezien worden als een probleem van het bepalen van de omkeringsafstand tussen de permutaties. Het is de bedoeling deze benaderingsalgoritmen te bestuderen en uit te testen. Dit houdt onder meer een gedetailleerde studie van het 1.375-benaderingsalgoritme in. Verder is het de bedoeling de vermelde algoritmen effectief te implementeren en hun onderlinge performantie ook experimenteel te vergelijken. Deze scriptie kan ook een didactische component krijgen via het uitwerken van een reeks van 2 of 3 lessen voor het middelbaar onderwijs (vrije ruimte in de hoogste graad) met als onderwerp de toepassing van genoomherschikkingen en het eenvoudige algoritme gebaseerd op breekpunten. Referenties: • W.-K. Sung, Chapter 9: Genome Rearrangement, in: Algorithms in Bioinformatics, A Practical Introduction, CRC Press (2010) pp.225–245. • P. Berman, S. Hannenhali, M. Karpinski, 1.375-Approximation Algorithm for Sorting by Reversals, in: Proceedings of European Symposium on Algorithms, Lecture Notes in Computer Science 2461 (2002) 200–210. • G. Fertin, A. Labarre, I. Rusu, E. Tannier, S. Vialette, Combinatorics of Genome Rearrangements, MIT Press (2009).
Kwadratuurformules voor integralen met een sterk oscillerend integrandum Doelgroep: master wiskunde/ master wiskundige informatica promoter/begeleider : prof. M. Van Daele, dr. V. Ledoux Beschrijving Sterk oscillerende integralen komen voor in een brede waaier van praktische fysische problemen. Kwadratuur van dergelijke integralen is dus een numerieke uitdaging met een grote relevantie en belang. Oscillerende integralen kunnen gemodelleerd worden door integralen van de vorm I=
Z
b
f (x) exp(iωg(x))dx. a
De parameter ω bepaalt de frequentie van de oscillaties in het integrandum. De functies f en g zijn niet-oscillatorisch. Traditionele technieken falen voor integralen van deze vorm voor hoge frequenties. Zo zijn Newton-Cotes- of Gauss-kwadratuurformules gebaseerd op veelterminterpolatie. Maar veeltermen zijn niet geschikt om sterk oscillerende functies te benaderen en de fout neemt snel toe bij stijgende ω. Toch is de effici¨ente en goedkope benadering van oscillerende integralen perfect mogelijk. Een aantal geavanceerde methoden werden ontwikkeld specifiek voor dit soort integralen. Deze methoden hebben enkel een vast aantal operaties voor stijgende ω nodig en geven een nauwkeurigheid die zelfs stijgt met ω. Deze methoden zijn gebaseerd op de observatie dat de waarde van I wordt bepaald door het gedrag van f en g in de buurt van de eindpunten a en b, en van de stationaire punten. Deze punten worden gevonden als oplossing van de vergelijking g ′ (ξ) = 0, ξ ∈ [a, b]. Hun belang volgt uit het feit dat de oscillerende factor in I rond een stationair punt lokaal quasi constant is. Het deel van de integraal rond een stationair punt heeft daardoor een belangrijke bijdrage tot de waarde van I. In de andere delen van het interval [a, b] heffen de oscillaties elkaar in toenemende mate op bij stijgende waarden van ω. Het doel van de scriptie is een studie te maken van een aantal methoden voor sterk oscillerende integralen van de vorm I en ze toe te passen op een aantal testproblemen. Literatuur Enkele wetenschappelijke artikels: 1. R. Cools, D. Huybrechs and D. Nuyens, Recent Topics in Numerical Integration, Int. J. Quant. Chem. 109 (2009). 2. A. Iserles and S. Nørsett, On quadrature methods for highly oscillatory integrals and their implementation, BIT 44 (2004).
Het berekenen van de eigenfuncties van een Schr¨ odinger probleem in Matslise Doelgroep: master wiskunde / master wiskundige informatica promoter/begeleider : prof. M. Van Daele, dr. V. Ledoux Beschrijving In de meest gekende vorm, bestaat een interpolatieprobleem erin om een formule te vinden die toelaat een benadering te berekenen voor y in enkele arbitraire punten x (a < x < b) wanneer de waarden van y gegeven zijn in een aantal roosterpunten x0 = a < x1 < x2 < ... < xn = b. De klassieke methodes (zoals bvb. Lagrange interpolatie) zijn gebaseerd op de veronderstelling dat y(x) voldoende braaf is om benaderd te worden door een veelterm. Veelterminterpolatie is echter niet altijd aangewezen en is bijvoorbeeld niet 1
erg effectief wanneer y(x) een oscillerend gedrag vertoont. Betere resultaten worden dan bekomen door meer geavanceerde technieken (zoals exponential fitting) te gebruiken. De kwaliteit van de interpolatie hangt eveneens af van de beschikbare informatie. De ge¨ınterpoleerde waarden zullen uiteraard beter zijn wanneer naast de waarden y(xi ) ook de eerste orde afgeleiden y ′ (xi ) gekend zijn en in rekening gebracht kunnen worden, en nog beter wanneer we bijkomend de tweede orde afgeleide y ′′ (xi ) gebruiken. Als concrete toepassing beschouwen we het berekenen van de golffunctie y van een Schr¨odinger-probleem. Het Schr¨odingerprobleem bestaat uit een tweede orde gewone differentiaalvergelijking (ODE) van de vorm y ′′ = (V (x) − E)y,
(1)
a < x < b,
met randvoorwaarden in de eindpunten a en b. De Schr¨odingervergelijking vormt de fundamentele vergelijking in de quantummechanica. Een waarde voor de parameter E waarvoor een niet-nul oplossing bestaat, wordt een eigenwaarde genoemd. De eigenwaarden worden typisch geordend als E0 < E1 < E2 < . . . en de golffunctie of eigenfunctie yk (x), horende bij Ek , heeft dan exact k nulpunten in het interval (a, b). Dit betekent dat de “hogere” eigenfuncties sterk oscilleren. Dit sterk oscillerend gedrag is de reden waarom een klassieke ODE methode (een lineaire meerstapsmethode of een Runge-Kutta methode) moeilijkheden ondervindt om een Schr¨ odinger probleem op te lossen. Veel betere resultaten worden bekomen wanneer men een zogenaamde CP methode toepast. Door het toepassen van een CP methode, verkrijgen we de waarde van de golffunctie y en van de eerste orde afgeleide y ′ in een aantal roosterpunten, maar ook de waarde van y ′′ in dezelfde punten via de vergelijking (1). Doordat de CP methoden toelaten om stapgroottes te nemen die typisch groter zijn dan de golflengte, moet ge¨ınterpoleerde data toegevoegd worden om een mooie figuur van de golffunctie te kunnen maken. De standaard interpolatietechnieken volstaan echter niet doordat de golffunctie meerdere nulpunten kan hebben binnen 1 stap.
0.6 0.4 0.2
y
0 −0.2 −0.4 −0.6
0
0.5
1
1.5
2
2.5
3
x
Figure 1: Een typische oplossing y van een Schr¨odinger vergelijking: een eigenfunctie (blauwe lijn) geconstrueerd op basis van de CP benadering (rode punten) in een aantal roosterpunten zoals bekomen in Matslise Het uiteindelijke doel is om het berekenen en de grafische voorstelling van de Schr¨odinger eigenfuncties in het Matlab software pakket Matslise te verbeteren. Matslise is een Matlab toolbox die binnen onze onderzoeksgroep werd ontwikkeld voor het berekenen van de eigenwaarden en eigenfuncties van Schr¨odinger en meer algemene Sturm-Liouville problemen. Matslise maakt gebruik van een CP methode wat toelaat ook voor zeer hoge E-waarden een effici¨ente en accurate oplossing te bekomen, i.e. nauwkeurige benaderingen voor y en y ′ in een aantal roosterpunten. Het kan echter interessant zijn voor een gebruiker van het pakket om de eigenfunctie te kunnen evalueren in eigen gekozen x-waarden of om een mooie gladde grafische voorstelling van de eigenfunctie te zien. Literatuur Enkele wetenschappelijke artikels: 1. L. Gr. Ixaru, Numerical operations on oscillatory functions, Computers and Chemistry 25 (2001). 2. K. J. Kim and S. H. Choi, Frequency-dependent interpolation rules using first derivatives for oscillatory functions, J. Comput. Appl. Math. 205 (2007). 2
3. L. Gr. Ixaru, Methods tuned on the physical problem - a way to improve numerical codes, Rom. Journ. Phys. 55 (2010). 4. L. Gr. Ixaru, CP methods for the Schr¨odinger equation, J. Comput. Appl. Math. 125 (2000).
Het oplossen van randwaardeproblemen Doelgroep: master wiskunde/ master wiskundige informatica promoter/begeleider : prof. M. Van Daele Beschrijving In de cursussen Numerieke methoden voor Differentiaalvergelijkingen (opleiding wiskunde) en Wetenschappelijk rekenen (opleiding informatica) worden beginwaardeproblemen opgelost. Hierbij worden alle voorwaarden, die opgelegd worden aan de oplossing van de differentiaalvergelijking, uitgedrukt in hetzelfde punt. Bij tweede-orde differentiaalvergelijkingen gebeurt het echter vaak dat de er een voorwaarde opgelegd wordt in het beginpunt en het eindpunt van het interval. Men spreekt in dat geval over randwaardeproblemen. Het doel van deze thesis is de studie van een aantal technieken (shooting, collocatie, deferred correction, Galerkin, . . . ) om zo’n randwaardeproblemen op te lossen. Literatuur Enkele wetenschappelijke werken : 1. M. Heath, Scientific Computing, An Introductory Survey, Mc Graw-Hill (2002) 2. J.R. Cash, Numerical integration of non-linear two-point boundary-value problems using iterated deferred corrections I : A survey and comparison of some one-step formulae. Comput. Math. Appl. 12, 10, Part 1 (1986), 1029-1048. 3. U. Asher, R. Mattheij, R. Russell, Numerical Solution of Boundary Value Problems for Ordinary Differential Equations, SIAM (1995)
Numerieke methoden voor tweede-orde differentiaalvergelijkingen Doelgroep: master wiskunde/ master wiskundige informatica promoter/begeleider : prof. M. Van Daele Beschrijving In de cursussen Numerieke methoden voor Differentiaalvergelijkingen (opleiding wiskunde) en Wetenschappelijk rekenen (opleiding informatica) worden methoden besproken voor eerste orde differentiaalvergelijkingen. In principe volstaan deze om tweede-orde differtiaalvergelijkingen y ′′ = f (x, y) op te lossen, want elke tweede-orde vergelijking kan omgezet worden in een stelsel eerste-orde vergelijkingen. Hierdoor wordt echter y ′ ge¨ıntroduceerd in het probleem. Om dit te vermijden, zijn er ook methoden ontwikkeld die rechtstreeks geschikt zijn voor tweede-orde (of algemeen gesproken hogere orde) differentiaalvergelijkingen. De meest bekende methode hiervoor is wellicht de Numerov methode. Het doel van deze thesis is na te gaan hoe deze methoden kunnen geconstrueerd worden. Wat is hun orde? Hoe zit de stabiliteitstheorie voor deze methoden in elkaar? . . . Literatuur
3
o.a : E. Hairer, S.P. Norsett, G. Wanner, Solving Ordinary Differential Equations I, Springer-Verlag (1991)
Exponential fitting Doelgroep: master wiskunde/ master wiskundige informatica promoter/begeleider : prof. M. Van Daele Beschrijving Heel veel numerieke methoden (voor de benadering van afgeleiden, de berekening van integralen, het oplossen van differentiaalvergelijken, . . . ) steunen op veelterminterpolatie. Voor sommige toepassingen (bvb. als geweten is dat het integrandum of de af te leiden functie periodiek is), zijn veeltermen niet zo geschikt, maar zijn trigonometrische of exponenti¨ele functies eerder aangewezen. Daarom werden nieuwe methoden ontwikkeld die met dit oscillerend of exponentieel karakter rekening houden. Deze techniek heet exponential-fitting. Het doel van deze thesis is dieper in te gaan op de exponential-fitting techniek en zo’n methoden toe te passen op een aantal typische problemen. Literatuur o.a. Liviu Gr. Ixaru and G. Vanden Berghe, Exponential Fitting, Kluwer, Boston - Dordrecht - London, 2004.
4