SBORNÍK prací účastníků vědeckého semináře doktorského studia Fakulta informatiky a statistiky Vysoké školy ekonomické v Praze
PRAHA 2008
SBORNÍK prací účastníků vědeckého semináře doktorského studia Fakulta informatiky a statistiky Vysoké školy ekonomické v Praze
Vědecký seminář se uskutečnil 7. února 2008 pod záštitou děkana FIS prof. Ing. Jana Segera, CSc. Sestavení sborníku: Ing. Jakub Fischer, Ph.D. proděkan pro vědu a výzkum
OBSAH Předmluva
5
Informační strategie malých a středních firem Ing. Daniela Beer (informatika )
7
Capability Maturity Model a jeho využití v oblasti auditu IS/ICT Ing. Martin Fleischmann (informatika)
17
Mapování znalostí v organizaci Ing. Josef Nožička (informatika)
25
Procesní řízení v IT Ing. Natálie Presová (informatika)
33
Smysluplné multirelační 4FT hypotézy Mgr. Martin Ralbovský (informatika)
42
Modelování business procesů: regulativní přístup Ing. Oleg Svatoš (informatika)
52
Zvládání složitosti multiagentního systému Ing. Tomáš Šalamon (informatika)
60
Modelový přístup k politice cílování inflace Ing. Ondřej Čížek (ekonometrie a operační výzkum)
69
Reálná konvergence a Balassův – Samuelsonův efekt Ing. David Havrlant (ekonometrie a operační výzkum)
77
Aplikácia vybraných Heuristických metód na rozvozný problém s delenou dodávkou Ing. Lucia Horáčková, Ing. Andrej Chu (ekonometrie a operační výzkum) 85 Technická efektivnost v oblasti zdravotnictví a její vztah k odměnám zdravotnického personálu Ing. Ivana Novosádová (ekonometrie a operační výzkum) 92 Modelování zahraničního obchodu pomocí panelových dat Ing. Filip Tichý (ekonometrie a operační výzkum)
Vědecký seminář doktorandů FIS – únor 2008
100
3
Wavelety a jejich použití v analýze časových řad Mgr. Milan Bašta (statistika)
107
Vybrané aspekty robustní regrese Ing. Jindřich Černý (statistika)
117
Postačující charakteristiky kvality modelu logistické regrese Ing. Lubomír Hanusek (statistika)
127
Modelování časových řad průměrných měsíčních teplot pomocí BoxJenkinsovy metodologie Ing. Karel Helman (statistika)
137
Maximálně věrohodný odhad stochastické diferenciální rovnice s kubickým driftem a konstantní difúzí Ing. Kamil Kladívko (statistika) 144 Statistické modelové rozdělení mezd Ing. Roman Pavelka (statistika)
154
Metody výpočtu pravděpodobnosti defaultu Mgr. Tomáš Václavík, Ing. Petr Novák (statistika)
162
Využití metody bootstrap a permutačních testů v oblasti marketingových výzkumů Ing. Ondřej Vilikus (statistika) 172
4
Vědecký seminář doktorandů FIS – únor 2008
13. Den doktorandů na Fakultě informatiky a statistiky Den doktorandů, tradiční soutěžní seminář mladých vědeckých pracovníků Fakulty informatiky a statistiky, letos proběhl stejně jako loni ještě před začátkem letního semestru. Dvanáctého ročníku se zúčastnili celkem 22 doktorandi, kteří přednesli 20 referátů (obě čísla jsou mírně nižší oproti loňskému ročníku). Podle pravidel doktorského studia na FIS musí každý doktorand vystoupit během svého studia na tomto semináři alespoň jednou, nicméně řada z nich se soutěžního semináře účastní vícekrát; jedná se totiž o velmi vítanou možnost, jak seznámit s výsledky své práce své kolegy a na druhé straně poznat vědecké zaměření a formu prezentace svých kolegů. Ti nejlepší pak získají prestižní Cenu děkana FIS, s níž je spojena i příjemná finanční odměna. Referáty přihlášené do letošního Dne doktorandů byly pro velký zájem rozděleny do dvou sekcí: Informatika (7 příspěvků) a Kvantitativní metody (13 příspěvků). Kvalitu vystoupení po stránce vědecké i prezentační hodnotily odborné komise pod vedením doc. Ing. Norberta Žida, CSc. (informatika) a prof. Ing. Romana Huška, CSc. (kvantitativní metody). Hlavními kritérii při nelehkém rozhodování komisí byly zejména náročnost a aktuálnost zpracovaného tématu, přístup k řešení daného problému, úroveň práce s reálnými daty a v neposlední řadě i schopnost prezentovat a obhájit výsledky vědecké práce. Průběh letošního Dne doktorandů jednoznačně ukazuje vědecký potenciál, který katedry ve studentech doktorského studia mají. U nejlepších prací se navíc ukazuje, že u vybraných oblastí zájmu doktorandi spolehlivě poznali „neřešená místa“ a snažili se najít nové a vlastní řešení (apod.). Na semináři byli rovnoměrně zastoupeni doktorandi v prezenční a v kombinované formě studia. V sekci Informatika byli jako nejlepší vyhodnoceni tito doktorandi: 1. cena: Ing. Tomáš Šalamon: Zvládání složitosti multiagentního systému 2. cena: Ing. Martin Fleischmann: Capability Maturity Model a jeho využití v oblasti auditu IS/ICT 2. cena: Mgr. Martin Ralbovský: Smysluplné multirelační 4FT hypotézy
Vědecký seminář doktorandů FIS – únor 2008
5
V sekci Kvantitativní metody (obory Ekonometrie a operační výzkum a Statistika) byli oceněni tito soutěžící: 1. cena: Mgr. Milan Bašta: Wavelety a jejich použití v analýze časových řad (a ve statistice) 2. cena: Ing. Filip Tichý: Modelování zahraničního obchodu pomocí panelových dat 2. cena: Ing. Ondřej Vilikus: Využití metody Bootstrap a permutačních testů v oblasti marketingových výzkumů 3. cena: Ing. David Havrlant: Reálná konvergence a Balassův – Samuelsonův efekt 3. cena: Ing. Lucia Horáčková, Ing. Andrej Chu: Aplikácia vybraných Heuristických metód na rozvozný problém s delenou dodávkou Oceněným doktorandům upřímně blahopřejeme. Uznání však patří všem mladým vědeckým pracovníkům, kteří svými příspěvky a přístupem k jejich prezentaci vytvořili atmosféru kvalitního vědeckého semináře. Poděkování a uznání náleží rovněž jejich školitelům, členům hodnotících komisí a dalším kolegům, kteří se na úspěchu 13. Dne doktorandů na Fakultě informatiky a statistiky podíleli. Zvláštní poděkování patří paní referentce Jitce Krajíčkové, díky níž byl seminář perfektně zajištěn po organizační stránce.
Ing. Jakub Fischer, Ph.D. proděkan pro vědu a výzkum FIS
6
Vědecký seminář doktorandů FIS – únor 2008
Informační strategie malých a středních firem Daniela Beer Doktorandka oboru Informatika
Abstrakt. Cílem disertační práce je návrh vhodné informační strategie pro malé až střední firmy (SMEs), která by měla zahrnovat tři perspektivy týkající se pochopení jednotlivých souvislostí v informačním systému. Mezi tyto perspektivy patří podnikový kontext, podnikové procesy a strategický kontext. Tento příspěvek se věnuje rozboru jednotlivých kontextů a navrhuje nástroje vedoucí ke stanovení informační strategie. Podnikový kontext poskytuje porozumění podnikatelského prostředí, ve kterém se firma nachází. V tomto kroku je třeba definovat analýzu společnosti včetně definice lidí, struktury, propojení vazeb s okolím a organizačních vazeb. Dalším krokem vedoucí k navržení vhodné informační strategie je popis podnikových procesů zahrnující popis toku informací ve firmě, odvození konceptuálního modelu a vytvoření informačních potřeb managementu. Tato část je důležitá k pochopení toho, zda-li informace podporují veškeré podnikové aktivity a také popisují změny, které by měly nastat při zavedení nového či inovovaného informačního systému. V neposlední řadě je důležité stanovení strategického kontextu, který slouží k vytvoření vize a strategie celé organizace. Práce obsahuje teoretický návrh informační strategie a její aplikaci na konkrétní firmě. Tento příklad by měl umožnit zavedení vhodné informační strategii malé firmy krok za krokem s tím, že zde bude poukázáno na hlavní problémy a chyby při jejím zavedení. Klíčová slova: informační strategie, malé a střední firmy (SME´s), informační systém, ICT
1 Úvod V minulosti byl hlavní rozvoj ICT zaměřen na velké podniky a nyní se v názorech odborníků na vývoj trhu ICT objevuje názor, že poskytovatelé ICT udělali chybu tím, že se věnovali téměř výhradně velkým firmám, které sice do IT investují obrovské částky, ovšem jakmile dojde k recesi v jejich odvětví, stejně rychle tyto investice snižují. Dle slov T. Yagera [12] si menší firmy přílišné rozhazování nemohou dovolit téměř nikdy, proto jsou jejich výdaje na IT poměrně konstantní a nezávislé na ekonomickém vývoji odvětví.
Vědecký seminář doktorandů FIS – únor 2008
7
U malých a středních firem přitom existuje mnoho potenciálních problémů, které je mohou potkat při přílišné snaze přizpůsobit se moderním trendům v informačních technologiích bez řádného rozmyšlení, nakolik se vynaložené finanční prostředky skutečně vrátí ve zvýšené efektivitě práce, následném snížení nákladů apod. Malé a střední firmy často bojují se špatnou integritou systémů, protože nositelem vize a znalostí v organizaci je většinou jeden z manažerů, který zaštiťuje několik oblastí jako je finanční, informační, technologickou a některé informační toky, nutné ke zdárnému vedení firmy, se vyvíjí a odehrávají pouze v hlavě konkrétního člověka, přičemž faktický „přenos myšlenek“ do struktury ICT nefunguje. Rozhodnutí jakou zvolit informační podporu firmy je ale nutné zvážit v širších souvislostech, protože přijaté řešení může být kritické nejen vzhledem k možnosti podcenění tohoto kroku a neochotě investovat do nových produktů, které by zajistily potřebnou integraci informačního systému firmy, ale též z hlediska přecenění role ICT ve firmě a volbě řešení, které bude v poměru k investovaným nákladům neefektivní a může firmu přivést do velmi nepříjemné situace.
2 Obecná strategie firmy při inovaci informačního systému Velcí hráči na trhu ICT doporučují menším firmám převzít s mírnými modifikacemi model prodávaný velkým společnostem. Jako výhody tohoto řešení jsou uváděny bezproblémové propojení všech informačních toků a činností ve firmě, podpora a aktualizace podle nových okolností zaručené dodavatelem s rozsáhlou zákaznickou základnou. Na druhé straně je ovšem problém v tom, že firmy již nějaký informační systém vlastní a zabývají se otázkou, zda-li není vhodnější integrovat využívaný software, který zajišťuje jejich informační podporu v jeden funkční celek, protože jednotlivé programy jim vyhovují a mají je již nastaveny na svůj specifický druh činnosti, než svou situaci vyřešit nákupem zcela jiného systému. Příkladem tohoto postupu je situace, kdy firma vlastní systém pro řízení výroby, který je zcela vyhovující. Rozhodne se tento systém ponechat v podniku a jelikož program zároveň poskytuje statistické výstupy v podobě exportů, zároveň vyhledá na trhu systém pro podporu rozhodování, pro který není tento formát problémem. V případě tohoto řešení se sice jedná o stejný postup jako v minulosti, ale významnou roli zde nyní hraje to, že si firma uvědomí důležitosti koncepce systému a klade základní požadavky na výběr ICT z hlediska širších souvislostí, tak aby zajistila centralizovaný, neroztříštěný zdroj informací a dat o probíhajících procesech uvnitř firmy. Prvním krokem vedoucím k vytvoření vhodné informační strategie by mělo být zjištění v jaké fázi rozvoje ICT se společnost nachází a kam chce směřovat viz obrázek 1.
8
Vědecký seminář doktorandů FIS – únor 2008
nečinný přístup uživatelů
základní přístup uživatelů
průměrní uživatelé
Nevíme, co vlastně nevíme možný začátek
užívání sofistikovaného systému
Rozdílné aplikace, podpora podnikání vyzrálá společnost Limitní použití softwaru fáze přípravná
Integrovaný systém hi tech společnost
Obrázek 1. Jednotlivé fáze rozvoje ICT
Následně by jako primární dokument řízení informatiky ve firmě měla být vytvořena informační strategie, která by měla navazovat na globální strategii firmy. Informační strategie řeší veškeré otázky týkající se ICT, jeho vývoje, přičemž v prostředí firem by měl fungovat vnitřní systém následujících vazeb, viz obrázek 2. STRATEGIE INFORMAČNÍHO SYSTÉMU
PODNIKOVÉ APLIKACE POTŘEBNÉ K DOSAŽENÍ PODNIKOVÉ STRATEGIE
STRATEGIE INFORMAČNÍ TECHNOLOGIE INFORMAČNÍ ARCHITEKTURA POTŘEBNÁ
STRATEGIE INFORMAČNÍHO
K POSLÁNÍ DAT A INFORMACÍ DO PODNIKOVÉHO SYSTÉMU
ORGANIZAČNÍ STRUKTURA POTŘEBNÁ
MANAGEMENTU K ZAJIŠTĚNÍ EFEKTIVNÍHO VYUŽÍVÁNÍ
Obrázek 2. Vnitřní systém vazeb
Strategie informačního systému by měla být na jedné straně dynamická, podporující současnou podnikovou strategii, na druhé straně by měla odrážet změny na trhu, které ovlivňují strategické a technologické změny.
Vědecký seminář doktorandů FIS – únor 2008
9
3 Nástroje k návrhu informační strategie Kroky vedoucí k návrhu informačního systému jsou shrnuty do modelu, ve kterém můžeme definovat tři perspektivy týkající se pochopení jednotlivých souvislostí v informačním systému. První je firemní kontext poskytující porozumění podnikatelského prostředí, ve kterém se firma nachází. Druhá perspektiva se týká podnikových procesů, které jsou potřeba k pochopení toho, zda-li informace podporují veškeré podnikové aktivity a také popisují změny, které by měly nastat při zavedení nového informačního systému. Konečně strategický kontext je důležitý pro další vizi a změny v organizaci. Pro výstižnější pochopení jednotlivých perspektiv může sloužit 3D model dle studie MIT´s 90s [1], viz obrázek 3.
STRATEGICKÝ KONTEXT PŘÍLEŽITOST K HODNOCENÍ A IMPLEMENTACI VEDOUCÍ K DOSAŽENÍ VIZE
POŽADAVKY NA
INFORMAČNÍ STRATEGII
Analýza společnosti
3D model
NÁVRH INFORMAČNÍ STRATEGIE
EXISTUJÍCÍ DATA, INFORMACE, ZNALOSTI
Tok informací
Lidé, struktura, okolí
Konceptuální model
Organizační vazby
Informační potřeba
PODNIKOVÝ KONTEXT POROZUMNĚNÍ KONKURENČNÍHO PROSTŘEDÍ
PODNIKOVÉ PROCESY ANALÝZA PODNIKOVÝCH AKTIVIT A JEJICH PODPORA V SYSTÉMU
Obrázek 3. Nástroje a procesy k návrhu informační strategie ve firmě (převzato a upraveno z [1])
10
Vědecký seminář doktorandů FIS – únor 2008
3.1
Podnikové souvislosti
Příkladem typické malé firmy může být firma, která se již etablovala na trhu, má nějakou strategii budoucího vývoje a nachází se v bodě, kdy je situace pořizování programového vybavení podle jednotlivých požadavků neúnosná a firma je ochotna investovat do systémového řešení ICT. Tento okamžik zasáhne veškeré části podniku, jelikož bude mít zcela zásadní vliv na jeho informační systém a firemní procesy. Informační systém nemůže fungovat odděleně, ale musí být zařazen mezi podnikovou strategii, technologii, organizační strukturu, manažerské procesy, role a znalosti lidí v organizaci. Jednotlivé vztahy byly popsány Scottem Mortonem (1991). V případě přijetí nové strategie, musí nový informační systém korespondovat se situací ve firmě. Například, ve výrobním prostředí je největší důraz kladen na monitorování zásob a kontrolu výrobního procesu. Technologie a systém se ovšem rapidně mění a firma potřebuje existující technologie, aby mohla dosáhnout nových cílů ve své podnikové strategii, kterou nemůže dosáhnout bez svých zaměstnanců, tudíž se musí sama sebe ptát, zda-li její zaměstnanci mají patřičné znalosti k přijetí nového systému. V tabulce 1 jsou uvedeny příklady otázek, které by si firma měla klást. Tabulka 1. Vztahy v organizaci
Oblasti Lidé Manažerské procesy Technologie
Organizační struktura Strategie
Otázky, které by měly být zodpovězeny Mají lidé v organizaci schopnosti k tomu, aby využili výhody IS? Investuje management do vzdělávání a vývoje zaměstnanců? Podporují manažerské procesy rozvoj učení v organizaci nebo se zaměřují pouze na kontrolu? Jak přizpůsobivé jsou existující technologie a jaké příležitosti poskytují k zavedení nových technologií? Je popsán a navržen dopad nových technologií? Umožní či zabrání organizační struktura zavedení nového IS? Jakou strategii se snaží firma dosáhnout a zda-li jí v tom může napomoci IS?
Informační strategie podniku by se měla měnit v závislosti na změně podnikatelského prostředí. Strategie IS proto musí být dynamická, taková, která podporuje podnikovou strategii a zároveň odráží změny na trhu, které ovlivňují strategické a technologické změny. Obrázek 4 navrhuje dynamické vztahy mezi rolí informačního systému ve firmě, který poskytuje informace pro podnikání a umožňuje firmě se učit a být konkurenceschopným v závislosti na trhu. Po určité době je třeba opět revidovat své představy fungování ICT s trhem, tak by vznikaly pro firmu konku-
Vědecký seminář doktorandů FIS – únor 2008
11
renční výhody. Podnikové procesy se mohou změnit na základě změny podnikové strategie, která požaduje revizi informačních požadavků a novou informační architekturu. UČENÍ SE Z TRHU
ROZPOZNAT KONK. ZMĚNU NA TRHU
SOUČASNÁ PODNIKOVÁ STRATEGIE KONKUROVAT NA TRHU
POSKYTNOUT FIREMNÍ INFORMACE
ZHODNOTIT PODNIKOVOU STRATEGII BUDOUCÍ PODNIKOVÁ STRATEGIE
ZHODNOTIT POŽADOVANÉ INFORMACE
ZHODNOTIT FIREMNÍ PROCESY
INFORMAČNÍ STRATEGIE
DEFINOVAT INFORMAČNÍ ARCHITEKTURU
IDENTIFIKOVAT INFORMAČNÍ SYSTÉM
Obrázek 4. Dynamický vztah týkající se souvislosti mezi informační strategií a konkurenceschopností firmy (převzato z [1])
3.2
Podnikové procesy
V první řadě je třeba porozumět procesům, které poskytují firmě přidanou hodnotu. Soft system methodology (SSM) umožňuje analýzu toku informací ve firmě ve srovnání s hodnotovým řetězcem. Použití SSM umožní hlubší studium nestrukturovaných problémů z různých pohledů. Checkland [11] argumentuje tím, že různí lidé mají na problém různý názor. Klasickým příkladem je jeho vysvětlení chápání pojmu „vězení“. Zaměstnanci věznice jej chápou jako místo k uvěznění, výchovní poradci jej berou jako místo nápravy a společnost jako místo pro odpykání trestu. Dalším krokem v analýze podnikových procesů je analýza informační potřeby managementu (příklad je uveden v tabulce 2). Aby ve firmě dobře fungoval zavedený systém a každý z něj dostal takové informace, které požaduje bez toho, aniž by musel manuálně zadávat data do jiných softwarů, je důležité zjistit informační potřebu v celém rozsahu firmy s pochopením organizačních vazeb.
12
Vědecký seminář doktorandů FIS – únor 2008
Tabulka 2. Informační potřeba
Informace potřebné k provedení aktivity Rychlost dodávky suroviny od dodavatelů Současný stav skladu Použití materiálu ze skladu Odhady zákazníků Objednávka od zákazníka Kontrola kapacit strojů Kontrola dostupnosti surovin Kvalifikace a znalosti zaměstnanců Dostupnost školení pro zaměstnance Fakturace Monitorování pohledávek Monitorování závazků Systém na podporu rozhodování Business Intelligence, MIS 3.3
Aktivita
Řízení výrobního procesu Proces objednávání Znalosti zaměstnanců
Monitorování cash flow Plánování budoucího vývoje
Informace vycházející z aktivity Stav skladu Objednávky na sklad Výjimky mezi skutečným stavem skladu a stavem v ERP Zkompletování objednávky Porovnání s původním odhadem Databáze znalostí a kvalifikací zaměstnanců Požadavky na další školení zaměstnanců Plánování cash flow
Statistické výstupy, reporty, přehledy prodejů
Strategický kontext
Strategické souvislosti jsou důležité k porovnání požadavků podnikové strategie s požadavky organizační analýzy, která generuje možnost rozšíření organizace díky lepšímu využití informačního systému. Strategický kontext je výstižně uveden ve studii MIT´90s [1]. Tato studie popisuje, jak může rozhodnutí ovlivnit rozdílné aspekty. 3D model úspěšného IS poskytuje možnost řízení vztahů a vazeb mezi technickým vývojem a přesunem v rámci organizace a podnikových cílů viz obrázek 5. Úspěšný informační systém může být definován ve 3 úrovních. První je vývojová úroveň, která je zaměřena na technologický vývoj informačního systému v organizaci. V druhé úrovni dochází k rozšíření, kde je již celý systém používán v organizaci. Poslední úroveň je úroveň přínosů, ve které již dochází k tomu, že si organizace uvědomuje přínosy nového systému jako celku k podnikovým cílům. Není ovšem zaručeno, že úspěch v jedné úrovni zaručí úspěch v dalších úrovních modelu. Exogenní faktory mohou zabránit pohybu do další úrovně. Např. existující IS může být daleko pohodlnější pro zaměstnance než nový systém a tato nechuť je demonstrována v implementačním filtru. Na druhé straně integrační filtr znamená souhru mezi podnikovou strategií a
Vědecký seminář doktorandů FIS – únor 2008
13
využitím ICT. Přes všechny úrovně a filtry se počítá s tím, že budou probíhat diskuze a učení se v průběhu zavádění, aby systém mohl napomoci k vyššímu růstu firmy. ÚSPĚCH FILTR OKOLÍ
ÚROVEŇ PŘÍNOSŮ
PLÁNOVÁNÍ
UČENÍ SE
INTEGRAČNÍ FILTR EXOGENNÍ FAKTORY ÚROVEŇ ROZŠÍŘENÍ
IMPLEMENTAČNÍ FILTR EXOGENNÍ FAKTORY
VÝVOJOVÁ ÚROVEŇ
Obrázek 5. 3D model (zdroj: [5])
4 Závěr Problematika informačních systémů v malých firmách je spojena s jiným problémem než je tomu u velkých firem, které implementují systém jako celek. Informatika zatím hraje v malých firmách podpůrný proces a tudíž je také tak brána z hlediska financí a priorit. Investice do ICT je dnes nezbytností, avšak velice záleží na umění dobře definovat co skutečně firma potřebuje, spolu s věnováním velké pozornosti logice procesů a informačních toků ve firmě. Potom lze, dle mého názoru, řídit informatiku v malých firmách za nákladů, které jsou nepoměrně nižší než cena, kterou bude firma investovat pokud podlehne názorům odborných konzultantů, kteří prosazují nutnost a výhodnost pořízení nejmodernějších produktů a to se stejnými přínosy. Tento příspěvek není doplněn o konkrétní příklady firmy, ale ve své práci bude návrh informační strategie rozpracován.
14
Vědecký seminář doktorandů FIS – únor 2008
Literatura [1] Byrne, P.J., Heavey, C.: Simulations, a Fremework For Analysing SME Supply Chains. In Winter Simulation Conference. [s.l.] : [s.n.], 2004. s. 11671175. [2] Caldeira, M., Cragg, P., Ward, J.: Informations Systems Comptencies in Small and Medium-sized Enterprises [online]. 2007 [cit. 2007-05-03]. <www.som.cranfield.ac.uk/som/research/documents/Paper_UKAIS_Final.pdf>.
[3] CHeckland, P., Scholes, J. Soft System Methodology in Action. John Wiley Sons, Chichester UK. [4] CHesher, M., Skok, W.: Roadmap for Successful Information Technology Transfer for Small Businesses [online]. 2007 [cit. 2007-05-03]. Dostupný z WWW: <www.portal.acm.org/citation.cfm?id=333334.333338>. [5] Gramignoli, S., Ravarini, A., Tagliavini, M.: A Profile For the IT Manager within SMEs. ACM. 1999, no. 1, s. 200-208. [6] http://www.infoworld.com/article/02/11/01/021104opestrat_1.html 2007 [cit. 2007-09-09]. [7] Kaplan, R:, Norton, D.: Using the balanced scorecard as a strategic management system. Harward Business Review. [s.l.] : Harward Business Review, January-February 1996, s. 75 – 84. [8] Levy, M., Powell, P.: Strategies for Growth in Smes. UK:Elsevier Limited, 2005. 421 s. ISBN 0750663510. [9] Štochl, J.: Možné problémy MSP při snaze o systémovou integraci a inovaci podnikových informačních systémů [online]. 2007 [cit. 2007-05-03]. Dostupný z WWW: <www.cssi.cz/publ_si_clanek.asp?kod=670&typ=1>. [10] Thong, James, Y.: An Integrated Model of Information Systems Adoption in Small Business. Journal of Management Information Systems. 1999, vol. 15, no. 4, s. 187-214. [11] Ward, J., Caldeira, M.: Using Resource-based Theory to Interpret the Succeccfull Adoption and Use of IS/IT in Manufacturing Small and Medium Sized Enterprises. In The 9th European Congerence on Information Systems. [s.l.] : [s.n.], 2001. s. 1159-1169. [12] Ward, R. P., Laitinen, M., Fayad, M. E.: Management in the Small. Communications of the ACM. 2000, vol. 43, no. 5, s. 113-116.
Vědecký seminář doktorandů FIS – únor 2008
15
Summary The information strategy for small and medium sized companies (SME´s) This paper tries to explain how managers in SME companies should think about their information system and also sets some tools which can be helpful for the information system strategy implementation. Small companies have different needs concerning their information system, so there are mentioned several steps which have to be considered. The information system should meet the need of the small business and should automate critical business operations, such as sales, production, inventory and finance. SME companies should not just go on like the big one´s, only with simplified and cheaper products, because these organizations could be really different and the acceptation of market recommendations could cause them serious problems. The ambition of my dissertation thesis is the proposal of the suitable information system strategy for small and medium sized. This information strategy should include three perspectives. Among these perspectives belongs business context, business process and strategical context. The thesis contains the theoretical information system strategy and its application for the specific company. This example should enable the information system implementation in the small company step by step with highlighting problems and errors.
16
Vědecký seminář doktorandů FIS – únor 2008
Capability Maturity Model a jeho využití v oblasti auditu IS/ICT bank Martin Fleischmann Doktorand oboru Informatika
Abstrakt. Práce zkoumá některé možnosti využití konceptu Capability Maturity Model (CMM) pro potřeby auditu a výkonu dohledu v oblasti IS/ICT bank. Popisuje jeho strukturu a základní vlastnosti a porovnává je s postupy ČNB. Na tomto základě analyzuje potenciál CMM pro komparaci úrovně ICT v rámci bankovního sektoru. Dále navrhuje využití CMM při prezentaci výstupů auditu IS/ICT a uvádí příklad takovéto aplikace. Práce dále zkoumá možné alternativy použití CMM při hodnocení a sdílení informací o stavu ICT finančních institucí na mezinárodní úrovni a identifikuje potenciál CMM pro jeho uplatnění v rámci konceptu Basel 2. Klíčová slova: Capability Maturity Model (CMM), úroveň zralosti (maturity level), klíčová oblast procesů (key process area), IS/ICT, riziko, Basel 2
1 Úvod CMM vznikl původně z iniciativy ministerstva obrany USA, které začátkem 80. let dalo podnět k založení Software Engineering Institute (SEI) při Carnegie Mellon University v Pittsburghu. V roce 1988 pak ministerstvo obrany USA sponzorovalo studii zpracovávanou na SEI pro potřeby vojenského letectva USA. Jejím cílem bylo vytvořit abstraktní model použitelný pro objektivní vyhodnocení a výběr dodavatelů software pro armádní zakázky. Výsledkem byl CMM, který byl od té doby aplikován v mnoha dalších formách a oblastech. CMM popisuje principy a postupy směřující k dosažení zralosti (softwarových) procesů. Cílem CMM je dostat procesy organizace na takovou úroveň, aby byly efektivní, účinné a spolehlivé. Jeho původní určení je orientováno na softwarové organizace, kterým umožňuje postupný přechod od víceméně chaotických ad-hoc procesů až k procesům vyzrálým založeným na opakovatelnosti, přesném vymezení (definici), měřitelnosti pomocí vhodných metrik, vyhodnocování jejich účinnosti a efektivnosti vedoucí následně až k průběžné optimalizaci těchto procesů. Tyto principy a postupy se přitom zaměřují na oblasti klíčových procesů tzn. těch, které jsou rozhodující pro kvalitu konečného produktu resp. služby. Podobně jako současné přístupy v oblasti systémového řízení jakosti, vychází CMM z předpokladu,
Vědecký seminář doktorandů FIS – únor 2008
17
že kvalita konečného produktu je určena kvalitou procesů použitých při jeho realizaci. Výhodou CMM je jeho kompatibilita s dalšími uznávanými standardy, což často umožňuje realizovat synergické efekty při souběžné aplikaci. Vlastnosti CMM dávají podle mého názoru předpoklady pro využití při nezávislém hodnocení IS/ICT prováděném jak auditory, tak regulátory finančních trhů, pro zajištění srovnatelnosti výstupů regulátorů na mezinárodní úrovni i při hodnocení kapitálové přiměřenosti v rámci Basel 2.
2 Využití CMM - Použité metody Práce používá deskriptivní přístup založený na empirickém rozboru stávajících systémů. V této souvislosti využívá metodu kategorizace a analýzy. Metoda indukce je pak použita při vyvození obecných závěrů. 2.1
Struktura CMM
Základním stavebním kamenem konceptu CMM je rozdělení procesů do následujících úrovní zralosti (maturity levels), (nultá úroveň byla zavedena dodatečně): 0. Non-existent (neexistující) – proces není přítomen v žádné formě. Organizace dosud neidentifikovala jeho potřebnost. 1. Initial (počáteční, náhodný) – organizace identifikovala potřebnost aktivity, ale dosud nevytvořila stabilní rámec pro její vykonávání. 2. Repeatable/Managed (opakovaný) – proces není dosud formalizovaný, dochází však k zachovávání a opakování osvědčených postupů. 3. Defined (formalizovaný) – procesy jsou formálně popsány, mají přiřazeny cíle a některé další atributy. 4. (Quantitatively) Managed (měřitelný) – implementovány procesy určené k měření (kvantifikaci) určených atributů jednotlivých procesů. 5. Optimized (optimalizovaný) –systematická optimalizace na základě měření a vyhodnocování jednotlivých procesů. U procesů na úrovni 3 a vyšší je možné dobře předikovat (plánovat) dobu jeho trvání i náklady s ním spojené. Klesají také nároky na kvalifikaci i kreativitu příslušných zaměstnanců. Dalším segmentem CMM jsou klíčové oblasti procesů (Key process area). Ty reprezentují množinu vzájemně souvisejících činností (procesů), které jsou vykonávány společně a jsou významné z hlediska dosažení stanovených cílů. Cíle stanovené pro klíčovou procesní oblast definují stav, který je třeba nastolit, aby tato procesní oblast byla implementována efektivně a trvale.
18
Vědecký seminář doktorandů FIS – únor 2008
O úspěšnosti a efektivnosti při zavádění a návrhu CMM rozhoduje do značné míry určení podrobnosti popisu jednotlivých procesů. Kromě stanovení cílů procesu je totiž třeba popsat (určit) další jeho atributy. 2.2
Využití CMM při výkonu bankovního dohledu v oblasti IS/ICT
V této souvislosti se nabízí zejména možnost komparace úrovně procesů souvisejících s rozvojem a provozováním IS/ICT jednotlivých bank. Předmětem dohledu ČNB je hodnocení procesů IS/ICT bank s důrazem na jejich bezpečnost. Tomu odpovídá i 29 oblastí (klíčových procesů) rozdělených do 9 domén. Jednotlivé oblasti jsou dále členěny na dílčí procesy. Podstatným rozdílem metodiky ČNB od konceptu CMM je hodnotící škála. Ta je orientována s důrazem na rizika. I ČNB však ověřuje a hodnotí, zda procesy probíhající v rámci jednotlivých hodnocených oblastí: 1. reálně existují (ověření zda jsou prakticky vykonávány) – v podstatě reflektuje úrovně 0, 1 a 2, 2. jsou formálně upraveny, a zda jejich formální vymezení odpovídá jejich skutečnému provádění – ověřuje dosažení úrovně 3, 3. nejsou v rozporu s regulatorními požadavky - z hlediska ČNB jde o nejdůležitější kritérium, regulatorní požadavky často požadují určité vlastnosti hodnocených procesů (například rekonstruovatelnost, formalizaci schválením představenstva, oddělení neslučitelných funkcí 4. mají přiřazeny odpovědnosti za jejich zajištění (vlastník procesu) – z pohledu ČNB jde o významný atribut odpovídající úrovni 3, 5. jsou dostatečně účinné a efektivní – přiřazení konkrétní úrovně zralosti je v tomto případě problematické, trvalé zajištění účinnosti a efektivity však vyžaduje dosažení vyšších stupňů zralosti – tj. nejméně 3, ale spíše 4 a 5, 6. podléhají adekvátní kontrole - do jisté míry koresponduje s maturity level 4, 7. jsou předmětem nezávislého posouzení (auditu) a zda jsou zpětnovazební (kontrolní a auditní) mechanismy využívány pro úpravu a zdokonalování těchto procesů – rovněž indikuje vyšší stupně zralosti 3 až 5, dle úrovně této oblasti.
Vědecký seminář doktorandů FIS – únor 2008
19
Je patrné, že kritéria1 používaná ČNB vyjadřují (kromě jiných vlastností) i zralost jednotlivých procesů. Nereflektují však systematicky jednotlivé úrovně zralosti. V metodice ČNB jsou vyjmenovány procesy klíčové pro stav dané oblasti a je uváděn způsob, jakým mají být aplikována výše uvedená hodnotící kritéria. Tyto procesy však nejsou hodnoceny samostatně přiřazením určitého hodnotícího stupně (či úrovně zralosti). Jejich kvalita a význam pro hodnocení příslušné oblasti, je však brána v úvahu s tím, že je zde ponechán prostor na úsudek příslušného inspektora. Hodnocení jednotlivých procesů se pak promítá do výsledné známky přiřazené každé hodnocené oblasti. Z výše uvedeného vyplývá, že předmětem hodnocení ČNB je přítomnost a kvalita vybraných procesů, a tedy postup v principu kompatibilní s CMM. Předmětem hodnocení je i zralost procesů. Jednotlivé úrovně zralosti však nejsou v metodice ČNB systematicky rozvinuty a využívány. Pokud by se podařilo promítnout filozofii CMM do postupů ČNB systematickým způsobem, mohly by výsledky zajistit lepší srovnatelnost úrovně klíčových IS/ICT procesů v rámci bankovního sektoru, jako základny pro tvorbu mapy rizik v této oblasti. 2.3
Využití CMM pro prezentaci výsledků auditu IS/ICT
K nejdůležitějším výstupům auditu patří písemné zprávy. Právě auditní zprávy jsou předmětem dodávky a za tyto výstupy zadavatel platí cenu auditorské společnosti. Pro efektivní využití výsledků auditu ICT je žádoucí srozumitelně vyjádřit hodnocení jednotlivých oblastí, které byly předmětem auditu. Často se jedná o komplikovaná hlediska, kdy pochopení textu je odborně a časově náročné. O způsobu reakce na audit přitom rozhodují velmi vytížení manažeři. Proto je vhodné výsledky auditu vyjádřit přehledně a srozumitelně. K tomu lze využít vlastnosti CMM a vyjádřit stav hodnocených oblastí přiřazením příslušného stupně zralosti dle CMM. Příklad takové interpretace je uveden v tabulce 1 v kapitole 3. 2.4
Využití CMM pro zajištění srovnatelnosti výstupů národních regulátorů a při implementaci Basel 2
Většina regulátorů vyvíjí vlastní nástroje pro srovnání rizikového profilu bankovních subjektů. Tyto nástroje pokrývají relevantní rizika finančního i nefinančního charakteru. Rostoucí potřeba srovnatelnosti hodnocení v oblasti ICT bank na mezi-
1
Kritéria jsou zpracována na základě interní metodiky ČNB
20
Vědecký seminář doktorandů FIS – únor 2008
národní úrovni souvisí: a) s rozvojem e-bankingu resp. přeshraničního poskytování bankovních služeb a b) s implementací Basel 2 a pilířem 2 tohoto konceptu, kdy jsou regulátorem hodnocena rizika (včetně rizika ICT z hlediska dostatečnosti jejich pokrytí kapitálem). Ad a) v tomto případě nemá hostitelský regulátor informaci o úrovni IS/ICT dané instituce získanou na základě vlastní činnosti, přičemž hodnocení získané od zahraničního regulátora nebude srovnatelné s národní metodikou. Jeho informační hodnota tak klesá. Možným řešením je využít vlastností CMM, přičemž připadají v úvahu 2 varianty: 1) Pro hodnocení využít beze změn a úprav všech 5 úrovní CMM a hodnocení provádět na dohodnuté množině procesů. Výhodou je dosažení srovnatelnosti hodnocení v maximální možné míře. Kromě potřeby stanovit hodnocené procesy je však podstatnou překážkou přijetí této varianty tendence vnímat hodnocení bank ze strany regulátorů primárně v kategorii rizika, nikoliv v kategorii procesy. 2) Pro hodnocení procesů vytvořit kritéria vycházející s regulatorních požadavků platných na mezinárodní úrovni. Jednalo by se o kritéria odrážející jak zralost procesů, tak další hlediska (podobně jako v případě ČNB – viz kapitola 2.3.). I tento postup by vyžadoval mezinárodní dohodu o hodnotících kritériích a hodnocených procesech. Oproti předchozí variantě však představuje menší zásah do postupů regulátorů a tudíž větší akceptovatelnost. Ad b) v rámci pilíře 2 konceptu Basel 2 hodnotí regulátor dostatečnost tzv. vnitřně stanoveného kapitálu. Vychází přitom z posouzení všech relevantních rizik včetně rizika ICT. Hlavním problémem je obtížnost exaktní kvantifikace některých rizik (typicky riziko ICT). Postupy regulátorů v této oblasti se teprve vyvíjejí a mají různou podobu a úroveň. V této oblasti shledávám prostor pro uplatnění CMM. Předmětem hodnocení by zde byly procesy spojené s řízením rizik (ICT rizika). Každé úrovni zralosti by byla přiřazena definice (kritéria) tak, aby vyjadřovala účinnost a efektivnost procesů řízení rizik. Dosažení vyšší úrovně by tak znamenalo kvalitnější řízení rizik a nižší požadavky na dodatečný kapitál. Nakonec je možné uplatnit jednoduchý převod mezi úrovní CMM a výší kapitálu ke krytí rizika, např. CMM1 = +100%, CMM2 = +25%, CMM3 = 0%, CMM4 = -10%, CMM5 = -25%. Uvedený model plně koresponduje s principy a potřebami Basel 2 tj. kvalitnější řízení rizik umožňuje nižší objem kapitálu k jejich pokrytí. Ilustrace tohoto řešení je na obrázku 1 v kapitole 3.
Vědecký seminář doktorandů FIS – únor 2008
21
3 Provedené experimenty – tabulky a obrázky Tabulka 1. Příklad grafické prezentace auditu bezpečnosti informací podle ISO/IEC 17799:2005 s využitím CMM
Oblast procesů Bezpečnostní politika Organizace bezpečnosti Klasifikace a řízení aktiv Personální bezpečnost Fyzická bezpečnost Řízení komunikací a provozu Řízení přístupu Vývoj a údržba systémů Řízení bezpečnostních incidentů Řízení kontinuity Soulad s požadavky
1
2
3
4
0
1
neexistující
Náhodný +100%
2
3
4
Opakovaný +25%
Definovaný +-0%
Měřitelný -10%
Navýšení kapitálu o 100% a zavedení okamžitých opatření až po odnětí licence
Navýšení kapitálu o 25% a případné opatření k nápravě nedostatků
Odpovídá očekáváním ČNB
Pro finanční instituce není relevantní, takový subjekt by neobdržel licenci
úroveň procesů řízení rizik převyšuje průměr a odpovídá očekáváním ČNB pro použití pokročilých metod
5
5 Optimalizovaný -25%
převyšuje očekávání ČNB pro použití pokročilých metod
Obrázek 1. Využití CMM při hodnocení dostatečnosti kapitálu prováděného regulátorem v rámci 2. pilíře Basel 2
22
Vědecký seminář doktorandů FIS – únor 2008
4 Závěr Na základě porovnání vlastností CMM s metodikou ČNB práce analyzuje možnosti aplikace CMM a dospívá k závěru, že v této oblasti existují rezervy pro další výzkum, ověření hypotéz a návrh řešení, které by hodnocení zralosti (bankovních) procesů systematicky začlenilo do postupů ČNB. Definuje cíl takového řešení, kterým je objektivnější komparace jednotlivých subjektů finančního trhu a tedy kvalitnější plánování výkonu dohledu v této oblasti. Z hlediska výstupů auditu IS/ICT a jejich přehledné prezentace, práce popisuje možné využití CMM pro tyto účely. Zároveň dospívá k závěru, že prezentace výsledků auditu s využitím CMM může významně zvýšit informační hodnotu a přínosy auditu. V souvislosti s pokračující globalizací finančních trhů práce poukazuje na rostoucí potřebu zajistit srovnatelné posuzování a hodnocení subjektů finančního trhu na mezinárodní úrovni. Práce identifikuje příležitosti aplikace CMM při řešení tohoto problému, navrhuje 2 možná řešení a analyzuje možnosti jejich prosazení na mezinárodní úrovni. Dále práce identifikuje prostor pro využití CMM v rámci konceptu Basel 2 a nabízí hypotetické řešení v oblasti hodnocení kapitálové přiměřenosti prováděného v rámci pilíře 2 tohoto konceptu. Návrh konkrétních řešení a ověření hypotéz výrazně přesahuje možnosti této práce a skýtá prostor pro další vědecký výzkum.
Literatura [1] [ISACA] IS Standards, Guidelines and Procedures for Auditing and Control Professionals, ISACA 2004. [2] Carnegie Mellon University, Systems Security Engineering Capability Maturity Model, SSE-CMM, Model Description Document, Version 3.0, June 15, 2003, http://www.sse-cmm.org/docs/ssecmmv3final.pdf [3] Committee on the Global Financial System – Bank for International Settlements, The Implications of Electronic Trading in Financial Markets, January 2001 [4] De Nederlandsche Bank, Risk Analysis Manual, June 2001 [5] Debra Mallette, IT Performance Improvement With CobiT and the SEI CMM, Information Systems Control Journal, Volume 3, 2005 [6] Information Systems Audit and Control Association, ISACA, http://www.isaca.org [7] Interní metodika odboru kontroly řízení rizik, Sekce bankovní regulace a dohledu ČNB
Vědecký seminář doktorandů FIS – únor 2008
23
[8] IT Governance Institute, http://www.itgi.org [9] Software Engineering Institute, Carnegie Mellon University, Pitsburgh, http://www.sei.cmu.edu [10] Software Engineering Institute, Concept of Operations for the CMMI, January 15, 2001, http://www.sei.cmu.edu/cmmi/background/conops.html [11] Voříšek, J.:Vliv podrobnosti definice procesu a úrovně CMM a charakteristiky procesu, prezentace na semináři Role standardů a norem při zvyšování zralosti organizací IT pořádaného itSMF a ČSSI, 30.1.2007 http://www.cssi.cz/publ_si_clanek.asp?typ=2&kod=986 [12] Wikipedia – The Free Encyclopedia, http://www.wikipedia.org/ [13] Západočeská univerzita v Plzni, Fakulta aplikovaných věd, Katedra informatiky a výpočetní techniky, (Normy pro) systémy řízení jakosti, 2006 http://www.kiv.zcu.cz/index.php?lang=cz
Summary Capability Maturity Model and its application in the field of ICT audit in banks Information systems are becoming more and more critical to the business they support. As the banking is ICT driven industry, there is no doubt that information systems reepresent one of the most important tool for the comercial succesfulness. Therefore the adequite assurence about the quality of this crucial area is needed. CMM is a way how to improve an enterprice’s performance. This model that was originally developed for direct usage in IT, can be applied also in bussines. It has been gradually developed as a general tool. One of its most important features are its universality and compatibility with other standards. This article reflects both of theese characteristics and with this regard suggests the potential CMM’s application concerning ICT audit and ICT supervision in banks. It briefly describes the CNB approach to the ICT supervision and compares it to CMM methodology. On the base of this comparison, it formulates possible ways of CMM application for both, local and international use. Futhemore, the article identifies the CMM’s potential with regard to Basel 2, particularly within its Pillar 2 Supervisory review and evaluatin procces.
24
Vědecký seminář doktorandů FIS – únor 2008
Mapování znalostí v organizaci Josef Nožička Doktorand oboru Informatika
Abstrakt: Mapování znalostí zaměstnanců je prostředkem k efektivnímu personálnímu řízení a organizaci větších firem a institucí. Cílem nástroje pro vytváření znalostní mapy je za co nejmenšího zatížení zaměstnanců mapovat jejich znalosti a zpřístupnit tuto informaci personálním manažerům i kolegům, kteří potřebují najít někoho, kdo dokáže poradit a dodat tak potřebnou znalost. Jádrem textu je diskuse možností dolování informací o znalostech z dostupných datových zdrojů, způsobu ukládání a zpřístupňování takových znalostí o znalostech a konečně zvláštních požadavcích na „metaznalostní“ systém jako je nutnost reflektovat přirozenou dynamiku znalostí lidí. Klíčová slova: řízení znalostí (nebo též knowledge management, zkr. KM), mapování znalostí
1 Úvod V příspěvkem se stejným názvem věnujícím se mému studijnímu záměru jsem vystoupil na tomto semináři již v roce 2005. Tento článek je jeho aktualizací se zohledněním současných znalostí o tématu. Předpoklady, ze kterých vychází jsou totožné, ale výzkumná metoda a rovněž experimenty od té doby pokročily. Proto věřím, že pro čtenáře může být zajímavé tento postup sledovat. Se vznikem rozsáhlých firem a institucí dneška, jejichž hlavní náplní činnosti je zpracování informací za efektivního využití znalostí svých zaměstnanců, se objevují i nové informační potřeby lidí pracujících v takových organizacích. Mapování znalostí by mělo být klíčem k poskytnutí informace o znalostech ostatních spolupracovníků v organizaci. Mapování znalostí vychází z předpokladů, které jsou shrnuty v následujících textech: Gilbert v [3] definuje efektivní řízení znalostí třemi body: „Know thyself as an organisation“ – prvním krokem je zmapovat znalostní aktiva organizace a dát je k dispozici lidem, kteří je potřebují. „Design from and for the users“ – zprostředkovat nejen znalost, ale i znalost o znalosti a zprostředkovat ji s co nejmenší potřebou námahy ze strany zaměstnanců. „Treat Knowledge Management as Relationship
Vědecký seminář doktorandů FIS – únor 2008
25
Management” a konečně by nemělo jít jen o pasivní zprostředkování znalosti, ale především o zprostředkování vztahů spolupráce. Důležitost znalosti o znalostech druhých lidí při budování týmů popisují též Ogata, Matsuura, Yano v [6]. Přestože se zdá, že problém řízení znalostí zaměstnanců postihuje velké organizace od nepaměti, není známo velké množství efektivních a fungujících řešení. Některé aktuální popsané přístupy k řešení tohoto problému: Obsáhlý článek Smithe a Farquhara [7] popisuje, jak se společnost Schlumberger s tisíci inženýrů – odborníků na problematiku vrtů distribuovaných po celém světě – vypořádala s problémem zprostředkování znalostí v množství znalostních oblastí. Řízení znalostí zde staví na takzvaných „Communities of practice“ – malých skupinách zaměstnanců (ne nutně oficiálně zformovaných), kteří pracují na vyřešení konkrétního stejného nebo velmi podobného problému. To, co je drží pohromadě, je znalost příčiny problému a sdílená potřeba jeho řešení a také potřeba vědět co nejvíce o znalostech svých kolegů. Vzhledem k velké rozptýlenosti zaměstnanců je hlavním prostředkem spolupráce znalostní web označovaný jako „knowledge hub“ skládající se z komponent jako jsou mimo jiné projektový archiv, adresář expertisy, best practices, novinky, helpdesk, FAQ a diskusní skupiny… Poměrně známou aktivitou v oblasti řízení znalostí poněkud odlišného zaměření je projekt “Referral Web” popsaný například v práci [4] autorů Kautz, Selman, Shah. Cílem projektu bylo na základě informací o spoluautorství článků nebo webových stránek na internetu vytvořit sociální mapu – tedy mapu vztahů vzájemné znalosti autorů – a s její pomocí pak umožnit co nejsnadnější zprostředkování spojení mezi vědci, kteří mají zájem spolupracovat. Naším cílem při mapování znalostí je dodat informace pro uspokojení následujících informačních potřeb zaměstnanců velkých firem: •
Hledám kolegu, který je odborník v nějaké speciální oblasti, se kterou potřebuji pomoct
•
Před tím než najmeme externího konzultanta, zajímá nás, jestli u nás není někdo, kdo alespoň vzdáleně něco slyšel o nové technologii X
•
Nalezení zaměstnance, jehož znalostní profil odpovídá neobsazené pozici v projektu
•
Víme, že v následujícím období budeme potřebovat velké množství odborníků na danou úlohu a zjistili jsme, že je nemáme. Kdo je nejvhodnější kandidát k doškolení? Jak je tedy patrné cílem není v tomto případě ani tak komplexní řešení problému sdílení znalostí v organizaci jako v případě publikace [7], ani jedna z víceméně specificky orientovaných oblastí jako v [4]. Cílem výzkumu je zpřístupnění znalosti o znalostech druhých lidí uvnitř organizace.
26
Vědecký seminář doktorandů FIS – únor 2008
Co tedy od systému požadujeme? •
Aby systém ke své správné činnosti potřeboval co nejmenší lidskou aktivitu.
•
Lidská znalost je dynamická. Systém vytvářející znalostní mapu by měl umět reflektovat vývoj lidské znalosti – tedy zapomínání podobně jako učení nových znalostí a měl by dokázat dynamiku správně interpretovat uživateli. To je jeden z nejtěžších úkolů. Vzhledem k tomu, že je systém vyvíjen pro potřebu firmy zabývající se především analýzou a vývojem software, přibývá ještě několik specifických požadavků: •
Jádrem znalostí zaměstnanců SW firmy jsou samozřejmě programovací jazyky a technologie. Systém by tedy měl umět mapovat i znalosti technologií a dokázat případně analyzovat i zdrojový kód.
•
Vlastností programovacích technologií je, že velmi rychle zastarávají. Po pár letech jsou jejich znalosti většinou k ničemu. Naopak znalost o tom, kdo dokáže použít i starou komponentu napsanou v již skoro nepoužívaném programovacím jazyku se může ukázat být velmi cennou.
2 Použité metody Formulace problému v předchozím textu naznačuje, že ideálním řešením problému by byl samočinný agent, který dokáže shromažďovat informace o znalostech jednotlivých zaměstnanců a zpřístupňovat je. Na tomto principu je postaven i náš přístup: Znalostní mapa Znalost
Dokumenty autora 2
technologie A
Znalost
Znalost systému
technologie B
Y
Dokumenty autora 1
Znalost
Dokumenty autora 3
systému
X
Znalost
Znalost ...
Znalost C++
angličtiny
Dokumenty autora n
Znalostní profil 1
Znalostní profil 2
Znalostní profil 3
Znalostní profil n
Obrázek 1. Princip mapování znalostí
Vědecký seminář doktorandů FIS – únor 2008
27
2.1
Zdroje informací
Potenciálním zdrojem informací pro agenta jsou všechny dostupné počítačově zpracovatelné informace, které mají v sobě zaznamenaný nějaký vztah k autorovi – ať jde již o autorství dokumentu nebo nějaký vztah k jeho znalosti. Mezi nejdůležitější patří volně přístupné dokumenty na sdílených adresářích serverů, intranetové a internetové stránky, v případě SW firmy lze využít i zdrojové kódy aplikací a další specializované datové zdroje. Poněkud sporným zdrojem informací je e-mailová komunikace – byla by velmi spolehlivým zdrojem informace o znalostech vzhledem k jednoznačnému přiřazení obsahu textu a odesílatele, ale její použitelnost je omezená vzhledem ke snaze o nenarušování soukromí uživatelů. 2.2
Způsob získávání znalostí o znalostech
Vzhledem k tomu, že dostupné zdrojové informace mají většinou nestrukturovanou povahu, je třeba, aby agent dokázal efektivně nestrukturovaný text zpracovávat. Metoda, kterou v současnosti využíváme vyhodnocuje existenci znalostí na základě statistického zpracování množiny termů obsažených v textech. Texty je proto před zpracováním třeba předpřipravit:
2.3
•
Nejprve je třeba text rozdělit na termy. Za termy jsou v současné metodě považovány jednoslovné výrazy. Do budoucna uvažujeme i o využívání slovních spojení.
•
Lemmatizace a Stemming umožní převod slov na základní tvar – zavedení těchto metod pro český jazyk zatím není jednoduché a není nám známo uspokojivé řešení pro oblast, ve které se pohybujeme. Proto část statistik provádíme nad anglicky psanými texty, v nichž vynechání těchto metod při předzpracování je do určité míry přípustné.
•
Odstranění stop slov je v současné době řešeno uspokojivě snížením váhy těchto slov – viz další podkapitola, ve které se budeme zmiňovat o Khurshidově metodě. Způsob uložení
Pro uložení frekvenčních seznamů je v současnosti používán invertovaný index implementovaný nástrojem Lucene.NET. Ten poskytuje funkčnost pro zjišťování jak jednotlivých, tak agregovaných frekvencí slov. Tyto funkce pak využívá pro výpočet statistik aplikace, která je po spočítání ukládá do jednotlivých tabulek v souborech.
28
Vědecký seminář doktorandů FIS – únor 2008
2.4
Výpočty statistik Lucene.NET Množina dokumentů Lucene Index
UML v praxi Autor: Martin Strouhal
Frekvence slov v dokumentech
Morfologický slovník ... ... objekt objekt(y) objektový objekt(y) objektově objekt(y) objekty objektní ...
Tvorba frekvenčního seznamu termů + lematizace + stemming
objekt(y) objekt(y) ...
Slovo/ Autor
Martin Strouhal: UML v praxi
Martin Strouhal: UML snadno a rychle
Ondřej Pometlo:
třída
7
10
0
objekt
5
5
0
use case
15
8
20
UML
4
15
7
...
...
...
...
Agregace dokumentových statistik za jednotlivé autory
Znalostní mapa
...
Korpus obecného jazyka
Frekvence slov u autorů Slovo/Autor Martin Strouhal Ondřej Pometlo třída 17 3 objekt 10 7 use case 23 40 UML 19 7 ... ... ...
Celkem
... ... ... ... ... ...
20 17 63 26 ...
Celkové procento využití termu
Vážení speciálních termů podle Khurshida
Celkový počet termů použitý autory 69 57 ...
Počet
Tvorba statistik Znalost termu autorem Znalost/Autor Martin Strouhal Ondřej Pometlo UML 0,9 0,8 Design 0,5 0,3 Analýza 0,4 0,4 Use case ...
0,8 ...
0,9 ...
... ... ... ... ... ...
Zodpovídání dotazů ?
Obrázek 2. Náčrt usuzovacího algoritmu
Jak naznačuje obrázek 2, základem pro přiřazení znalostí jednotlivých termů autory je výpočet základních statistik. Celkový počet použití termu t autorem a ve všech dokumentech d je n
xta = ∑ xtad .
(1)
d =1
Vědecký seminář doktorandů FIS – únor 2008
29
Důležitý pro následný výpočet jsou i úhrny počtu využití každého termu (xt), počtu termů zaindexovaných pro každého autora (xa), a souhrnný počet všech použitých termů (x): n
m
a =1
t =1
m
n
xt = ∑ xta , xa = ∑ xta , x = ∑∑ xta .
(2), (3), (4)
t =1 a =1
Ahmad Khurshid ve své práci [1] nastiňuje způsob vyhledání speciální terminologie v textu s pomocí korpusu obecného jazyka. Čím větší relativní zastoupení slova v korpusu obecného jazyka, tím nižší pravděpodobnost, že jde o speciální termín. Rozhodli jsme se pro využití tohoto principu pro oddělení speciálních, a tedy pro mapu znalostí zajímavých termínů, od slov obecných, a tudíž méně zajímavých termínů. Velmi nízkou váhu zde získají stop slova. Relativní frekvenci (kt) termu t v korpusu odvozujeme jako
kt =
yt
,
p
∑y t =1
(5)
t
kde yt je počtem výskytů termu t v korpusu. Na základě předchozích dílčích výpočtů je možné přistoupit k odvození relevantnosti znalosti zta termu pro daného autora. Nejjednodušší ze statistik využívaných k tomuto účelu je relativní frekvence užití termu autorem vážená speciálností termu v korpusu
xta x zta = a . kt
(6)
Nevýhodou této statistiky je, že zcela ignoruje časovou složku – dynamiku znalostí. Vyjděme z předpokladu, že znalost vyjádřená autorem dokumentu v nějakém čase č může být v dalším časovém okamžiku zapomenuta. Pokud ale autor systematicky se znalostí (vyjádřenou v našem modelu termem t) pracuje po nějaké časové období, lze předpokládat, že nejen po toto období má příslušnou znalost, ale je pravděpodobnější, že si znalost podrží až do dneška, poněvadž opakované využívání znalosti její udržení posiluje. Tedy spočítáme-li pro jednotlivé dokumenty (d) daného autora (a) v nichž se vyskytuje term (t) rozdíly v časech jejich napsání (čadt) od střední hodnoty pro daného autora (čat) používajícího term t, můžeme k míře závažnosti daného termu přidat i rozptyl časů napsání dokumentů:
30
Vědecký seminář doktorandů FIS – únor 2008
zta = 2.5
xta xa
n
∑ (č d =1
− čat )
2
adt
kt
.
(6)
Zpřístupnění informací o znalostech
Uložené informace budou zpřístupněny v expertízním adresáři. Tedy každý zaměstnanec bude mít svůj znalostní profil odvozovaný z jednotlivých statistik popisující jeho nejdůležitější oblasti expertizy. Dalším důležitým nástrojem bude vyhledávací rozhraní k tomuto expertíznímu adresáři, které poskytne možnost vyhledání zaměstnanců podle přinejmenším dvoustupňového rozlišení úrovně znalostí (dobrá znalost/povědomost).
3 Prováděné experimenty Experimenty byly prováděny nad množinou několika stovek dokumentů, fungujících především jako projektová dokumentace ve firmě, kde autor pracuje. Jako korpus obecného jazyka byl použit standardní vyhledávací nástroj Google.Výsledky prokázaly, že na nejvyšších místech statistiky (6) bylo možné najít termy, které velmi dobře charakterizovaly znalosti jednotlivých zúčastněných autorů dokumentů. V současnosti je předpřipravována množina dokumentů (o rozsahu zhruba tisíce dokumentů), která bude použita při verifikaci použitelnosti statistiky (7).
4 Závěr Stávající průběh experimentů dává naději, že navržená metoda mapování znalostí bude účinným pomocníkem umožňujícím větším organizacím a jejich různým zájmovým skupinám zorientovat se ve znalostním potenciálu zaměstnanců organizace, aniž by bylo třeba obsáhlých znalostních průzkumů či ručního udržování znalostních profilů. Do budoucna je třeba ovšem ještě prověřit a zdokonalit metody předzpracování dokumentů pro tvorbu znalostní mapy. Dále vyladit (případně vyvinout další specifické) statistiky, které by umožnily jemnější přiřazení znalostí jednotlivým zaměstnancům a ověřit funkčnost statistik na různých druzích dokumentů (uvažujeme např. o zdrojových kódech). Rovněž bude třeba vyvinout nějakou průkaznou metodu testování celého nástroje. A v neposlední řadě je třeba ověřit použitelnost google jako korpusu obecného jazyka nahradit jej případně korpusem s menším objemem technické terminologie.
Vědecký seminář doktorandů FIS – únor 2008
31
5 Literatura [1] Khurshid, A.: Language engineering and the processing of specialist terminology. http://www.computing.surrey.ac.uk/ai/pointer/paris.html, University of Surrey. [2] Gärdenfors, P.: Knowledge in Flux, Modeling the Dynamics of Epistemic States. The MIT Press, Cambridge, MA, 1988, ISBN: 0-262-07109-6. [3] Gilbert, C. M.: Nonprofit Knowledge Management. http://news.gilbert.org/NonprofitKM, Nonprofit online News, 28.2.2002. [4] Kautz, H.: The Hidden Web. AI Magazine, 1997. [5] Mitchell, T.: The Role of Unlabeled Data in Supervised Learning. Proceedings of the Sixth International Colloquium on Cognitive Science, San Sebastian, Spain, 1999. [6] Ogata, H., Matsuura K., Yano Y.: Active Knowledge Awareness Map: Visualizing Learners Activities in a Web Based CSCL Environment. Proceedings of NTCL 2000, pp. 89 – 97, 2000. [7] Smith, R. G., Farquhar A.: The Road Ahead for Knowledge Management, An AI Perspective. AI Magazine, American Association for Artificial Intelligence, 2000.
Summary Mapping of the Knowledge Within Organisation Mapping the knowledge of employees is the mean for effective personal management and organization of large-scale companies and institutions. The aim of the tool for creating knowledge maps is to make the information about other people’s knowledge explicit and accessible by requiring the minimal human effort. Resulting knowledge map is used not only by personal managers for searching persons with personal profile required for solving a specific task, but as well by other employees of the organization for finding a colleague, who is able to deliver some required knowledge. The core of the text discusses the possibilities of knowledge information mining from data sources spreaded within the company, means of storing and making such an knowledge about knowledge accessible and finally discusses special requirements on ‘metaknowledge system’ as the necessity to reflect the natural dynamics of knowledge.
32
Vědecký seminář doktorandů FIS – únor 2008
Vztah strategického řízení podniku a IT struktur Natálie Presová Doktorandka oboru Informatika
Abstrakt. Příspěvek se zabývá řízením informačních technologií v organizaci se zaměřením na soulad řízení IT s podnikovou strategií. Jelikož dnešní doba vyžaduje řízení všech podnikových částí nikoli odděleně, avšak provázaně, a to nejen v provádění činností, ale i při definici strategií a cílů podniku. Tento koncept širšího pojetí, nazývaný v zahraniční literatuře IT Governance, přináší komplexní pohled na řízení IT v organizaci. Proto je třeba věnovat velkou pozornost procesům i strukturám v organizaci, které mají plnění cílů firmy podporovat. Klíčová slova: IT Governance, IT management, IT struktury
1 Úvod S rozvojem IT začaly organizace využívat jejích služeb pro zefektivnění svých procesů a činností. Tento trend má za následek stále větší závislost firem na informačních technologiích (IT). Jestliže se dříve řízení IT soustředilo na dodávky hardware a software a na nákladové optimalizace v této oblasti, současné trendy ukazují, že tyto činnosti jsou pouze základem, na kterém se staví moderní strategické řízení IT – IT Governance. Nejde již jen o koordinaci IT odděleně, jako jedné části firemních procesů, ale je třeba zahrnovat a řídit tyto činnosti v širším kontextu – je nezbytné, aby se řízení IT stalo součástí strategických úvah celého managementu a ne pouze dedikovaného IT manažera.
2 Vztah řízeni IT a strategie podniku Zatímco operativní řízení IT (označováno jako IT management) si klade za cíl efektivní poskytování služeb uvnitř organizace, strategické řízení IT se snaží usměrňovat a řídit IT tak, aby podporovala současné i budoucí vnitřní podnikové a tržní požadavky, kladené na organizaci. Tento koncept zobrazuje následující obrázek.
Vědecký seminář doktorandů FIS – únor 2008
33
Obrázek 1. Strategické a operativní řízení IT, převzato z lit [2].
V současném turbulentním prostředí existuje velká závislost mezi podnikáním a informačními technologiemi, tudíž se organizace při svém řízení bez použití IT nemohou obejít. Jak je znázorněno na obrázku č. 2, podnikové řízení musí udávat cíle řízení IT. Na druhé straně IT ovlivňuje strategické příležitosti organizace tím, že poskytuje organizaci strategické informace a tak může být považován za jeden z určujících prvků pro řízení organizace.
Obrázek 2. Vztah podnikového řízení a řízení IT, viz lit [8].
Informační technologie je dnes všudypřítomná, a proto je nezbytné brát do úvahy také podmínky okolí, ve kterém organizace působí. Např. Broadbent & Weill viz lit. [1] poukazují na propojenost veřejné IT infrastruktury, firemní IT infrastruktury a lokální IT infrastruktury pro jednotlivé firemní procesy:
34
Vědecký seminář doktorandů FIS – únor 2008
Obrázek 3. Nová IT infrastruktura dle Broadbent & Weill, viz lit [1]
Tato vzájemná provázanost by měla podporovat nejen stávající cíle v oblasti IT, ale měla by také poskytovat dostatečný prostor pro dosažení zvýšení efektivity a konkurenční výhody. Z tohoto pohledu již IT oddělení není jen poskytovatel IT služeb, ale stává se strategickou složkou řízení organizace. Tabulka 1. IT oddělení jako poskytovatel podpory nebo Strategický partner, viz lit [5].
Poskytovatel IT podpory
IT jako strategický partner
•
IT zvyšuje efektivitu
•
•
Rozpočet IT na základě benchmarkingu
IT podporuje růst a úspěch organizace
•
Řízení IT je oddělené od řízení firmy
Rozpočet je odvozen ze strategie organizace
•
Na IT se nahlíží jako na nutné výdaje
Řízení IT je neoddělitelné od řízení firmy
•
IT je investicí do budoucna
•
IT manažeři řeší podnikové a obchodní problémy
• • •
IT manažeři jsou techničtí experti
Dosáhnout souladu mezi firemní strategií a strategií v oblasti IT má v praxi mnohá úskalí. Je třeba kontinuálně usměrňovat strategii dle měnících se podmínek okolí. Dle výzkumů uvedených v lit [5] se tyto snahy setkávají s problémy jako
Vědecký seminář doktorandů FIS – únor 2008
35
nedostatek porozumění nutnosti propojení IT a firemní strategie u top managementu, otázky finanční nákladnosti, IT manažeři nemají vedoucí postavení v prosazení širších cílů, starší management nemá pochopení pro trendy v IT apod. Jedním z nástrojů, který lze použít pro hodnocení souladu strategie řízení firmy a IT jsou IT BSC (IT Balanced Score Cards) doplněné o analýzu příčina – následek.
Obrázek 4. Vztah příčiny a následku v modelu IT BSC. Viz lit. [6].
3 Koncept Strategického řízení IT Řízení IT existuje v organizaci provázaně s ostatními prvky. Tudíž na tuto oblast působí několik interních i externích vlivů, které působí na celý systém řízení IT. Následující obrázek znázorňuje vazby mezi systémem řízení IT a dalšími prvky – strukturami, procesy a vztahy organizace s okolím.
36
Vědecký seminář doktorandů FIS – únor 2008
Obrázek 5. Nezbytné prvky a vazby systému řízení IT, viz lit. [2].
Procesy jsou nedílnou složkou řízení IT zahrnující popis a pokyny pro řízení, kontrolu a monitorování podnikových činností, související s IT oblastí. Důležitou složkou řízení IT je měření výkonu IT a jejich souladu s podnikovými strategiemi. I přestože má organizace zavedené procesy a definované struktury, nemusí být v řízení IT úspěšná, pokud podcení složku vztahů v organizaci i vztahů s okolím. Je nezbytná dobrá spolupráce a komunikace mezi IT a ostatními oblastmi firmy, a to i na sociální úrovni. Struktury znázorňují nutnost definovat role a odpovědnosti. Nejedná se jen o definici odpovědností jednotlivých pracovníků, ale i strukturu pravomocí za jednotlivé oblasti či úkoly na úrovni managementu.
4 Struktury řízení IT Jasně a jednoznačně nadefinované role a odpovědnosti v organizaci jsou základem úspěchu systému strategického řízení IT. Dle lit [5] je odpovědností vedení a výkonného managementu společnosti tyto role a odpovědnosti nejen komunikovat, ale i zajistit, aby byly pochopeny napříč celou organizací. Všechny řídící složky organizace musí hrát důležitou roli při strategickém řízení IT. Řízení IT není jen odpovědností vedoucího IT oddělení, ale musí být sdíle-
Vědecký seminář doktorandů FIS – únor 2008
37
nou celopodnikovou strategií pro rozvoj a maximalizaci přidané hodnoty informačními technologiemi. Dále dle lit [5] je to výkonný ředitel, který zodpovídá za implementaci a realizaci strategických plánů a cílů v konečném důsledku a spolu s IT managerem by měl reportovat současný stav a pokrok realizace cílů, spojených a podporovaných IT. Celé vedení by mělo pak plnit roli nezávislého dozoru nad souladem a plněním podnikové a IT strategie. To však vyžaduje, aby vedení společnosti sledovalo současné trendy v oblasti obchodních modelů, informačních technologií apod., a bylo schopno rozumět potenciálním rizikům a přínosům, z nich vyplývajících. Vytvoření tzv. Strategického výboru IT na úrovni výkonného management firmy může být účinným mechanismem, jak definovaných cílů dosáhnout. Zatímco Strategický výbor IT pracuje v úzkém kontaktu s vedením společnosti na strategickém směřování cílů firmy, operativa v oblasti IT zajišťuje dohled nad projekty, běžící v IT oblasti, zabývá se optimalizací nákladů na IT, přerozdělování zdrojů apod. Následující tabulka přibližuje rozdělení pravomocí a participaci ne těchto úrovních. Tabulka 2. IT oddělení jako poskytovatel podpory nebo Strategický partner, viz lit [5].
Pravomoci
Participace
38
•
Strategický výbor IT Doporučuje a radí v oblasti IT strategie nejvyššímu vedení
•
Operativní útvar IT Vykonává activity v oblasti IT pro dosažení strategických cílů
•
Zaměřuje se na současné a budoucí výzvy v oblasti strategie IT
•
Dozírá nad řízením každodenních IT aktivit a IT projektů
•
Členové nejvyššího vedení a několik nečlenů
•
IT manager
•
IT konzultanti
•
Zástupci z obchodní oblasti
Vědecký seminář doktorandů FIS – únor 2008
5 Úspěšné řízení IT V předchozí části textu byly diskutovány nezbytné vazby a prvky sytému řízení IT. Otázkou však nadále zůstává, jak tyto prvky provázat tak, aby řízení IT bylo úspěšné a podporovalo plnění strategických cílů organizace. P. Weill viz lit [4] identifikoval následujících 8 faktorů pro úspěšné řízení IT: 1. Transparentnost – Je nutné, aby byly všechny mechanismy, související s řízením IT, transparentní pro všechny managery. Jestliže jsou rozhodnutí z oblasti IT činěna bez zainteresování managerů, pak je o to složitější získat důvěru a ochotu pracovat dle vytvořených pravidel a procesů. 2. Vytvářet aktivně – místo tvorby nekoordinovaných IT procesů, které řeší jen určitou část této oblasti, je třeba se zabývat řízením IT v souladu s podnikovými cíly a podporovat je. 3. Nepravidelně přetvářet – procesy se musí neustále přizpůsobovat měnícím se podmínkám okolí I firmy, je však nutné dbát i na adekvátní změnu chování pracovníků. 4. Vzdělávání v oblasti řízení IT – školení a vzdělávání v oblasti řízení IT napomáhá prosazování principů a zásad implementovaného systému řízení IT 5. Jednoduchost – prvky efektivního řízení jsou jednoduché, pokud je definováno mnoho cílů, systém řízení IT se může stát nepřehledným a těžce řiditelným 6. Proces řízení změn – současné, rychle se měnící prostředí, vyžaduje nejen řídit a koordinovat již známé činnosti a vstupy, ale musí být připraven i na neočekávané události a umět s nimi nakládat 7. Řízení na všech organizačních stupních – v rozsáhlejších organizacích je třeba zahrnout do spolupráce na řízení IT pracovníky na různých úrovních. Je třeba řízení IT koordinovat i v různých lokalitách a divizích. 8. Podpora a motivace – systém řízení IT funguje dobře jen tehdy, existuje-li dobře fungující systém podnětů a odměn ze strany organizace
6 Závěr Informační technologie jsou dnes všudypřítomné a závislost firem na IT se stále zvětšuje. Řízení IT se stává klíčovou otázkou v přežití organizací v budoucnu. Není proto divu, že se organizace snaží optimalizovat náklady i přínosy IT. Řízení IT ovlivňují dva vstupní faktory – procesy, zahrnující použití metodik, standardů a modelů vyspělosti a řídících a organizačních struktur, udávajících rozložení pravomocí a odpovědností napříč organizací a zajišťujících plnění cílů oblasti IT a jejich soulad s podnikovou strategií. Je nezbytné, aby se řízení IT stalo
Vědecký seminář doktorandů FIS – únor 2008
39
součástí strategického managementu firmy, jelikož IT je kritickým prvkem, dodávajícím vstupy pro rozhodovací a řídící procesy v celém podniku. Důležitým faktorem jsou také zavedené struktury a odpovědnosti pro řízení IT v podniku. Vhodným tématem pro rozpracování textu se jeví hlubší analýza struktur IT ve strukturách podnikových a jejich vzájemné vztahy.
Literatura [1] Weill, P., Broadbent, M.: Leveraging the New Infrastructure: How Market Leaders Capitalize on Information Technology, Harvard Business School Publishing, 1998. [2] Peterson, R.: (2003). Information strategies and tactics for information technology governance. In: Grembergen, W. and Haes, S. , Implementing Information Technology Governance: Models, Practices and Cases, IGI Publishing, 2008 chapter 1. [3] Grembergen, W.: (2000). The balanced scorecard and IT governance. Information Systems Control Journal, 2. In: Strategies for Information Technology Governance (ed) Idea Group Publishing, 2004. [4] Weill, P., Ross, J. W.: (2004). IT governance. Boston: Harvard Business School Press In E-Business Strategy, Sourcing and Governance, Idea Group Publishing, 2006. [5] Grembergen, W.: Strategies for Information Technology Governance, Idea Group Publishing, 2004 chapter 1. [6] Grembergen, W., Haes, S.: Implementing Information Technology Governance: Models, Practices and Cases, IGI Publishing, 2008. [7] Zdroj dostupný na www.isaca.org, použito dne 5.1.2008 [8] Zdroj dostupný na www.itgi.org, použito dne 5.1.2008
Summary Strategic business management in relation to IT structures In many organisations, Information Technology has become crucial in the support, the sustainability and the growth of the business. This pervasive use of technology has created a critical dependency on IT that calls for a specific focus on IT Governance. IT Governance consists of the leadership and organisational structures and processes that ensure that the organisation's IT sustains and extends the organisation's strategy and objectives. The Board as well as the business and IT management have to play an important role in assuring the governance of IT. The
40
Vědecký seminář doktorandů FIS – únor 2008
possibility of effective governance over IT is also determined by the way the IT function is organised and where the IT decision-making authority is located in the organisation. Therefore a further analysis of the IT and company structures is recommended with the focus on the reciprocal relations between them.
Vědecký seminář doktorandů FIS – únor 2008
41
Smysluplné multirelační 4FT hypotézy Martin Ralbovský Doktorand oboru Informatika
Abstrakt. Procedura 4FT je silný nástroj pro hledání zobecněných asociačních pravidel. Nedávná implementace hypotézových atributů umožnila hledat 4FT pravidla z dat ve více tabulkách spojených do schématu hvězdy. Teoretické možnosti procedury se tím velmi rozšířily, praktické pokusy však narazily na problém obtížného nalezení srozumitelných a smysluplných hypotéz. V příspěvku vysvětluji, proč je se stávajícím algoritmem tak těžké najít smysluplné hypotézy a navrhuji jeho modifikaci, která umožní najít jednu třídu smysluplných hypotéz. Klíčová slova: 4FT, multirelační 4FT, hypotézový atribut
1 Úvod Procedura 4FT je jednou z procedur původní české metody explorativní analýzy dat GUHA[2,3]. Procedura vychází z původní procedury ASSOC a z procedury 4ft-Miner v systému LISp-Miner[11]. Od poslední uvedené procedury se 4FT liší možností zadání Booleovských atributů místo dílčích cedentů, jak je popsáno v [6,8]. Ve své zjednodušené formě procedura hledá pravidla (zobecněná asociační pravidla) ve tvaru ϕ≈ψ, kde ϕ a ψ jsou Booleovské atributy a ≈ je 4ft-kvantifikátor. ϕ se také říká antecedent a ψ sukcedent. Pravidlo ϕ≈ψ je vyhodnoceno na základě čtyřpolní kontingenční tabulky, což je uspořádaná čtveřice přirozených čísel
tak, že např. a určuje počet objektů datové matice, pro které platí ϕ a zároveň ψ (obdobně dle tabulky 1 pro zbývající). Tabulka 1 zobrazuje čtyřpolní kontingenční tabulku. 4ft-kvantifikátor je funkce f(a,b,c,d) → {0,1} určující typ vztahu mezi ϕ a ψ. Procedura 4FT se liší od ostatních metod dobývání asociačních pravidel založených na algoritmu a-priori [1] použitím bitových řetízků (bit string approach). Protože pro pochopení textu (zejména sekce 4) je dobré bitovým řetízkům porozumět, vysvětlíme jejich princip na příkladu, více informací v [11]. V tabulce 2 máme informace o čtyřech klientech banky.
42
Vědecký seminář doktorandů FIS – únor 2008
Tabulka 1. Čtyřpolní kontingenční tabulka ϕ
¬ϕ
ψ
a
b
¬ψ
c
d
Tabulka 2. Vzorová data pro ilustraci bitových řetízků
KlientID 1 2 3 4
Okres Praha Brno Praha Ostrava
Plat 20 000 25 000 30 000 20 000
Status dobrý dobrý špatný dobrý
Uveďme několik Booleovských atributů a bitových řetízků jim odpovídajícím: •
Okres[Praha]
[1,0,1,0]
•
Status[dobrý]
[1,1,0,1]
•
Okres[Praha] & ¬ Status[dobrý]
[0,0,1,0]
Myslíme si, že procedura 4FT (4ft-Miner) je nejobecnější procedurou na hledání asociačních pravidel vůbec. Umožňuje však pracovat pouze nad jednou tabulkou dat. V minulosti byla prozkoumána teorie vztahující se k multirelační verzi procedury, tedy pro dobývání nad více tabulkami [8,10]. V průběhu minulého desetiletí se různí autoři celkem třikrát pokusili implementovat tuto teorii. Prvním pokusem byl modul systému LISp-Miner od M. Šimůnka z roku 1999. Tento modul byl funkční, avšak uživatelsky značně nepřehledný a od jeho dalšího vývoje bylo upuštěno. Druhou nedokončenou implementaci vyvíjel T. Karban v rámci své disertační práce [4]. V systému nazvaném RelMiner uvedl poprvé pojem hypotézový atribut (princip multirelační 4FT procedury bude vysvětlen v sekci 2). Konečně třetí dokončená implementace byla provedena A. Kuzminem v systému Ferda [5] v rámci diplomové práce [6]. Implementace A. Kuzmina přináší přehledné vyobrazení multirelační 4FT úlohy do známých vizuálních prvků a fungující generování hypotézových atributů nad relačním schématem hvězdy [6]. Aby se však multirelační 4FT vědecky uplatnila, je třeba ukázat problémy, které procedura řeší (a jiné metody je řešit neumí). V tomto ohledu byly provedeny násobné experimenty A. Kuzminem, doc. Rau-
Vědecký seminář doktorandů FIS – únor 2008
43
chem a mnou, které přinesly neuspokojivé výsledky: v obvyklém případě se nepodařilo vůbec žádné multirelační hypotézy najít a když se přece po nemalé snaze úloha modifikovala tak, aby atribut nalezla, výsledná hypotéza byla nesmyslná. Tento příspěvek je shrnutí mojí analýzy příčin neúspěšných experimentů. Dle mých nejlepších znalostí je to první příspěvek zkoumající do hloubky sémantiku 4FT pravidel složených z hypotézových atributů. Práce je strukturována následovně: sekce 2 vysvětluje základní principy multirelační 4FT procedury, zejména funkci hypotézového atributu. Sekce 3 rozebírá možné vztahy mezi dvěma tabulkami a jejich návaznost na význam hypotézových atributů. V sekci 4 je provedena diskuse, proč stávající implementace neumí zkonstruovat smysluplný hypotézový atribut, který stál u zrodu myšlenky multirelačního dobývání asociačních pravidel. Sekce 5 navrhuje změnu v algoritmu 4FT tak, aby uměl nalézt hypotézy podobné hypotézové atributy a ukazuje i řešení založené na vhodném předzpracování dat. Konečně sekce 6 obsahuje shrnutí práce. Příspěvek je určen zejména čtenářům majícím dobré povědomí o dobývání asociačních pravidel pomocí nástrojů a procedur vzešlých z metody GUHA.
2 Multirelační 4FT procedura Vysvětleme, jak pracuje multirelační 4FT procedura. Jak bylo zmíněno v úvodu, klasická 4FT hledá pravidla tvaru ϕ≈ψ, kde ϕ a ψ jsou Booleovské atributy. Booleovský atribut [9] je rekurzivní struktura, která pomocí klasických Booleovských operátorů kombinuje atributy, což jsou konečné množiny objektů vyskytující se ve sloupcích zkoumané datové matice. Multirelační 4FT pravidla kromě atributů navíc obsahují hypotézové atributy. Hypotézový atribut je klasické 4FT pravidlo, které bylo nalezeno v tabulce připojené k hlavní (master) datové tabulce přes nějaký její sloupec. Jestliže například master tabulka obsahuje údaje o klientech banky a připojená (detail) tabulka obsahuje údaje o transakcích klientů, hypotézový atribut bude 4FT pravidlo nalezené nad tabulkou transakcí. Zde narážíme na problém zobrazený na obrázku 1, který je důležitý pro pochopení dalšího textu.
44
Vědecký seminář doktorandů FIS – únor 2008
Obrázek 1. Transakce patřící určitým klientům
Hypotézový (také virtuální) atribut si lze přestavit jako virtuální sloupec, který se přidá do master tabulky. Obrázek znázorňuje fakt, že k jednomu klientovi se vztahují pouze určité transakce. Tedy každý klient má různou hodnotu tohoto atributu a pro každého klienta se musí počítat zvlášť „jeho“ podúloha na detail tabulce. Důležité je také fakt, že pro každou kombinaci ϕ a ψ (relevantní otázku) se přidá do master tabulky právě jeden sloupec.
3 Vztahy mezi dvěma tabulkami a funkce hypotézového atributu Následující sekce rozebírá možné vztahy mezi dvěma tabulkami. Můžeme přeskočit tabulky, které mezi sebou nemají žádný vztah. Zbývají tabulky propojené přes nějaký sloupec (záměrně se vyhýbám slovu atribut, který je již použit v odlišném významu). Tento sloupec musí být za předpokladu správného databázového návrhu v jedné tabulce klíčový a ve druhé neklíčový. Vrátíme-li se k příkladu s klientem a jeho transakcemi, v master tabulce je klíčovým sloupcem identifikace klienta. Tento sloupec je obsažen v detail tabulce jako neklíčový; klíčový sloupec je zřejmě identifikace transakce. Hypotézy vzniklé z tabulky transakcí budou agregované přes jednotlivé transakce. Naproti tomu hypotézy vzniklé z tabulky klientů budou agregované přes klienty. A zde je hlavní potíž ve smysluplnosti multirelační hypotézy: hypotézový atribut je agregovaný přes jinou entitu než zbytek hypotézy vzniklé z master tabulky. Ve většině případů se jedná o „míchání hrušek a jablek“. Praktické zkušenosti předchozí větu jenom potvrzují.
Vědecký seminář doktorandů FIS – únor 2008
45
4 Auta, která jezdí často v horách Nadpis sekce je hypotézový atribut doc. Raucha, který byl v osmdesátých letech u zrodu myšlenky multirelačního dobývání asociačních pravidel. K dispozici byla tehdy tabulka o autech a tabulka o jízdách aut a úkolem bylo například potvrdit vyšší poruchovost aut pohybujících se v terénu. Obdobné smysluplné atributy bychom mohli sestrojit i pro příklad klientů a jejich transakci: „klient, který často platí kartou“, „klient, který má vysoký zůstatek na účtu“ a podobně. Jak se na tyto pravidla vztahují poznatky ze sekce 3? Zdá se, jako kdyby byly hypotézové atributy nad tabulkou transakcí agregované přes klienty, nicméně pravda je, že jsou to pravidla agregované přes transakce, které jako antecedent obsahují vždy identifikaci klienta, obecněji klíč master tabulky. Lze se domnívat, že byla nalezena podtřída všech hypotézových atributů, jejíž prvky budou smysluplné v kontextu master tabulky. V následujících odstavcích však ukážu, že pravidla tohoto druhu stávající implementace multirelační 4FT procedury hledat neumí. Příklad: Master tabulka obsahuje informace o klientech a jejích statutech (ohodnocení klienta). Detail tabulka obsahuje informace o typu transakce (výběr, přesun). Zjednodušený případ dvou klientů ukazuje tabulka 3. Pro zadání hypotézového atributu Klient ID≈Typ se ověří 4 relevantní otázky (1≈V, 1≈P, 2≈V, 2≈P) a vzniknou 4 čtyřpolní tabulky. Tabulky 4 a 5 zobrazují dvě z nich. Tabulka 3. Zjednodušená verze detail tabulky
TR ID 1 2 3 4
Klient ID 1 1 2 2
Typ V V P P
Tabulky 4 a 5. Čtyřpolní tabulky pro relevantní otázky 1≈V, 1≈P
46
2 0
0 0
0 0
2 0
Vědecký seminář doktorandů FIS – únor 2008
Všimněme si, že nenulová čísla jsou pouze v horním řádku. Nenulová čísla se jinde ani vyskytnout nemohou, protože tyto relevantní otázky zkoumáme na podmatici, která je určena právě ID klienta (tato skutečnost například značně mění význam kvantifikátorů, neboť bude vždy platit, že c=d=0). Podívejme se, jak vypadá master tabulka pro přidání hypotézových atributů: Tabulka 6. Tabulka klientů po přidání hypotézových atributů
Klient ID 1 2
Status A B
1≈ V 1 0
1≈P 0 0
2≈V 0 0
2≈P 0 1
Jak budou vypadat bitové řetízky pro otázku hypotézový atribut≈status? Řetízek pro status bude obsahovat 1 a 0 podle rozložení klientů do statutů (zde řetízek pro A je {1,0} a řetízek pro B je {0,1}). Naproti tomu řetízky pro hypotézové atributy budou velmi řídké. V množině hypotézových atributů vztahujících se ke klientovi 1 (zde 1≈V, 1≈P) to bude tolik jedniček, kolik má jeho množina hypotézových atributů prvků (zde 1). Když k tomu ještě přidáme realistické zadání kvantifikátoru (např. fundovanou implikaci s p>0,5), dostaneme jedničku právě jednu. Ve čtyřpolních tabulkách pro otázku hypotézový atribut≈status se vyskytne pro a, b pouze málo jedniček (v případě realistického použití kvantifikátoru pouze jedna). Dostaneme tedy degenerované hypotézy (hypotézu), které platí právě pro jeden objekt datové matice. V předchozích odstavcích bylo ukázáno, že současná implementace vydá po zadání hypotézového atributu, v jehož antecedentu je klíč master datové tabulky, řídké bitové řetízky, které vedou k nalezení hypotéz s velmi nízkou podporou.
5 Nalezení hypotézových atributů s klíčem master datové tabulky v antecedentu Problém představený v předchozí kapitole lze odstranit dvěma způsoby. Prvním způsobem je modifikace algoritmu 4FT a je přínosem autora článku. Druhý způsob vychází z použití TRUE atributu, díky němuž se zadání mající TRUE atribut v antecedentu hypotézového atributu chovají stejně jako kdyby byl v antecedentu klíč master datové tabulky.
Vědecký seminář doktorandů FIS – únor 2008
47
5.1
Modifikace algoritmu 4FT
Prvním řešením je modifikace algoritmu 4FT. Představme si nyní v pseudokódu algoritmus zjednodušené procedury 4FT hledající hypotézové atributy: ĨŽƌĞĂĐŚ;ŝƚ^ƚƌŝŶŐƐƵĐĐĞŶĚĞŶƚŝŶƐƵĐĐĞĚĞŶƚƐͿ
ĨŽƌĞĂĐŚ;ŝƚ^ƚƌŝŶŐĂŶƚĞĐĞĚĞŶƚŝŶĂŶƚĞĐĞĚĞŶƚƐͿ
ŝƚ^ƚƌŝŶŐƌĞƐƵůƚсŶĞǁ&ĂůƐĞŝƚ^ƚƌŝŶŐ;Ϳ͖ͬͬŽďƐĂŚƵũşĐşũĞŶŽŵŶƵůLJ
ĨŽƌĞĂĐŚ;ZĞĐŽƌĚƌŝŶŵĂƐƚĞƌdĂďůĞ͘ZĞĐŽƌĚƐͿ
&ŽƵƌ&ŽůĚŽŶƚŝŶŐĞŶĐLJdĂďůĞƚĂďůĞс
ƌĞĂƚĞ&ŽƵƌ&ŽůĚ&ƌŽŵZĞĐŽƌĚ;ƐƵĐĐĞĚĞŶƚ͕ĂŶƚĞĐĞĚĞŶƚ͕ƌͿ͖
/Ĩ;ůůYƵĂŶƚŝĨŝĞƌƐsĂůŝĚ;ƚĂďůĞͿͿ
ƌĞƚƵƌŶƌĞƐƵůƚ͖
ƌĞƐƵůƚƌ͘/ŶĚĞdžсϭ͖
Tento algoritmus funguje dobře pro hypotézové atributy neobsahující klíč master datové tabulky v antecedentu. Nyní představím novou verzi, která je právě pro tyto atributy vhodná. Z důvodu úspory místa definuji funkci ŝƚ^ƚƌŝŶŐ'ĞƚKŶĞŝƚ^ƚƌŝŶŐ;ŝƚ^ƚƌŝŶŐĂŶƚĞĐĞĚĞŶƚ͕ŝƚ^ƚƌŝŶŐƐƵĐĐĞĚĞŶƚͿ která dělá přesně to, co v původním algoritmu kód v iterátoru přes antecedenty. Nová procedura bude vypadat:
48
Vědecký seminář doktorandů FIS – únor 2008
ĨŽƌĞĂĐŚ;ŝƚ^ƚƌŝŶŐƐƵĐĐĞŶĚĞŶƚŝŶƐƵĐĐĞĚĞŶƚƐͿ
ŝƚ^ƚƌŝŶŐŽǀĞƌĂůůZĞƐƵůƚсŶĞǁ&ĂůƐĞŝƚ^ƚƌŝŶŐ;Ϳ͖
ĨŽƌĞĂĐŚ;ŝƚ^ƚƌŝŶŐĂŶƚĞĐĞĚĞŶƚŝŶĂŶƚĞĐĞĚĞŶƚƐͿ
ŝƚ^ƚƌŝŶŐƚŵƉс'ĞƚKŶĞŝƚ^ƚƌŝŶŐ;ĂŶƚĞĐĞĚĞŶƚ͕ƐƵŬĐĞĚĞŶƚͿ͖
ŽǀĞƌĂůůZĞƐƵůƚсŽǀĞƌĂůůZĞƐƵůƚ͘Kƌ;ƚŵƉͿ͖
ZĞƚƵƌŶŽǀĞƌĂůůZĞƐƵůƚ͖
Z algoritmu vyplývá redukce počtu bitových řetízků hypotézových atributů v master data tabulce. V příkladu ze sekce 4 se čtyři atributy (1≈V, 1≈P, 2≈V, 2≈P) redukují na dva: X≈V a X≈P, kde X značí všechny možné klienty. Z tohoto příkladu je vidět, jak se nový algoritmus nachází požadovaný typ hypotézového atributu. Nový algoritmus neumí konstruovat hypotézové atributy obecně tak, jak algoritmus původní. Umí ale dobře konstruovat jeden typ atributu, který má v antecedentu klíč master tabulky. A právě o tomto typu atributu si myslím, že je smysluplný. 5.2
TRUE atribut
TRUE atribut je atribut, jehož bitový řetízek obsahuje pouze jedničky. Tento atribut se nenalézá v datech (nemělo by to smysl), musí být uměle přidán do množiny atributů ve fázi předzpracování dat. Jestliže přidáme TRUE atribut k vedlejší tabulce a zkonstruujeme úlohy typu TRUE≈ ≈Typ (obdoba úlohy KlientID≈ ≈Typ z části 4), získáme přesně hypotézy které hledáme. Konstrukce TRUE atributu je nápad doc. Raucha, který tento postup používá i v jiných typech úloh. Jestliže srovnáme oba navržené postupy, zjistíme u obou výhody a nevýhody jejich používání. Modifikace algoritmu 4FT dává smysluplnější hypotézy (v antecedentu je místo TRUE opravdu nějaká entita) a osobně se mi zdá teoreticky správnější. Výhodou TRUE atributu je především fakt, že není třeba nic nového implementovat a že oproti modifikaci algoritmu se nezvyšuje výpočetní složitost (vyplývající z třetího zanořeného for cyklu v modifikovaném algoritmu). Nevýhodou je fakt, že se jedná o jakýsi work-around, kde se problém konstrukce úlohy DZD přesouvá do fáze předzpracování dat. Zajímavou možností by byla implementace TRUE atributu, jakožto zvláštního druhu Booleovského atributu v jednom ze systémů podporujících metodu GUHA. Konstrukce Booleovských atributů spadá již do fáze konstrukce úlohy DZD,
Vědecký seminář doktorandů FIS – únor 2008
49
nicméně se domnívám, že jeho implementace v multirelačním případě by byla těžká. Navíc nárůst složitosti by byl přibližně stejný jako v případě modifikace algoritmu navrženém v části 5.1.
6 Závěr Příspěvek popisuje stávající implementaci multirelační 4FT procedury a hypotézy, které procedura generuje. Je vysvětleno, proč stávající hypotézy složené z hypotézových atributů nejsou ve velké většině případů smysluplné. Dále je rozebrána třída smysluplných hypotézových atributů, která má v antecedentu klíč master datové tabulky s vysvětlením, proč tyto atributy neumíme ve stávající podobě procedury vytvářet. Proto je navržena modifikace původního algoritmu pro tvorbu hypotézových atributů, která atributy s klíčem master datové tabulky v antecedentu podporuje a uvedeno alternativní řešení pomocí TRUE atributu. Příspěvek by měl sloužit jako inspirace zejména pro Alexandra Kuzmina, externího doktoranda pod vedením doc. Raucha. Je to tvůrce stávající implementace multirelační 4FT procedury, který se má do budoucna věnovat tomuto tématu i ve své disertační práci.
Literatura [1] Agrawal, R., Imielski, T., Swami, A.: Mining association rules between sets of items in large databases. Proc. of the ACM SIGMOD Conference on Management of Data, 207 – 216. [2] Hájek, P., Havel I., Chytil M.: The GUHA Method of automatic hypotheses determination. Computing I (1966), 293–308. [3] Hájek, P., Havránek, T.: Mechanising Hypothesis Formation: Mathematical Foundations for a General Theory. Springer, Heidelberg 1978. [4] Karban, T.: Data Mining in Relational Databases. Disertační práce na MFF UK, nedokončeno. [5] Kováč, M., Kuchař, T., Kuzmin, A., Ralbovský, M.: Ferda, nové vizuální prostředí pro dobývání znalostí. In: Znalosti (2006) [6] Kuzmin, A.: Relační GUHA procedury. Diplomová práce na MFF UK (2007). [7] Ralbovský, M., Kuchař, T.: Using Disjunctions in Association Mining. In: Perner P.: Advances In Data Mining – Theoretical Aspects and Applications. LNAI 4597, Springer-Verlag 2007.
50
Vědecký seminář doktorandů FIS – únor 2008
[8] Rauch, J.: Interesting Association Rules and Multi-relational Association Rules. Communications of Institute of Information Computing Machinery. Taiwan, Vol 5, No 2 (2002) 77–82. [9] Rauch , J.: Logic of Association Rules. Applied Inteligence 22(1), 9–28 [10] Rauch, J.: Many Sorted Observational Calculi for Multi-Relational Data Mining. In: Data Mining Workshops. Picsataway: IEEE Computer Society 2006. [11] Rauch, J., Šimůnek, M.: An Alternative Approach to Mining Association Rules. In: Lin, T.Y., Ohsuga, S. Liau, C.J., Tsumoto, S. (eds.): Foundations of Data Mining and Knowledge Discovery. Springer, Heidelberg 2005, 219–239.
Summary Meaningful Multirelational 4FT Hypotheses The 4FT procedure is a powerful tool for searching for generalized association rules. Recent implementation of hypotheses attributes enabled to find 4FT rules from numerous tables connected to a star scheme. So, theoretical possibilities of the procedure were augmented. However, practical experiments showed difficulty in finding comprehensible and meaningful hypotheses. In this paper, reasons why it is so difficult to find any meaningful hypotheses are explained and a modification of the 4FT algorithm is outlined. With this modification, one should find one type of meaningful hypotheses.
Vědecký seminář doktorandů FIS – únor 2008
51
Modelování business procesů: regulativní přístup Oleg Svatoš Doktorand oboru Informatika
Abstrakt. V této práci představuji jiný úhel pohledu na procesní modelování, než poskytují současné přístupy. Nastiňuji zde pohled na procesy z pozice nástroje, který lidstvo používá odedávna – normativní pravidla. Tento úhel pohledu dávám do kontrastu se současnými nástroji a ukazuji jeho lepší schopnost modelování vztahů mezi lidmi než současných nástrojů technického původu. Navrhuji novou notaci modelovacího jazyka, která zahrnuje tento pohled a navíc přidává další vlastnosti, které postrádám u současných modelovacích jazyků. Klíčová slova: procesní modelovací jazyk, konceptuální modelování, business process modeling
1 Úvod Procesní modelování a zejména modelování business procesů je velice aktivním oborem. Existují dva základní směry, kterými se procesní modelování ubírá. Jeden je reprezentován reengineeringem business procesů (BPR), který vtahuje metody softwarového inženýrství do řídících pozic, a druhý reprezentovaný návrhem informačních systémů a zejména Service Oriented Architecture (SOA) a integrací webových služeb. Cílem BPR je zachytit business proces, analyzovat ho, optimalizovat ho, měřit ho a udržovat pod kontrolou. Současné metodiky a metody BPR jsou prezentovány v [7] včetně přehledu BPM (Business Process Modeling) technik a jazyků. Přehled zaměřený zejména na jazyky pro modelování business procesů můžeme nalézt v [2]. Dalších zdrojů, zejména pro samotné modelovací jazyky, je mnoho, ale pouze poskrovnu těch, které jednotlivé jazyky srovnávají. Jedno z mála dobrých srovnání je [5]. Cílem SOA [4] je vytáhnou business logiku ze zdrojového kódu a udržovat ji jiné snadněji upravovatelné podobě – v modelech, které slouží jako konfigurační soubory pro nastavení kooperace webových služeb [3].
52
Vědecký seminář doktorandů FIS – únor 2008
Je zajímavé, že oba směry využívají stejné modelovací jazyky. Zůstává otázkou, zda nástroje pro modelování informačních systémů jsou vhodné pro manažerské řízení organizace.
2 Dva úhly pohledu na procesní modelování Existují dva typy uživatelů, kteří vytvářejí procesní modely. V této práci je budu označovat jako analytiky procesů a designéry procesů.
•
Cílem práce analytika procesů je identifikace a rozpoznání procesů, které již v realitě existují, ať už s vědomím nebo bez těch kteří ho provádějí.
•
Cílem práce designéra procesů je formalizace již identifikovaných a poznaných procesů – připravuje je pro optimalizaci a automatizaci. Máme tedy zde dvě skupiny uživatelů s rozdílnými zájmy, způsoby analýzy, způsoby práce s realitou. Nejznatelnější rozdíl mezi těmito pohledy najdeme v tom, jak chápou proces jako takový. Designér procesů vidí proces [9] jako „Souhrn souvisejících strukturovaných aktivit – řetěz událostí – které produkují určitou službu nebo produkt pro daného zákazníka nebo zákazníky.“ Důležité je zde slovo strukturovaný. Designéři pracují již s relativně strukturovaným procesem a tento proces již převádějí do nějakého formálního modelu určeného pro automatizaci a optimalizaci. Takovéto modely vyžadují sémantiku, kterou je možné převést do strojového kódu. Bohužel praxe nás naučila, že v realitě je velmi málo dobře strukturovaných procesů. Rostoucí komplexita businessu nás staví do složitější pozice. Nejprve musíme porozumět té části reality, kterou analyzujeme, identifikovat základní prvky a vytvořit prvotní abstraktní model v relevantní sémantice s vědomím limitů modelu. To je práce analytiků procesů. Oni vytvoří konceptuální model a ten je pak zdrojem pro další strukturování zachyceného procesu. John Mylopoulos [6] definuje konceptuální modelování jako: „aktivita formálního popisu některých aspektů fyzického a společenského světa okolo nás s cílem porozumění a komunikace. Konceptuální modelování podporuje strukturovací a odvozovací prostředky, postavené na psychologických základech. Popisy, které vznikají při konceptuálním modelování aktivit, jsou zamýšleny pro použití lidmi a ne stroji…“ Chápání konceptuálního modelování tímto způsobem přináší některé problémy při použitím současných modelovacích technik/jazyků.
Vědecký seminář doktorandů FIS – únor 2008
53
3 Kritika použitelnosti současných procesních modelovacích jazyků v konceptuálním modelování Tato práce pod pojmem „současné jazyky procesního modelování“ vidí zejména BPMN [8], Aktivity diagramy [10], BPEL[11] a dále XPDL [12], PSL [1]. 3.1
Soustředění se na zachycení reality
První problém, který dnešní modelovací jazyky přinášejí, je jejich převoditelnost na strojový kód. Tato vlastnost není zadarmo. Jejich převoditelnost způsobuje, že modelování v těchto jazycích spíše připomíná programování procesu. To je v pořádku, pokud se snažíme vytvořit model pro spuštění v BPEL, ale svým způsobem je to pohroma, pokud se snažíme skrze něj porozumět realitě. Když se snažíme vytvořit konceptuální model, modelovací jazyk by nám měl umožnit se soustředit na správné porozumění realitě a ne nás nutit přemýšlet nad tím, jak proces správně algoritmicky zapsat. 3.2
Funkce vs. aktivita
Dalším problémem je vidění světa. Svět počítačů vidí každou změnu jako produkt nějaké funkce. Bez ohledu jak jsou tyto změny nazývány (přechody, aktivity, úlohy), stále je na ně nahlíženo jako na funkce. Jediné rozlišení, které zde najdeme, je atomická a komplexní funkce - komplexní funkce se skládá z atomických funkcí nebo dalších komplexních funkcí. Základní myšlenkou je, že existují atomické funkce a cílem procesního modelování je rozložit komplexní funkce na atomické. Opět, toto vyhovuje designu, ale ne analýze. Když analyzujeme realitu, nemá cenu hledat funkce reality. Funkce existují pouze v počítačovém světě – jsou vytvořeny designérem v čase, když už plně rozumí modelovanému systému a dokáže systém rozložit na jednotlivé komplexní a atomické funkce a jejich argumenty. Při konceptuální modelování se snažíme teprve realitu uchopit a porozumět – není možné na základě neúplné znalosti strukturovat a formalizovat realitu do komplexních a atomických funkcí. V konceptuální modelování (analýze) existují pouze (komplexní) aktivity, které mají velmi blízko k „černým skříňkám“. 3.3
Stavy funkcí a aktivit
Z pohledu programátora funkce může být spuštěna, může korektně skončit nebo hodit chybu nebo výjimku. Je to jednoduché, zřejmé, ale tento pohled nalezneme pouze v pár modelovacích jazycích – BPEL a BPMN (BPDM). Funkce mají stavy a tyto stavy nastávají po určitých událostech. V případě funkcí jsou všechny události (s výjimkou té, která funkci spouští) vnitřního původu. Nevíme, co způsobilo
54
Vědecký seminář doktorandů FIS – únor 2008
chybu, výjimku nebo proč funkce skončila korektně – pokud nám to explicitně neoznámí. Z pohledu analytika aktivita může být započata, skončena, pozastavena, pokračována, zrušena nebo neprovedena. Všechny tyto stavy opět nastávají po určitých událostech, tentokrát ale jsou všechny vnějšího charakteru a můžeme je v modelu popsat. 3.4
Plány a povinnosti
Procesní model je ve skutečnosti plán. Plán kdy, co má kdo udělat. Tyto plány také obsahují různé scénáře, které dojdou užití, pokud nastane specifická událost nebo stav světa. Nabízí se otázka, proč mít plán složený pouze z povinností, když ve skutečnosti s každým plánem souvisí i různá práva zúčastněných aktérů.
4 Regulativní přístup ke konceptuálnímu procesnímu modelování V této kapitole představím hrubý návrh konceptuálního modelovacího jazyka, který se snaží řešit problémy naznačené v předchozí kapitole. Tento návrh se zabývá pouze tím základním – tokem událostí a aktivit. Business objekty, vstupy, výstupy, organizační jednotky, atd. nejsou předmětem tohoto návrhu. Model je založen pouze na toku událostí, které je možné seskupovat dle aktivity, ke které se vztahují (obrázek 1). Událost má vztah buďto k povinnosti, právu nebo skutečnosti.
Obrázek 1. Základní koncepty regulativního přístupu
Každá událost představuje změnu stavu určité povinnosti, práva nebo skutečnosti. Všechny tyto události jsou reakcí na vnější událost – v modelu tedy musíme specifikovat, co změnu stavu způsobilo.
Vědecký seminář doktorandů FIS – únor 2008
55
Skutečnost (fakt) má specifický význam v tomto modelu. Model nemůže měnit realitu – v tomto smyslu nemá cenu specifikovat události, které způsobují „skutečné“ události. Stavy v případě událostí „skutečnosti“ znamenají: Události typu start a dokončení umožňují, na rozdíl od současných pojetí, přesnější určení, kdy událost nastává – v čase kdy aktivita započala nebo až když byla dokončena. Událost typu pozastavení určuje, kdy je aktivita pozastavena a událost typu pokračování, kdy je v aktivitě pokračováno. Událost typu zrušení určuje, kdy je provádění aktivity definitivně pozastaveno. Událost typu neprovedení určuje, kdy aktivita nebyla provedena. V případě událostí povinností a práv je význam stavů trochu odlišný. Události typu start a dokončení určují, kdy právo nebo povinnost začíná a končí. Události typu pozastavení a pokračování určují, kdy je právo nebo povinnost dočasně pozastaveno a kdy je zpět v platnosti. Jelikož může existovat více pozastavujících a pokračujících událostí pro tu samou aktivitu, musí být v modelu zachyceno, která pokračující událost navazuje na kterou pozastavující událost (v modelu zachyceno přerušovanou čarou). Událost typu zrušení určuje, kdy je platnost práva nebo povinnosti definitivně zastavena. Událost typu neprovedení určuje, kdy se právo nebo povinnost stávají definitivně nesplněnými/ neprovedenými.
Obrázek 2. Úvodní, mezi, konečná událost
Podobně jako v BPMN model pracuje s třemi druhy událostí: úvodní, meziudálost a konečná událost. Toto rozlišení je nutné proto, aby bylo zřejmé, kde analytik vidí začátek a konce procesu. Obrázek 3 ukazuje model v základní formě. Události, které vyvolávají další události. V případě, že událost je „skutečná“, je typové označení prázdné. Pro analytické použití je tento diagram příliš komplikovaný - je složité porozumět co tyto shluky událostí z globálního pohledu znamenají. Proto seskupíme události podle aktivit a jejich typů. Diagram (obrázek 4) vypadá daleko jasněji než obrázek 3. Svým vzhledem připomíná klasické procesní modely s událostmi a aktivitami, avšak aktivity zde jsou ve formě povinností a práv. Seskupení událostí neztratilo nic z detailu – rozlišení spouštěcích, konečných a mezi-událostí zůstává zachováno.
56
Vědecký seminář doktorandů FIS – únor 2008
Obrázek 3. Základní model
Obrázek 4. Sdružený model
Vědecký seminář doktorandů FIS – únor 2008
57
Ačkoliv se model může zdát velmi podobný současným procesním modelům, je zde mnoho odlišností. Zaprvé nezachycuje pouze povinnosti ale i práva. Zákazníkovo právo na zrušení objednávky je plně zapracováno do procesu. Je zde, v kontextu procesu objednání zboží, specifikováno, kdy toto právo začíná, kdy a proč končí nebo kdy je zrušeno. Povinnost kontroly objednávky je zde jasně specifikována, včetně toho, co se musí stát, aby byla splněna - to vše bez nutnosti modelování aktivity ve větším detailu.
5 Závěr V této práci ukazuji, že současné procesní modelovací jazyky nenabízejí dostatečné prostředky pro konceptuální procesní modelování. Jejich závislost na snadnosti strukturovatelnosti reality je činí těžkopádné při konceptuální analýze. Nutí analytika k přemýšlení o tom, jak bude modelovat, místo toho aby ho nechali přemýšlet nad tím, co modeluje. Z pozice své kritiky navrhuji pro konceptuální procesní modelování jiný přístup – regulativní přístup. Tento přístup vnímá, že jednotlivý aktéři nemají v rámci procesu pouze své povinnosti ale i svá práva. Aktivity zde nejsou vnímány jako funkce, ale jako komplexní černé skříňky, které se nacházejí v určitých stavech. Navrhuji základní šestici stavů, kterých může aktivita nabývat. V duchu šesti stavů je v tomto přístupu výskyt aktivit vyjádřen událostmi, které určují změny stavu aktivity – v jakém stavu se aktivita nachází. Proces je tedy tokem událostí. Tato práce je jen základní charakteristika regulativního přístupu, v dalších pracích je třeba jazyk obohatit o business objekty, vstupy a výstupy, organizační jednotky, atp. tak, aby jazyk plně vyhovoval konceptuálnímu modelování procesů.
Literatura [1] Bock C., Gruninger M., PSL: A semantic domain for flowmodels. SpringerVerlag, 2004. [2] Dumas M., Wil M. van der Aalst, Arthur H. ter Hofstede: Process-Aware Information Systems: Bridging People and Software Through Process Technology. John Wiley & Sons Inc, 2005, ISBN: 978-0-471-66306-5, 432 pp. [3] Havey. M.: Essential Business Process Modeling. O'Reilly Media, 2005, ISBN 978-0-596-00843-7, 350 pp. [4] Krafzig D., Banke K., Slama D., Enterprise SOA: Service-Oriented Architecture Best Practices. Prentice Hall. 2004.
58
Vědecký seminář doktorandů FIS – únor 2008
[5] List B., Korherr B., An Evaluation of Conceptual Business Process Modelling Languages. Proceedings of the 2006 ACM symposium on Applied computing, Dijon, France, 2006. [6] Mylopoulos, J., Conceptual modeling and Telos, In P. Loucopoulos and R. Zicari, editors, Conceptual modeling, databases, and CASE, chapter 2, pages 49--68. Wiley, 1992. [7] Řepa, V.: Podnikové procesy: Procesní řízení a modelování. Praha. Grada, 2006, ISBN 80-247-1281-4, 265 s. [8] Business Process Modeling Notation (BPMN) Specification, Final Specification, OMG 2006. [9] U.S. Government Accountability Office, IT Glossary. 2.9.2006 dostupné na <www.gao.gov/policy/itguide/glossary.htm> [10] Unified Modeling Language: Superstructure, version 2.1.1 formal/2007-0203, OMG 2007. [11] Web Services Business Process Execution Language Version 2.0, OASIS, 2007. [12] Workflow Management Coalition Workflow Standard: Process Definition Interface XML Process Definition Language, Final version 2.0, 2005.
Summary Business Process Modeling: Regulative Approach In this work I have tried to show how contemporary process modeling languages are inappropriate for real conceptual process modeling. Their sensitivity on easiness of structurability of modeled reality makes them hard to use for capturing the reality. They push the analyst into thinking how he is going to model a process instead what he is going to model. Following my critique I suggest a different approach, “Regulative Approach”, to conceptual process modeling. This approach recognizes that actors do not have only duties (activities) but also rights and that at cognition level all activities are complex. Activities are treated as entities that go through different states, which are caused/changed by events originating inside or outside of the modeled process. I suggest six possible activity states: Start, Finish, Stop, Continue, Cancel and Fail. Considering these six states of an activity, occurrence of activities in this approach is expressed by events that signify the change of an activity state. The activity flow itself then consists from chains of events as the states of activities are changed by explicit events over time.
Vědecký seminář doktorandů FIS – únor 2008
59
Zvla´da´nı´ slozˇitosti multiagentnı´ho syste´mu Toma´sˇ Sˇalamon Doktorand oboru Informatika
Abstrakt. Cˇla´nek se zaby´va´ rˇesˇenı´m slozˇitosti a vy´pocˇetnı´ na´rocˇnosti multiagentnı´ch syste´mu˚ pro ekonomicke´ simulace. Nejprve jsou rozebra´ny sta´vajı´cı´ postupy a na´sledneˇ text nabı´zı´ vlastnı´ systematicky´ prˇ´ıstup k rˇesˇenı´. Komplexita je ovlivneˇna cˇtyrˇmi faktory: pocˇtem agentu˚, pocˇtem vazeb agenta na okolı´, algoritmickou slozˇitostı´ agenta a rezˇiı´ prostrˇedı´ a rovneˇzˇ jejich vza´jemny´m pu˚sobenı´m. Cˇla´nek prˇina´sˇ´ı konkre´tnı´ doporucˇenı´ ke zvla´da´nı´ slozˇitosti vsˇech uvedeny´ch faktoru˚. Doporucˇenı´ jsou odvozena z konkre´tnı´ch realizovany´ch projektu˚ agentnı´ch modelu˚. Klı´cˇova´ slova: slozˇitost, multiagentnı´ syste´m, agent, ekonomicke´ simulace
´ vod 1 U Ekonomicke´ simulace v multiagentnı´ch syste´mech a agentnı´ modelova´nı´ (agent based modeling – ABM) jsou modernı´, prudce se rozvı´jejı´cı´ oblastı´ vy´zkumu kognitivnı´ informatiky: oblasti na rozhranı´ informatiky a spolecˇensky´ch veˇd. Multiagentnı´ syste´my jsou podle [10] syste´my slozˇene´ z mnoha vza´jemneˇ pu˚sobı´cı´ch slozˇek zvany´ch agenti, kterˇ´ı se vyznacˇujı´ dveˇma za´kladnı´mi vlastnostmi. Jsou jimi schopnost samostatne´ cˇinnosti, pomocı´ ktere´ se snazˇ´ı dosa´hnout cı´lu˚, pro ktere´ byli navrzˇeni, a schopnost pokrocˇile´ interakce s ostatnı´mi agenty, ktera´ zahrnuje obdobne´ cˇinnosti, jake´ beˇzˇneˇ prova´deˇjı´ jedinci v lidske´ spolecˇnosti, jako je spolupra´ce, koordinace, vyjedna´va´nı´, atd. Tyto vlastnosti umozˇnˇujı´ vyuzˇitı´ multiagentnı´ch syste´mu˚ k simulaci jevu˚ existujı´cı´ch v lidske´ spolecˇnosti, nebot’ mezi chova´nı´m m u l t ia g e n tn ´ıh o syste´mu a rea´lne´ spolecˇnosti existuje azˇ prˇekvapiva´ podobnost. Tı´m se z multiagentnı´ho syste´mu sta´va´ potencia´lnı´ prostrˇedı´ pro prova´deˇnı´ experimentu˚ a oveˇrˇova´nı´ hypote´z ve spolecˇensky´ch veˇda´ch, zejme´na ekonomii. Pomocı´ multiagentnı´ho syste´mu byla v uplynuly´ch letech provedena cela´ rˇada experimentu˚, ktere´ studovaly naprˇ. podstatu vzniku trzˇnı´ch struktur [1], prˇ´ıcˇiny genderove´ho rozvrstvenı´ pracovnı´ku˚ ve firma´ch [7], tzv. proble´m potlesku ve stoje [6], modelovaly fungova´nı´ financˇnı´ch trhu˚ [4] a mnoho dalsˇ´ıho. Tento cˇla´nek vycha´zı´ ze zkusˇenostı´ autora nabyty´ch prˇi realizaci multiagentnı´ho modelu ekonomiky pro zkouma´nı´ dopadu˚ zmeˇn vybrany´ch druhu˚ danı´ [2] (da´le jen
60
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
model danı´) a modelu pu˚sobenı´ investicˇnı´ch pobı´dek na ekonomiku [3] (da´le jen model investicˇnı´ch pobı´dek). Prˇedmeˇtem prvnı´ho modelu byla simulovana´ ekonomika se dveˇma druhy subjektu˚ (agentu˚): zemeˇmi a firmami. Zemeˇ urcˇovaly mı´ru zdaneˇnı´, prˇedstavovaly populaci, tj. „za´sobu“ pracovnı´ sı´ly, atd. Firmy v dane´ zemi podnikaly a byly vı´ce cˇi me´neˇ konkurenceschopne´. Ke sve´ cˇinnosti musely najı´mat pracovnı´ky na trhu pra´ce. V druhe´m prˇ´ıpadeˇ sˇlo o agenty-osoby a agenty-firmy. Osoby disponovaly urcˇitou kvalifikacı´ a pokud byly zameˇstnane´, pobı´raly urcˇitou mzdu. Firmy meˇly jistou vy´robnı´ kapacitu, vyra´beˇly urcˇity´ druh produktu prˇi ru˚zne´m stupni efektivity a ke sve´ produkci potrˇebovaly najı´mat pracovnı´ sı´lu. Strˇetem za´jmu˚ a cˇinnosti ru˚zny´ch druhu˚ agentu˚ v obou simulacı´ch docha´zelo ke vzniku emergentnı´ho chova´nı´ syste´mu odpovı´dajı´cı´ho do jiste´ mı´ry rea´lne´ ekonomice, ktere´ bylo prˇedmeˇtem nasˇeho meˇrˇenı´. Tento cˇla´nek se nezaby´va´ vlastnı´ simulacı´ a jejı´mi vy´sledky z ekonomicke´ho cˇi ekonometricke´ho hlediska, ale zameˇrˇuje se na technicke´ aspekty dany´ch projektu˚, zejme´na proble´m jejich vy´pocˇetnı´ na´rocˇnosti. Simulace byla napsa´na v jazyce Java s tı´m, zˇe pu˚vodneˇ bylo pla´nova´no nad Javou vyuzˇ´ıt na´stroje JADE (http://jade.tilab.com), cozˇ se ale pozdeˇji z du˚vodu˚ uvedeny´ch da´le uka´zalo jako nevyhovujı´cı´. Proto bylo pro u´cˇely te´to simulace vyvinuto vlastnı´ jednoduche´ multiagentnı´ prostrˇedı´ s pracovnı´m na´zvem AgentEnvironment.
2 Proble´m slozˇitosti multiagentnı´ch syste´mu˚ Za´kladnı´m proble´mem zmı´neˇny´ch multiagentnı´ch ekonomicky´ch simulacı´ se uka´zala jejich slozˇitost a z nı´ vycha´zejı´cı´ vy´pocˇetnı´ na´rocˇnost. Syste´my byly na beˇzˇneˇ dostupne´m hardware schopne´ pracovat najednou maxima´lneˇ se zhruba 10000 agenty (prˇestozˇe vsˇichni agenti byli pomeˇrneˇ velmi jednoduchy´mi programy). Takto nı´zky´ pocˇet agentu˚ jizˇ do jiste´ mı´ry limitoval mozˇnosti syste´mu doda´vat veˇrohodne´ vy´sledky, za´rovenˇ ale uzˇ v zˇa´dne´m prˇ´ıpadeˇ nebyl schopen fungovat v rea´lne´m cˇase. V literaturˇe je tento proble´m pomeˇrneˇ ma´lo akcentova´n, nebot’ naprosta´ veˇtsˇina publikovany´ch simulacı´ se zaby´va´ spı´sˇe dı´lcˇ´ımi jevy, ktere´ jsou cˇasto transformovatelne´ do podoby u´loh z oblasti teorie her a dı´ky tomu doka´zˇou pouzˇite´ multiagentnı´ syste´my doda´vat zajı´mave´ vy´sledky i prˇi pouhy´ch desı´tka´ch azˇ stovka´ch agentu˚ v syste´mu. Vy´jimkou z poslednı´ doby je snad jen simulace sˇ´ırˇenı´ pandemie chrˇipky provedena´ v americke´ Na´rodnı´ laboratorˇi v Los Alamos [9], ktera´ pracovala s 18,8 miliony agentu˚ beˇzˇ´ıcı´ch na neˇkolika stovka´ch procesoru˚. Pokud se potrˇebujeme simulacı´ prˇiblı´zˇit chova´nı´ rea´lne´ ekonomiky, je pocˇet agentu˚ vy´znamny´m parametrem. Za´sadnı´m zpu˚sobem totizˇ ovlivnˇuje zejme´na volatilitu vy´sledku˚, ktere´ syste´m doda´va´. Prˇ´ıkladem mu˚zˇe by´t naprˇ. rozvrstvenı´ firem dle velikosti. Podle u´daju˚ ze Statisticke´ rocˇenky 2006 (tab. 12–13) prˇedstavovaly
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
61
v roce 2005 firmy zameˇstna´vajı´cı´ vı´ce nezˇ 250 zameˇstnancu˚ me´neˇ nezˇ 0,09 % vsˇech podniku˚ existujı´cı´ch v CˇR. Pokud budeme chtı´t ekonomiku v tomto parametru simulovat veˇrneˇ a zaokrouhlı´me prˇ´ıslusˇnou hodnotu na 0,1 %, potrˇebujeme minima´lneˇ 1000 agentu˚, aby jeden z nich mohl prˇedstavovat takto velkou firmu. Je navı´c jasne´, zˇe pokud na´m sektor velky´ch firem reprezentuje pouze jeden agent, prˇicˇemzˇ jeho chova´nı´ je prˇinejmensˇ´ım do jiste´ mı´ry ovlivneˇno na´hodou, nelze z toho odvozovat absolutneˇ zˇa´dne´ statisticky vy´znamne´ informace a jaka´koliv nahodilost mu˚zˇe zpu˚sobit obrovske´ rozkolı´sa´nı´ sledovany´ch indika´toru˚. Nı´zky´ pocˇet agentu˚ prˇina´sˇ´ı i rˇadu dalsˇ´ıch nevy´hod, jako je omezenı´ prostoru pro vznik emergentnı´ch vlastnostı´, proble´my s udrzˇenı´m stability modelu a mnoho dalsˇ´ıch. 2.1 Sta´vajı´cı´ mozˇnosti rˇesˇenı´ Uvedeny´ proble´m je v soucˇasnosti prˇedmeˇtem intenzivnı´ho vy´zkumu. Logickou cestou je na´vrh novy´ch sofistikovany´ch architektur pro paralelnı´ distribuovane´ zpracova´nı´ [11]. Ty jsou ovsˇem s rostoucı´ velikostı´ typicky zateˇzˇova´ny zvysˇujı´cı´mi se syste´movy´mi na´klady na koordinaci a synchronizaci na u´kor vlastnı´ho beˇhu agentu˚. Dalsˇ´ımi cestami jsou ru˚zne´ formy sdruzˇova´nı´ agentu˚, omezova´nı´ horizontu interakcı´ mezi agenty [8], apod. Jejich nevy´hodou ovsˇem je, zˇe jednak typicky nerˇesˇ´ı samotny´ proble´m pocˇtu agentu˚, ale spı´sˇe na´rocˇnost jejich interakcı´ (mnohdy za cenu na´kladneˇjsˇ´ı synchronizace jednotlivy´ch cˇa´stı´ syste´mu), jednak mohou v neˇktery´ch typech simulacı´ omezit vznik emergentnı´ch vlastnostı´, dı´ky snı´zˇenı´ entropie syste´mu. Objevujı´ se i alternativnı´ rˇesˇenı´, jaky´mi jsou naprˇ. transformace multiagentnı´ho syste´mu do graficke´ podoby. Agenti jsou v takove´m prˇ´ıpadeˇ reprezentova´ni pixely textury ulozˇene´ v graficke´ pameˇti, jejich parametry pak hodnotami barevny´ch slozˇek a syste´m vyuzˇ´ıva´ vy´pocˇetnı´ho vy´konu a paralelismu procesoru˚ v graficky´ch akcelera´torech [5]. Takove´ rˇesˇenı´ lze povazˇovat za mimorˇa´dneˇ zajı´mave´, ale bohuzˇel vyuzˇitelne´ jen pro neˇktere´ typy u´loh.
3 Faktory ovlivnˇujı´cı´ vy´pocˇetnı´ na´rocˇnost ˇ esˇenı´ pouzˇite´ v prˇ´ıpadeˇ nasˇich modelu˚ [2] a [3] bylo limitova´no vy´pocˇetnı´m vy´koR nem beˇzˇny´ch PC, na ktery´ch byla simulace prova´deˇna. Vy´pocˇetnı´ na´rocˇnost multiagentnı´ho syste´mu je funkcı´ cˇtyrˇ parametru˚: • pocˇtu agentu˚ v syste´mu • pocˇtu vza´jemny´ch vazeb agenta s okolı´m (ostatnı´mi agenty) • vy´pocˇetnı´ na´rocˇnosti ko´du, ktery´ agent obsahuje
62
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
• rezˇiı´ syste´mu 3.1 Pocˇet agentu˚ Pocˇet agentu˚ v syste´mu je da´n charakterem u´lohy a jeho snı´zˇenı´ je z du˚vodu˚, ktere´ jsou uvedeny vy´sˇe, problematicke´. Prˇi na´vrhu modelu je vsˇak nutne´ pecˇliveˇ zvazˇovat, zda ta ktera´ rea´lna´ entita musı´ by´t skutecˇneˇ reprezentova´na agentem nebo zda stacˇ´ı, prˇedstavuje-li ji pouze vlastnost neˇjake´ho agenta. Prˇ´ıkladem mu˚zˇe by´t nasˇe simulace ekonomiky s investicˇnı´mi pobı´dkami, kde byla pu˚vodneˇ pla´nova´na implementace agentu˚-osob a agentu˚-firem (podobneˇ jako ve druhe´ zminˇovane´ simulaci), ale prˇi blizˇsˇ´ım zkouma´nı´ vysˇlo najevo, zˇe osoby jakozˇto pracovnı´ci nemajı´ v dane´m modelu zˇa´dnou aktivnı´ roli a naprosto dostacˇujı´cı´ je pouze evidence pocˇtu zameˇstnancu˚ jednotlivy´ch firem a velikosti cele´ populace. Tı´m bylo neˇkolik desı´tek tisı´c agentu˚osob zredukova´no na jednoho agenta-zemi s vlastnostı´ velikost populace. Vzˇdy je ovsˇem trˇeba postupovat obezrˇetneˇ, aby takove´ zjednodusˇenı´ neovlivnilo vy´sledky modelu. 3.2 Pocˇet vazeb agenta s okolı´m Vazbou agenta s okolı´m se rozumı´ zpra´vy, ktere´ si agenti posı´lajı´ a komunikujı´ tak mezi sebou. Celkovy´ pocˇet zpra´v (vazeb) v syste´mu je ovlivneˇn pocˇtem agentu˚ a pocˇtem vazeb, ktere´ kazˇdy´ z nich navazuje. Teoreticky nic nebra´nı´ tomu, aby kazˇdy´ agent komunikoval s kazˇdy´m (cozˇ znamena´, zˇe v modelu by existoval stav dokonale´ informovanosti). V praxi to ovsˇem nara´zˇ´ı na nerˇesˇitelne´ proble´my. Pocˇet odeslany´ch zpra´v roste v takove´m prˇ´ıpadeˇ geometricky s pocˇtem agentu˚ v syste´mu. Je da´n funkcı´ f (a) = a(a − 1),
(1)
kde a je pocˇet agentu˚. Prˇi pocˇtu 10000 agentu˚ (cozˇ rozhodneˇ nenı´ nikterak velke´ cˇ´ıslo) to prˇedstavuje te´meˇrˇ 108 zpra´v v syste´mu. Nasˇteˇstı´, dokonale´ sˇ´ırˇenı´ informace neodpovı´da´ realiteˇ a vzhledem k tomu, zˇe modelujeme rea´lne´ socia´lnı´ a ekonomicke´ syste´my, mu˚zˇeme vyjı´t z toho, zˇe i v nasˇem modelu mu˚zˇeme veˇtsˇinou dokonalost sˇ´ırˇenı´ informacı´ limitovat (vy´jimkou by mohla by´t naprˇ. snaha simulovat mikroekonomicky´ model dokonale´ konkurence). Jednoduchy´m a rychly´m rˇesˇenı´m je povolit agentovi v kazˇde´m kroku odeslat jen urcˇity´ pocˇet zpra´v na´hodne´mu vy´beˇru z mnozˇiny mozˇny´ch prˇ´ıjemcu˚. Nevy´hodou takove´ho rˇesˇenı´ je mozˇne´ zkreslenı´ reality (lide´ ve skutecˇnosti nevybı´rajı´ na´hodneˇ, s ky´m budou o cˇem komunikovat). Zajı´maveˇjsˇ´ı je ohodnocenı´ kazˇde´ zpra´vy na´klady a uzˇitkovou funkcı´. Uzˇitkova´ funkce mu˚zˇe mı´t naprˇ. na´sledujı´cı´ forma´lnı´ podobu
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
63
u : M × A → R,
(2)
kde M je mnozˇina zpra´v, A je mnozˇina adresa´tu˚ a R je mnozˇina rea´lny´ch cˇ´ısel. Funkce prˇirˇazuje kazˇde´ kombinaci zpra´vy a adresa´ta rea´lne´ cˇ´ıslo vyjadrˇujı´cı´ uzˇitek. Agent rozesı´la´ zpra´vy tak, aby s dany´mi na´klady doka´zal uzˇitek maximalizovat. XX a
(u(m, a) − c(a)) → max,
(3)
m
kde u(m, a) prˇedstavuje uzˇitek z dorucˇenı´ zpra´vy m adresa´tovi a a c(a) prˇedstavuje na´klady (za prˇedpokladu, zˇe na´kladnost dorucˇenı´ zpra´vy neza´visı´ na jejı´m obsahu). Tento prˇ´ıstup je mnohem blizˇsˇ´ı lidske´mu mysˇlenı´ (pokud dejme tomu potrˇebujeme pra´vnı´ radu, jdeme za pra´vnı´kem a neobvola´va´me na´hodneˇ 10 cˇ´ısel z telefonnı´ho seznamu; navı´c vyhleda´me pra´vnı´ka, ktery´ pu˚sobı´ blı´zko a ne na druhe´ straneˇ zemeˇ) a doka´zˇe komunikaci efektivneˇ optimalizovat. Proble´mem je prakticka´ programova´ realizace a vy´pocˇetnı´ na´rocˇnost (mimo jine´ musı´ agent udrzˇovat informace, s nimizˇ bude schopen vyhodnocovat zpra´vy a adresa´ty). Kompromisem je pouzˇitı´ heuristik. V modelu danı´ oslovovali agenti-firmy uchazecˇe o zameˇstna´nı´ tak, zˇe nejprve vybrali jen nezameˇstnane´ a z nich pote´ pouze ty s patrˇicˇnou kvalifikacı´. V ra´mci takto vznikle´ mnozˇiny byl pote´ proveden na´hodny´ vy´beˇr pracovnı´ku˚, ktere´ firma oslovila. 3.3 Vy´pocˇetnı´ na´rocˇnost algoritmu˚ agenta Acˇkoliv velka´ pozornost v oblasti multiagentnı´ch syste´mu˚ je veˇnova´na tzv. inteligentnı´m agentu˚m [10], kterˇ´ı obsahujı´ urcˇite´ prostrˇedky umeˇle´ inteligence pro zajisˇteˇnı´ proaktivnı´ho chova´nı´, v praxi se v agentnı´m modelova´nı´ pouzˇ´ıvajı´ veˇtsˇinou pouze jednodusˇ´ı reaktivnı´ agenti, kterˇ´ı na podneˇty zvencˇ´ı reagujı´ obvykle na za´kladeˇ struktury podmı´nek jestliz ˇe - potom. Prˇi realizaci modelu˚ investicˇnı´ch pobı´dek a danı´ byl v za´jmu snı´zˇenı´ vy´pocˇetnı´ na´rocˇnosti syste´m navrzˇen jako „prostrˇedı´ du˚veˇry“. Znamena´ to, zˇe agenti existujı´ v prostrˇedı´, kde je zarucˇeno, zˇe platı´ vsˇe, co si mezi sebou dohodnou. Kuprˇ´ıkladu soucˇa´stı´ modelu danı´ bylo vyjedna´va´nı´ o mzdeˇ mezi agentem-osobou a agentemfirmou. Ve skutecˇnosti po skoncˇenı´ vyjedna´va´nı´ agent-firma vy´sˇi mzdy konkre´tnı´ho pracovnı´ka „zapomneˇl“. Pokud dosˇlo na vy´platnı´ termı´n, agent-osoba poslal agentufirmeˇ zpra´vu: „Posˇli mi vy´platu ve vy´sˇi 50 jednotek.“, cozˇ agent-firma provedl anizˇ by cokoliv oveˇrˇoval. Tı´mto prˇ´ıstupem se usˇetrˇilo paralelnı´ drzˇenı´ neˇktery´ch dat (mzda, vy´platnı´ termı´n), porovna´va´nı´, zda na´rok odpovı´da´ smlouveˇ, zda vyplacene´ penı´ze odpovı´dajı´ na´roku, zda tam dany´ agent osoba vu˚bec pracuje, zda zˇa´dost neprˇisˇla drˇ´ıve nezˇ byl sjedna´n vy´platnı´ termı´n, atd. Acˇkoliv se tento prˇ´ıstup zda´ paradoxnı´, je trˇeba
64
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
si uveˇdomit, kolik cˇasu a energie v beˇzˇne´m zˇivoteˇ veˇnujeme nejru˚zneˇjsˇ´ım druhu˚m kontroly a proveˇrˇova´nı´, zda vsˇe probı´ha´ dle za´konu˚ a sjednany´ch smluv. Je ovsˇem jasne´, zˇe pokud by se v syste´mu objevil agent, ktery´ by dana´ pravidla porusˇoval (naprˇ. z du˚vodu chyby), stabilita syste´mu bude ohrozˇena. Take´ to odporuje principu agentu˚ jakozˇto autonomnı´ch jednotek. 3.4 Rezˇie syste´mu Rezˇie syste´mu (system overhead) zahrnuje vesˇkery´ vy´pocˇetnı´ vy´kon nutny´ k beˇhu syste´mu jako celku. Prˇedstavuje za´sadnı´ vy´pocˇetnı´ za´teˇzˇ. V nasˇich projektech dokonce rezˇie prostrˇedı´ vysoce prˇevysˇovala rezˇii agentu˚, jak dokla´da´ vy´pis z profileru modelu investicˇnı´ch pobı´dek, kde na rezˇii sˇlo vı´ce nezˇ 60 % vy´konu syste´mu. Tabulka 1. Vy´pis z profileru modelu investicˇnı´ch pobı´dek (polozˇky s >5% podı´lem)
Metoda MessageQueue.receive FirmAgent.action Agent.receive Environment.run Message.getRecipient Environment.receive
Slozˇka syste´mu prostrˇedı´ agent agent prostrˇedı´ prostrˇedı´ prostrˇedı´
Podı´l na vy´pocˇetnı´m cˇase 27,2% 14,4% 13,8% 13,1% 11,9% 8,7%
ˇ esˇenı´ za´visı´ na pouzˇite´ hardwarove´ a sı´t’ove´ architekturˇe syste´mu. Nejjednodusˇsˇ´ı R je pro syste´m beˇzˇ´ıcı´ na jednom pocˇ´ıtacˇi s jednı´m ja´drem CPU. Pro tuto konfiguraci jsme brzy zavrhli pu˚vodneˇ pla´novany´ toolkit JADE, ktery´ kazˇde´mu agentu prˇideˇluje vlastnı´ vla´kno, nebot’syste´mova´ rezˇie samotne´ho prˇepı´na´nı´ vla´ken je obrovska´. Na´sˇ toolkit AgentEnvironment, ktery´ JADE nahradil, provozuje vsˇechny agenty i ko´d prostrˇedı´ na jednom vla´kneˇ s tı´m, zˇe vyuzˇ´ıva´ kooperativnı´ho multitaskingu, kdy je kazˇdy´ agent povinen prove´st v jednom kroku jen jednoduchou operaci a potom prˇedat rˇ´ızenı´. Pokud ma´ vy´vojovy´ ty´m kontrolu nad ko´dem agentu˚ i prostrˇedı´, je kooperativnı´ multitasking kvu˚li u´sporˇe rezˇie vy´hodneˇjsˇ´ı nezˇ preemptivnı´. V prˇ´ıpadeˇ jednoho pocˇ´ıtacˇe s vı´ce ja´dry nebo vı´ce CPU je situace slozˇiteˇjsˇ´ı, protozˇe pro vyuzˇitı´ cele´ vy´pocˇetnı´ kapacity je trˇeba multiagentnı´ syste´m rozdeˇlit do vı´ce vla´ken tak, aby za´teˇzˇ jednotlivy´ch jader CPU byla srovnatelna´. Nelze doporucˇit pouzˇitı´ jednoho vla´kna pro agenty a druhe´ho pro prostrˇedı´, protozˇe tyto dveˇ slozˇky mezi sebou velmi intenzivneˇ komunikujı´ a prˇi takove´m usporˇa´da´nı´ docha´zı´ ke znacˇny´m ztra´ta´m cˇeka´nı´m na druhou cˇa´st. Jako lepsˇ´ı rˇesˇenı´ se uka´zalo provozova´nı´ dvou separa´tnı´ch kopiı´ prostrˇedı´ beˇzˇ´ıcı´ch s urcˇity´m mnozˇstvı´m agentu˚ na kazˇde´m ja´dru.
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
65
Tı´m se le´pe vyuzˇ´ıva´ procesorovy´ cˇas (byt’ za cenu vysˇsˇ´ı pameˇt’ove´ na´rocˇnosti) a takove´ rˇesˇenı´ je sna´ze sˇka´lovatelne´ v prˇ´ıpadeˇ, zˇe se do dane´ho syte´mu prˇidajı´ dalsˇ´ı ja´dra CPU. V ra´mci kazˇde´ho procesoru lze opeˇt spı´sˇe doporucˇit beˇh syste´mu v jednom vla´kneˇ z du˚vodu u´spory cˇasu prˇi prˇepı´na´nı´. Nasta´va´ pochopitelneˇ proble´m se synchronizacı´ zdroju˚, ten se ovsˇem v prˇ´ıpadeˇ te´to architektury da´ omezit na proble´m ´ spora je mozˇna´ naprˇ. formou prˇeda´synchronizace prˇeda´va´nı´ zpra´v mezi vla´kny. U va´nı´ balı´ku˚ zpra´v mezi vla´kny najednou po kazˇde´m cyklu simulace, mı´sto prˇeda´va´nı´ kazˇde´ zpra´vy zvla´sˇt’. Pokud pracujeme s plneˇ distribuovanou architekturou, tedy s vı´ce pocˇ´ıtacˇi v sı´ti, jde o rˇa´doveˇ komplexneˇjsˇ´ı u´lohu, jejı´zˇ rˇesˇenı´ je nad ra´mec tohoto prˇ´ıspeˇvku.
3.5 Spolupu˚sobenı´ jednotlivy´ch faktoru˚ Situaci da´le komplikuje fakt, zˇe pu˚sobenı´ jednotlivy´ch uvedeny´ch faktoru˚ je typicky protichu˚dne´. Snı´zˇenı´ pocˇtu vazeb agenta vede, jak jsme uka´zali, ke zvy´sˇenı´ jeho slozˇitosti, snı´zˇenı´ pocˇtu agentu˚ reformulacı´ u´lohy, jak bylo naznacˇeno v nasˇem prˇ´ıpadeˇ, mu˚zˇe ve´st k ru˚stu pocˇtu vazeb na agenta, apod. Ota´zka optimalizace je ota´zkou komplexnı´ho syste´move´ho prˇ´ıstupu k multiagentnı´mu syste´mu jako celku.
4 Za´veˇr Vysoka´ slozˇitost a vy´pocˇetnı´ na´rocˇnost je inherentnı´ vlastnostı´ multiagentnı´ch syste´mu˚ pouzˇ´ıvany´ch v oblasti ekonomicky´ch simulacı´, nebot’ je v nich z metodolo´ lohy multiagentnı´ch gicky´ch du˚vodu˚ nutna´ prˇ´ıtomnost velke´ho mnozˇstvı´ agentu˚. U syste´mu˚ nelze tak efektivneˇ deˇlit jako u jiny´ch distribuovany´ch syste´mu˚. Za´sadnı´ u´spory vy´konu mu˚zˇe prˇine´st kvalitnı´ na´vrh syste´mu. Slozˇitost zpu˚sobujı´ cˇtyrˇi faktory: pocˇet agentu˚ v syste´mu, pocˇet vazeb agenta s okolı´m, slozˇitost algoritmu˚ agenta a syste´mova´ rezˇie. Pocˇet agentu˚ lze neˇkdy snı´zˇit vhodny´m na´vrhem modelu prˇi zachova´nı´ vsˇech cı´lu˚, ktere´ meˇl model rˇesˇit. Pocˇet vazeb agenta s okolı´m lze snı´zˇit optimalizacı´ pocˇtu zpra´v podle jejich uzˇitku a na´kladu˚. Vy´pocˇetnı´ na´rocˇnost algoritmu˚ agenta lze redukovat na´vrhem syste´mu jako „prostrˇedı´ du˚veˇry“, kdy je u´spora vy´konu zajisˇteˇna omezenı´m kontroly vnitrˇnı´ch ´ spora rezˇie stavu˚. Riziko ovsˇem v takove´m prˇ´ıpadeˇ prˇedstavujı´ chyby v syste´mu. U prostrˇedı´ je mozˇna´ vhodny´m rˇesˇenı´m paralelismu v multiagentnı´m syste´mu. Vsˇechny uvedene´ faktory jsou vza´jemneˇ u´zce prova´za´ny a jejich optimalizace je mozˇna´ pouze syste´movy´m prˇ´ıstupem k multiagentnı´mu syste´mu jako celku.
66
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
Literatura [1] Kirman, A., Vriend, N.: Evolving Market Structure: An ACE Model of Price Dispersion and Loyalty. Journal of Economic Dynamics & Control, Vol. 25 (2001), Nos. 3–4, 459–502. [2] kolektiv autoru˚: Simulace dopadu investicˇnı´ch pobı´dek na ekonomiku a vyhodnocenı´ jejich efektivity. Libera´lnı´ institut, Praha 2007. [3] kolektiv autoru˚: Simulace dopadu zmeˇn vybrany´ch typu˚ danı´ na ekonomiku. Libera´lnı´ institut, Praha 2007. [4] LeBaron, B.: Agent-based Financial Markets: Matching Stylized Facts with Style, In: Colander, D. (ed.): Post Walrasian Macroeconomics: Beyond the DSGE Model. Cambridge University Press, 2006, 221–235. [5] Lysenko, M., D’Souza, R., Rahmani, K.: A Framework for Megascale Agent Based Simulations on the GPU. Cˇla´nek k otisˇteˇnı´ v Journal of Parallel and Distributed Computing, 2007. [6] Miller, J., Page, S.: The Standing Ovation Problem. Complexity, Vol. 9 (2004), No. 5 (May/June), 8–16. [7] Robison-Cox, J., Martell, R., Emrich, C.: Simulating Gender Stratification. Journal of Artificial Societies and Social Simulation, Vol. 10 (2007), No. 3. [8] Scheutz, M., Schermerhorn , P.: Adaptive Algorithms for the Dynamic Distribution and Parallel Execution of Agent-Based Models. Journal of Parallel and Distributed Computing, Vol. 66 (2006), No. 8, 1037–1051. [9] Stroud, P., Del Valle, S., Sydoriak, S., Riese, J., Mniszewski, S.: Spatial Dynamics of Pandemic Influenza in a Massive Artificial Society. Journal of Artificial Societies and Social Simulation, Vol. 10 (2007), No. 4. [10] Woodridge, M.: An introduction to multiagent systems. John Wiley & Sons, Chichester 2002. ISBN: 0-471-49691-X. [11] Yamamoto, G., Tai, H., Mizuta, H.: A platform for massive agent-based simulation and its evaluation. Proceedings of the 6th international joint conference on Autonomous agents and multiagent systems, ACM, New York 2007, 905– 906.
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
67
Summary Dealing with Complexity in a Multiagent System In the field of economic simulation, high complexity and extensive computing power requirements are considered standard characteristics of multiagent systems. For methodological reasons, such models need to be populated by multitudes of individual agents, which creates a complicated mesh of relationships. However, substantial performance savings in multiagent systems could be achieved through improvements to the system design. Four main factors produce complexity in a multiagent system: the number of agents, the number of relationships each agent has, the complexity of the agents’ algorithms, and system overhead. The system can be optimized in a number of ways, always taking care not to compromise the model’s objectives. First, through proper design, it is often possible to reduce the number of agents required by a particular model. The number of relationships can also often be reduced by limiting the messages which are sent among the agents. An ideal, albeit challenging, means of reducing complexity is to rank messages according to the utility and costs of their delivery and send only those with the best outcomes. The complexity of the agents themselves could be decreased if the system is designed as an “environment of trust,” which allows some internal checks to be omitted. Finally, overhead could be reduced by a proper design of the system and its parallelism. All of these factors are closely interconnected and should not be managed separately. A multiagent model should be always treated as a complex consistent system.
68
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
Modelový přístup k politice cílování inflace Ondřej Čížek Doktorand oboru Ekonometrie a operační výzkum
Abstrakt. Za pomoci modelu malé otevřené ekonomiky je analyzován efekt rozličných náhodných šoků a je studována optimální reakce centrální banky na tyto šoky, a to za různých režimů inflačního cílování. Porovnání optimální reakční funkce s Taylorovým pravidlem odkrývá dramatické rozdíly, což potvrzuje všeobecně akceptovaný názor o neadekvátnosti použití Taylorova pravidla v podmínkách malé otevřené ekonomiky. Klíčová slova: cílování inflace, optimální řízení, Taylorovo pravidlo
1 Úvod Režim cílování inflace je charakterizován kvantitativně vyjádřeným cílem pro inflaci a vysokým stupněm transparentnosti. Tato politika se v ČR uplatňuje od roku 1998. Zpočátku se cílovala tzv. čistá inflace, ovšem v roce 2001 se rozhodlo o přechodu k cílování celkové inflace, jež je měřena pomocí indexu spotřebitelských cen (CPI). Hodnocení úspěšnosti této měnové strategie je problematické, neboť ji nelze posuzovat pouze z hlediska toho, zda se centrální bance podařilo, či nepodařilo sladit skutečnou inflaci s cílovými hodnoty. K adekvátnímu posouzení úspěšnosti cílování inflace by bylo zapotřebí vyčíslit za jakou cenu bylo daných cílů dosaženo. Simulační experimenty, které budou provedeny, objasní tento problém detailněji. Podstatným rysem české ekonomiky je otevřenost vůči zahraničí. Měnový kurz hraje proto významnou roli, neboť ovlivňuje ceny dovážených výrobků (vyjádřeno v domácí měně), jež vstupují do CPI indexu. Jeto tedy významný nástroj centrální banky pro ovlivnění inflace. Cílem tohoto příspěvku je ukázat nebezpečí spočívající v přílišném využívání tohoto nástroje, jež ve svých důsledcích může vést k destabilizaci celé ekonomiky. Pozornost bude dále věnována rozdílům mezi tzv. striktním a flexibilním cílování inflace, obzvláště bude analyzován dopad těchto dvou rozličných strategií na vývoj ekonomiky.
Vědecký seminář doktorandů FIS – únor 2008
69
2 Model malé otevřené ekonomiky K matematickému popisu ekonomiky je použit lineární model s kvadratickou ztrátovou funkcí, jež je velice podobný modelům používaným v České národní bance. Určitou komplikací při optimalizaci tohoto modelu je přítomnost tzv. vpřed hledících proměnných (forward-looking variables), pomocí kterých jsou modelována očekávání ekonomických subjektů. Podrobný popis použitého algoritmu je uveden v [1]. Kalibrace parametrů zde použitého modelu byla provedena na základě [2], kde autor provedl kalibraci modelu české ekonomiky, přičemž stejně jako zde, čerpal především z práce [3].1 Proměnné jsou v tomto modelu vyjádřeny v logaritmech, konkrétně jako rozdíl logaritmované proměnné od zlogaritmovaného dlouhodobého trendu dané proměnné. Proměnné modelu tedy přibližně odpovídají relativním odchylkám původních proměnných od jejich dlouhodobých trendů. Model má tři hlavní bloky. Prvním z nich je domácí ekonomika, jež je propojena s ekonomikou zahraniční pomocí měnového kurzu. Druhým blokem je již zmíněná zahraniční ekonomika. Třetím blokem modelu je formulace ztrátové funkce, kterou centrální banka bude minimalizovat. 2.1
Domácí ekonomika
Domácí ekonomika je reprezentována především rovnicí agregátní poptávky a nabídky. Dále je modelován vývoj přirozeného produktu, očekávání úrokových měr, CPI inflace a měnový kurz, což je veličina propojující domácí ekonomiku se zahraničím. Přirozený produkt:
ytn+1 = 0,9 ytn + η tn+1 , kde
(1)
y n je přirozený produkt a η n náhodná složka.
1
Článek [2] je součástí ekonomického výzkumu České národní banky. Rozdíl oproti zde uvedenému modelu spočívá především v podrobnější analýze časové struktury úrokových sazeb. Další odlišností je způsob odvození reakční funkce centrální banky, nicméně struktura modelu je analogická.
70
Vědecký seminář doktorandů FIS – únor 2008
Očekávání budoucích úrokových měr:
ρ t +1|t = ρ t − it + π t +1|t ,
(2)
resp. ∞
ρ t = ∑ ρ t +1|t , rt = it + π t +1|t ,
(3)
τ =0
kde
it je nominální úroková sazba π t +1|t značí očekávání domácí inflace pro ob-
dobí t + 1 v čase t . Agregátní poptávka:
yt +1 = 0,85 yt − 0,1ρ t +1|t + 0,5 yt*+1|t + 0,05qt +1|t − 0,05 ytn + ηtd+1 − ηtn+1 , kde
(4)
y (resp. y * ) značí mezeru produktu v domácí (resp. zahraniční) ekonomice, q je reálný měnový kurz,
ηd , ηn
jsou náhodné šoky. Agregátní nabídka:
π t +2 = 0,7π t +1 + 0,3π t +1|t + 0,1yt +2|t + 0,085(yt +1 − yt +1|t ) + 0,05qt +2|t + ε t +2 , kde
π ε
(5)
značí inflaci výrobků vyrobených v domácí ekonomice, reprezentuje inflační šok. Definice CPI inflace:
π tc = π t + 0,3(qt − qt −1 ), kde
πc
(6)
je inflace měřena pomocí indexu spotřebitelského koše.
Vědecký seminář doktorandů FIS – únor 2008
71
Měnový kurz:
qt +1|t = qt + it − π t +1|t − it* + π t*+1|t − ϕ t ,
(7)
kde ϕ je riziková prémie zahraničních investorů a proměnné s hvězdičkou jsou odpovídající proměnné v zahraniční ekonomice. 2.2
Zahraniční ekonomika
Inflace, mezera produktu a riziková prémie zahraničních investorů jsou modelovány pomocí AR1 procesů. O úrokové míře se předpokládá, že je stanovována dle Taylorova pravidla.2 Riziková prémie měnového kurzu:
ϕ t +1 = 0,8ϕ t + ζ t*+1 ,
(8)
Zahraniční inflace:
π t*+1 = 0,8π t* + ε t*+1 ,
(9)
Zahraniční mezera produktu:
yt*+1 = 0,8 y t* + η t*+1 ,
(10)
Zahraniční úroková míra:
it* = 1,5π t* + 0,5 y t* + ξ i*,t ,
(11)
2
Naproti tomu bude reakční funkce v domácí ekonomice explicitně odvozena pomocí optimalizace ztrátové funkce.
72
Vědecký seminář doktorandů FIS – únor 2008
2.3
Ztrátová funkce centrální banky
T st0 = E ∑ δ t −t0 l t | Ω t0 → MIN t =t0
kde
(12)
lt = µπc (πtc )2 + µπ (πt )2 + λ( yt )2 + µi (it )2 +νi (it −it−1)2 + µq ( qt − qt−1 )
2
.
Rozdílné případy politiky cílování inflace jsou definovány rozličnými váhovými koeficienty ve ztrátové funkci. Simulační experimenty s hodnotami koeficientů ve ztrátové funkci jsou obsahem následující kapitoly.
3 Provedené experimenty Provedené simulační experimenty spočívají ve zkoumání vývoje vybraných proměnných na neočekávané náhodné šoky působící na ekonomiku v určitém časovém okamžiku (tímto časovým okamžikem bude „nula“) a to za různých režimů inflačního cílování. V první části tohoto odstavce budou definovány režimy inflačního cílování, poté bude diskutována podoba reakčních funkcí a ve třetí části bude analyzován vývoj významných ekonomických veličin při různých režimech inflačního cílování. 3.1
Režimy inflačního cílování
Režimy inflačního cílování se od sebe odlišují hodnotami koeficientů ve ztrátové funkci centrální banky. Konkrétní hodnoty těchto koeficientů, jež byly využity při simulaci, jsou shrnuty v tabulce 1: Tabulka 1. Režimy inflačního cílování
Vědecký seminář doktorandů FIS – únor 2008
73
V případě striktního cílování CPI inflace bylo třeba z důvodu konvergence algoritmu (pro nalezení optimální reakční funkce) přidat určitou váhu také na vyhlazení úrokové míry. Pro srovnatelnost je tento váhový koeficient stanoven na stejnou hodnotu ve všech zbývajících měnových strategií. 3.2
Reakční funkce centrální banky
Koeficienty optimálních reakčních funkcí jsou shrnuty v tabulce 2. Pro srovnání je v pátém řádku uvedeno Taylorovo pravidlo.
Tabulka 2. Porovnání reakčních funkcí
Reakční funkce pro cílování domácí inflace mají hodnoty koeficientů, jež se daly intuitivně očekávat – při striktním cílování je oproti flexibilnímu nižší koeficient u mezery produktu a vyšší u očekávané inflace. Tedy při flexibilním cílování nebude centrální banka na růst (pokles) inflace reagovat tak dramatickým růstem (poklesem) úrokové sazby jako při striktním cílování a to proto, aby nebyla rozkolísána mezera produktu. Z této intuitivní představy vychází také tzv. Taylorovo pravidlo, které považuje nominální úrokovou sazku za funkci mezery produktu a inflace. Optimální reakční funkce pro domácí inflaci jsou Taylorovu pravidlu velice podobné až na skutečnost, že místo aktuální inflace je brána v úvahu inflace očekávaná. Reakční funkce pro cílování CPI inflace vypadají naprosto odlišně. Podstatnou skutečností při cílování CPI inflace jsou však negativní hodnoty koeficientů u mezery produktu a očekávané domácí inflace, což je kontrast oproti pravidlům Taylorova typu.
74
Vědecký seminář doktorandů FIS – únor 2008
3.3
Vývoj ekonomiky
Protože Česká národní banka cíluje nikoli domácí, ale CPI-inflaci, bude v tomto odstavci zkoumán již pouze vývoj ekonomiky při cílování CPI-inflace. Simulace vývoje ekonomiky jsou provedeny na základě inflačního náhodného šoku ( ε 0 = 1 ), přičemž v obou případech (striktní a flexibilní cílování) bude zkoumán vývoj CPI inflace, mezery produktu, nominální úrokové míry a reálného měnového kurzu. Striktní cílování CPI-inflace CPI inflace je centrální bankou téměř dokonale stabilizována. Důvodem je skutečnost, že centrální banka při stabilizaci CPI inflace používá přímého transmisního kanálu přes reálný měnový kurz, který působí s velice krátkým časovým zpožděním. Ovšem na druhé straně, tato měnová strategie způsobuje značnou volatilitu jiných ekonomických veličin jako např. mezery produktu, což je názorně vidět na obrázcích 1 a 2. 1
1
0,5
0,5
0 -0,5 0
4
8
12
16
0 -0,5 0
4
8
12
16
-1
-1
Obrázek 1. CPI inflace
Obrázek 2. Mezera produktu
Flexibilní cílování CPI-inflace Při flexibilním cílování CPI inflace je zřejmé, že volatilita mezery produktu musí být oproti striktnímu cílování CPI inflace redukována. Naopak odchylky CPI inflace od dlouhodobého trendu nebudou v tomto případě tak dokonale vyhlazeny. Výsledky simulačních experimentů tuto skutečnost potvrzují a jsou zachyceny na následujících obrázcích 3 a 4. 1
1
0,5
0,5
0 -0,5 0
4
8
12
16
0 -0,5 0
4
8
12
16
-1
-1
Obrázek 3. CPI inflace
Vědecký seminář doktorandů FIS – únor 2008
Obrázek 4. Mezera produktu
75
4 Závěr Politiku cílování inflace lze označit za strategii se střednědobým až dlouhodobým horizontem, přičemž jejím hlavním cílem je přispívat ke stabilitě ekonomického vývoje prostřednictvím stabilního vývoje cenové hladiny. Tuto politiku lze ovšem v realitě uskutečňovat mnoha různými způsoby. V rámci modelu byly zkoumány vlastnosti striktního a flexibilního cílování CPI inflace, přičemž se ukázalo, že striktní cílování CPI inflace vede k destabilizaci ekonomiky, neboť nutí centrální banku k častému ovlivňování měnového kurzu prostřednictvím úrokových měr, které následně způsobí značnou volatilitu fundamentálních ekonomických veličin.
Literatura [1] Backus, D., Driffill, L.: The Concistency of Optimal Policy in Stochastic Rational Expectations Models. CEPR Discussion Paper, No. 124, 1986. [2] Kotlán, V.: Časová struktura úrokových sazeb a měnová politika v malém makroekonomickém modelu. Finance a úvěr, č. 4 (2002) 232-254. [3] Svensson, L.: Open-Economy Inflation Targeting. Journal of International Economics, vol. 50 (2000) 155-183.
Summary Modelling Inflation Targeting With the help of the small open economy model, the effect of diverse random shocks is analyzed. The optimal response of the Central bank upon this shock is also studied, namely behind different inflation targeting regimes. The comparison of the optimal reaction function with the Taylor rule reveals dramatic differences, which is in line with the generally accepted opinion about inadequacy of the Taylor rule in small open economies.
76
Vědecký seminář doktorandů FIS – únor 2008
Reálná konvergence a Balassův – Samuelsonův efekt David Havrlant Doktorand oboru Ekonometrie a operační výzkum
Abstrakt. Konvergence cenové hladiny České republiky ke státům Evropské unie je posuzována prostřednictvím relativní ceny neobchodovatelných statků. Dynamika relativní ceny neobchodovatelných statků je vysvětlena vývojem celkové produktivity faktorů v obchodovatelném a neobchodovatelném sektoru. Výchozí koncepci poskytuje Balassův-Samuelsonův model a jeho modifikace, z nichž jsou odvozeny experimentálně ověřované regresní rovnice. Z výsledků je patrné, že relativní cena neobchodovatelných statků roste v České republice v závislosti na růstu kapitálové zásoby prokazatelně vyšším tempem než v Německu a EU15, a to zejména v důsledku relativně vyšší citlivosti celkové produktivity faktorů v obchodovatelném sektoru. Klíčová slova: cenová konvergence, obchodovatelné statky, neobchodovatelné statky, Balassův-Samuelsonův model, diference produktivity
1 Úvod Cílem této práce je odhadnout a porovnat vývoj relativní ceny neobchodovatelných statků na základě modifikací Balassova-Samuelsonova modelu (BSM) pro Českou republiku, Německo a patnáct států Evropské unie (EU15) a na základě těchto odhadů posoudit konvergenci agregované cenové hladiny České republiky ke státům Evropské unie. Relativní cenu statků je třeba pojímat jako reálnou veličinu, která se vlivem reálných veličin také mění. Tento poznatek využili Balassa a Samuelson (1964), když rozdělili produkci a odvětví v ekonomice podle míry prosazování zákona jediné ceny na sféru obchodovatelnou a neobchodovatelnou, aby vyjádřili relativní cenu neobchodovatelných statků a propojili její dynamiku s vývojem agregované cenové hladiny, respektive s odchylkami měnového kurzu od parity kupní síly.
2 Dynamický model všeobecné rovnováhy V tomto neoklasickém modelu, jehož autory jsou Patrick K. Asea a Enrique G. Mendoza (1994), je rovnovážná relativní cena neobchodovatelných statků, za předpokladu dlouhodobě vyrovnaného růstu, určena poměrem mezních produktů
Vědecký seminář doktorandů FIS – únor 2008
77
práce obchodovatelného a neobchodovatelného sektoru. Model ukazuje, že tento poměr je možné vyjádřit jako log-lineární funkci poměru kapitál-produkce nebo poměru investice-produkce obchodovatelného sektoru a dovozuje z ní relativní cenu neobchodovatelných statků. Jde o funkci s exogenními parametry, zahrnující preference a stupeň technologického vývoje. Dynamický model všeobecné rovnováhy zahrnuje zejména vliv dlouhodobých faktorů a ve výsledku slouží k určení vztahu mezi produktivitou jednotlivých sektorů, relativní cenou neobchodovatelných statků a reálným měnovým kurzem. Vychází z podmínky vyváženého dlouhodobého růstu a podmínky Harrodova (práci zefektivňujícího) technologického pokroku. V následujícím oddílu bude stručně specifikována struktura modelu dynamické všeobecné rovnováhy (více viz [1] a [2]). Model uvažuje svět sestávající ze dvou zemí, kde domácnosti obou zemí spotřebovávají obchodovatelné i neobchodovatelné statky a poskytují práci firmám, které tyto statky produkují. Domácnosti utvářejí optimální mezičasové plány, aby maximalizovali očekávaný celoživotní užitek. Aby mohly firmy produkovat obchodovatelné a neobchodovatelné statky, najímají si práci (L) a kapitál (K), které kombinují v souladu s Cobbovou-Douglasovou produkční funkcí za předpokladu pouze stacionárních poruch produktivity. Jak domácnosti, tak firmy mohou volně obchodovat se zbožím, kapitálem a finančními aktivy na mezinárodní úrovni. Pro jednoduchost budou uvedeny charakteristiky preferencí a produkce pouze pro domácí ekonomiku, neboť charakteristiky zahraniční země jsou symetrické. Kde je třeba, jsou zahraniční veličiny označeny hvězdičkou. 2.1
Hlavní části modelu
Firmy v domácí ekonomice vyrábí dva druhy produktů, tj. obchodovatelné (T) a neobchodovatelné (N), v souladu s produkční funkcí Cobba-Douglase s konstantními výnosy z rozsahu
T T T T T T αT T 1 − α T Y = F (K , L ) = A ( X L ) (K ) , t t t t t t t Yt
N
N N N N N αN N 1−αN = F ( K t , Lt ) = At ( X t Lt ) ( Kt ) ,
0≤α
T
0≤α
≤ 1,
(2.1)
N
(2.2)
1,
kde produkční funkce F(·) je v obou sektorech konkávní, rostoucí a dvakrát difei rencovatelná. Yt , i = T , N je objem produkce obchodovatelných a neobchodovai telných statků v čase t, K t , i = T , N představuje zásobu kapitálu alokovanou v obchodovatelném a neobchodovatelném sektoru v čase t. Výrobní faktory jsou
78
Vědecký seminář doktorandů FIS – únor 2008
dokonale mobilní mezi sektory a mohou být ve vlastnictví domácností libovolné i země. Lt , i = T , N reprezentuje objem práce, potřebný pro produkci jednotlivých i druhů statků v čase t, X t , i = T , N je index Harrodova práci zesilujícího (produki tivitu práce zvyšujícího) technologického pokroku v čase t a At , i = T , N představuje poruchy produktivity stochastického charakteru v jednotlivých sektorech v čase t, tedy krátkodobé odchylky od trendu. Stacionární poruchy produktivity způsobují fluktuace makroekonomických veličin podél dlouhodobých deterministických trendů, které je možné identifikovat na základě podmínek vyrovnaného růstu a exogenního, práci zesilujícího, technologického pokroku. Parciální elasticita produkce vzhledem k práci αT, αN vyjadřuje standardně procentní reakci výstupu (důchodu) na jednoprocentní změnu objemu práce při konstantním objemu ostatních výrobních faktorů (zde kapitálu) a je ji v podmínkách rovnováhy možné interpretovat jako podíl daného faktoru na celkovém důchodu. Celkovou produktivitu faktorů v jednotlivých sektorech v období t (sektorovou TFP) je možné vyjádřit jako:
αT T T θt = At ( X t ) ,
(2.3)
N αN = At ( X t ) .
(2.4)
N
θt
Celková technologická změna v čase (míra růstu celkové produktivity faktorů) se vyvíjí tempem γ, a představuje souhrnné působení exogenního, práci zesilujícího pokroku, tj. agregovanou míru růstu produktivity. Pro běžné preference a výrobní technologii směřuje systém k vyrovnanému růstu všech složek agregátní poptávky. Z rovnic (2.3) a (2.4) lze dovodit totální diferenciál celkové produktivity faktorů, který má klíčovou pozici v BSM a vyjadřuje souvislost mezi vývojem sektorových produktivit a relativní elasticitou produkce vzhledem k práci:
θT θ N ln t +1 − ln t +1 = (αT − αN ) ⋅ ln γ + ε t +1 , θT θ N t t
(2.5)
kde agregovaná míra růstu produktivity je
γ =
T N X t +1 X t +1 , = T T Xt Xt
Vědecký seminář doktorandů FIS – únor 2008
79
a stacionární náhodný proces ε je dán vztahem
A A +1 . ε t +1 = ln t T+1 − ln t N A A T
N
t
t
Pro danou míru vyrovnaného růstu (γ) je tím pádem totální diferenciál celkové produktivity faktorů určen zejména diferencí podílu práce na důchodu v jednotlivých sektorech. Exogenní technologický pokrok uvádí model do stálého stavu. Potom je možné provést transformaci, pomocí které bude původně dynamický problém maximalizace zisku firem převeden na problém statický, a to deflováním všech proměnných (s výjimkou práce a volného času) indexem technologického pokroku Xt. Podmínky určující optimální pozici firem v rovnovážném stavu, tj. pozici, ve které firmy dosahují nulového zisku, vyjadřují následující vztahy:
T T T T T T f ( K t , Lt ) = rt K t + wt Lt ,
(2.6)
N N N N N N f ( K t , Lt ) = rt K t + wt Lt ,
(2.7)
kde f(·) reprezentuje již transformované produkční funkce, K zásobu kapitálu, L objem práce, r je úroková míra kapitálu a w reálné mzdy v jednotlivých sektorech v období t. Další složkou ekonomiky jsou domácnosti maximalizující svůj užitek, který závisí na spotřebě obchodovatelných a neobchodovatelných statků a množství volného času. Domácnosti maximalizují sumu diskontovaných celoživotních užitků
E
t T NT ∞ ∑ β U (ct , ct , Vt ) , 0 < β < 1 , t =0
(2.8)
kde E symbolizuje operátor očekávání, vztažený k souboru informací času t, β je T N subjektivní diskontní činitel, ct , ct představují spotřebu obchodovatelných a neobchodovatelných statků v čase t a Vt představuje množství volného času. Při konkurenční rovnováze v ekonomice domácí i zahraniční domácnosti maximalizují užitek, domácí i zahraniční firmy maximalizují zisky, trhy zboží a služeb a finančních aktiv jsou vyčištěné ( více viz [2]). Rovnovážnou podmínku strany nabídky, která klade rovnítko mezi relativní cenu neobchodovatelných statků
80
Vědecký seminář doktorandů FIS – únor 2008
a mezní produkty práce obchodovatelného a neobchodovatelného sektoru v rámci jedné země je možné popsat jako
p
N
T T f (k , L ) . = N N f (k , L )
(2.9)
Vlastnost Cobbovy-Douglasovy produkční funkce, že výstup na člověko-hodinu je (1−α ) /α monotónní transformací poměru kapitál-výstup ( y / L ) = ( k / y ) umožní vyjádřit relativní cenu neobchodovatelných statků jako
T k T N αT y p = ⋅ αN N k y N
1−αT αT . 1−αN αN
(2.10)
Tak představuje rovnice (2.10) podmínku strany nabídky, která říká, že relativní cena neobchodovatelných statků je funkcí podílů práce a poměrů kapitálvýstup jednotlivých sektorů. Je zřejmé, že relativní cena neobchodovatelných statků je tím vyšší, čím vyšší je výstup na člověko-hodinu v obchodovatelném sektoru v poměru k neobchodovatelnému sektoru. V případě deterministické stacionární rovnováhy a za předpokladu perfektní kapitálové mobility napříč sektory se mezní produkty kapitálu v obchodovatelném T T N N a neobchodovatelném sektoru rovnají f1 ( kt , Lt ) = f1 ( kt , Lt ) a rovnici (2.10) lze pak převést tak, aby vyjadřovala relativní cenu neobchodovatelných statků jako funkci podílů práce na důchodu v jednotlivých sektorech a poměru kapitál-výstup obchodovatelného sektoru
p
N
1−αT 1−αN αN −1 T αT − α N α N kt αT 1 − αN
=
αN 1 − αT
Vědecký seminář doktorandů FIS – únor 2008
yT t
.
(2.11)
81
3 Regresní model a odhady jeho parametrů Pro potřebu empirických výpočtů lze transformovat rovnice relativní ceny neobchodovatelných statků (2.10) a (2.11) do log-lineární formy
N T N p jt = α 0 j + α1 j ky jt + α 2 j ky jt + e jt ,
(2.12)
N T p jt = γ 0 j + γ 1 j ky jt + e jt ,
(2.13)
na jejímž základě je možné provést empirické ověření pro i = 1,2,…,M zemí a t = 1,2,…,T období. Kde pN je logaritmus relativní ceny neobchodovatelných statků, kyT je logaritmus poměru kapitál-produkt v obchodovatelném sektoru, kyN je logaritmus poměru kapitál-produkt v neobchodovatelném sektoru, iyT je logaritmus poměru investice-produkt v obchodovatelném sektoru a ejt reprezentuje náhodnou složku. Podle teoretických předpokladů má být v rovnici (2.12) koeficient poměru kapitál-produkt pro obchodovatelný sektor (α1) kladný a pro neobchodovatelný sektor (α2) záporný. Pro koeficienty rovnice (2.13) nedává teorie žádná upřesňující omezení. Jelikož nejsou údaje o uvedených veličinách běžně k dispozici, je nutné pro empirické ověření vztahů (2.12) a (2.13) užít některých náhradních proměnných. Pokud se v obchodovatelném sektoru prosazuje zákon jediné ceny a PT = 1, lze vývoj relativní ceny neobchodovatelných statků ztotožnit s vývojem cenové hladiny vůbec, a tak může inflace poměrně dobře zastoupit relativní cenu neobchodovatelných statků. Informaci o vývoji kapitálové zásoby pak bude vhodné nahradit informací o vývoji hrubé tvorby fixního kapitálu v daném odvětví, což zásadně neovlivní dynamiku zkoumaného procesu, tedy ani vypovídací schopnost modelu. Údaje o produktu v obchodovatelném a neobchodovatelném sektoru pak bude suplovat hrubá přidaná hodnota vhodně zvolených odvětví. Do obchodovatelného sektoru je zahrnut ocelářský průmysl a strojírenství, automobilový průmysl a ostatní produkce. Neobchodovatelný sektor obsahuje údaje z odvětví zemědělství, lesnictví a rybolovu, stavby obytných domů a ostatního stavebnictví. Rovnice (2.12) a (2.13) byly aplikovány na data za období 1995-2004 pro Českou republiku (CR), za období 1995-2005 pro Německo (DE) a patnáct států Evropské unie (EU15). Veškerá data pro výpočty byla získána z instituce Eurostat. Odhady byly provedeny pomocí softwaru EViews metodou nejmenších čtverců. Tabulka 1 shrnuje odhady koeficientů rovnice (2.12) pro jednotlivé územní celky spolu se standardní chybou, která je uvedena v závorce.
82
Vědecký seminář doktorandů FIS – únor 2008
Tabulka 1 Odhady parametrů rovnice (2.12)
CR DE EU15
α1 0,7556 * ( 0,3549 ) 0,0045 ( 0,0239 ) 0,0872 ( 0,0985 )
α2 -0,2272 ( 0,3201 ) -0,3079 * ( 0,0177 ) -1,9463 * ( 0,3022 )
Výsledky regresí (2.12) jsou v souladu s teoretickými předpoklady, tj. α1 je kladné a α2 záporné. Nejsou však vždy statisticky významné, což je možné vyložit zejména nedostačujícím počtem pozorování. Přesto je z výsledků patrné, že se relativní cena neobchodovatelných statků v České republice vyvíjí odlišně od Německa a EU15. Její dynamiku určují rozhodujícím způsobem jiné faktory než ty, které jsou směrodatné pro vývoj relativní ceny neobchodovatelných statků v Německu a EU15. Vysoká hodnota koeficientu α1 (0,7556) pro Českou republiku vypovídá o podstatně vyšší citlivosti míry růstu relativní ceny neobchodovatelných statků na zvyšování poměru kapitál-produkt v obchodovatelném sektoru. Růst kapitálové zásoby v obchodovatelném sektoru za zkoumané období tedy implikuje pro ČR relativně významnější zvýšení produktivity v obchodovatelném sektoru a následně rovněž výraznější zvýšení relativní ceny neobchodovatelných statků, jak bylo vysvětleno výše. Koeficient α1 tedy vystihuje poznatek, že relativní cena neobchodovatelných statků v České republice má tendenci růst podstatně rychlejším tempem než v Německu a EU15. Nízká hodnota koeficientu α2 (-1,9463) pro EU15 vypovídá o silné citlivosti relativní ceny neobchodovatelných statků ke změnám poměru kapitál-produkt tentokrát v neobchodovatelném sektoru. V EU15 stejně jako v Německu je tedy dynamika relativní ceny neobchodovatelných statků zřejmě mnohem výrazněji determinována vývojem produktivity v neobchodovatelném sektoru, jejíž růst však způsobuje pokles relativní ceny neobchodovatelných statků. Hodnoty koeficientů α2 tedy rovněž poukazují na podstatně vyšší míru růstu relativní ceny neobchodovatelných statků v České republice ve srovnání s Německem a EU15.
Vědecký seminář doktorandů FIS – únor 2008
83
4 Závěr Na základě dynamického modelu všeobecné rovnováhy bylo zjištěno, že zejména v důsledku růstu kapitálové zásoby v obchodovatelném sektoru docházelo ve zkoumaném období v České republice k výraznějšímu zvýšení celkové produktivity faktorů v obchodovatelném sektoru a následně k vyššímu růstu relativní ceny neobchodovatelných statků ve srovnání s Německem a patnácti státy Evropské unie. Za předpokladu prosazování zákona jediné ceny u obchodovatelné produkce je možné ztotožnit vývoj relativní ceny neobchodovatelných statků s vývojem agregované cenové hladiny, a usuzovat tak na konvergenci cenové hladiny České republiky k cenové hladině zemí Evropské unie. V České republice se tedy prosazuje Balassův-Samuelsonův efekt a v důsledku výrazného zvyšování relativní ceny neobchodovatelných statků roste agregátní cenová hladina vyšším tempem než v Německu a EU15.
Literatura [1] Assea, P. K., Corden, W. M.: The Balassa-Samuelson Model: An Overview. University of California, Working Paper No. 710, 1994. [2] Assea, P. K., Mendoza, E. G.: The balassa-Samuelson Model: A General Equilibrium Appraisal. University of California, Working Paper No. 709, 1994. [3] Motonishi, T.: Modifications of the Balassa-Samuelson Model: The Effects of Balanced Growth and Capital Accumulation. Journal of the Japanese and International Economies, 2002.
Summary Real convergence and the Balassa - Samuelson effect The price level convergence of the Czech Republic towards the European Union is considered to be linked with the relative price of nontradables. Its dynamics is finally explained by the total factor productivity differentials in tradable and nontradable sector. Basic conception offers the Balassa-Samuelson model and its modifications. Testable equations are derived from these models and estimation of their coefficients follows. Results indicate higher growth rate of the relative price of nontradables in the Czech Republic in comparison to Germany and EU15 as a consequence of its higher sensitivity to the total factor productivity in tradable sector. Hence estimations confirm the price level convergence based on the Balassa-Samuelson effect of the Czech Republic towards the European Union.
84
Vědecký seminář doktorandů FIS – únor 2008
Aplikácia vybraných heuristických metód na rozvozný problém s delenou dodávkou Lucia Horáčková, Andrej Chu Doktorandi oboru Ekonometrie a operační výzkum
Abstrakt. Rozvozný problém s delenou dodávkou je modifikáciou rozvozného problému, ktorý je klasickou úlohou operačného výskumu. Spočíva v optimalizácii rozvozných trás v komunikačnej sieti obsahujúcej miesto počiatku všetkých trás a daný počet miest, ktorý je nutné zahrnúť do rozvozných trás, pričom každý zákazník môže byť obslúžený viacerými vozidlami. Úlohou je minimalizovať prejazdenú vzdialenosť a obslúžiť všetkých zákazníkov. Rozvozný problém s delenou dodávkou patrí medzi NP obtiažne úlohy, preto boli pre úlohy väčšieho rozsahu navrhnuté tri heuristiky. Klíčová slova: rozvozná úloha s delenou dodávkou, heuristické metódy, celočíselné programovanie
1 Úvod Okružné úlohy sú štandardným problémom operačného výskumu, ktoré majú v dnešnej dobe veľké využitie. Matematický model týchto úloh je hranovo ohodnotený graf G = {V, E}, v ktorom uzly predstavujú miesta a hrany komunikačnú sieť, pričom hrana (i, j) je ohodnotená číslom cij. Cieľom rozvozného problému s delenou dodávkou (angl. Split delivery vehicle routing problem − SDVRP) je nájsť uzavreté cykly, ktoré obsahujú všetky uzly grafu aspoň raz a celkové ohodnotenie je najnižšie. Každý cyklus musí však obsahovať uzol, ktorý predstavuje východiskové miesto rozvozu. Okrem podmienky, že cykly musia obsahovať všetky uzly, je tu aj kapacitné obmedzenie na každý cyklus, ktoré je zadané kapacitou vozidla V, V > 0. Označme qi ako požiadavok i-tého uzlu (i ≠ 1). Vzhľadom k obmedzenej kapacite vozidla V môže nastať situácia, keď požiadavok uzla qi > V, t.j. nemôže byť obslúžený žiadnym z vozidiel na trase, pretože by došlo k prekročeniu kapacity V. Za predpokladu, že tento požiadavok by mohol byť rozložený do niekoľkých častí, je nutné niektorých zo zákazníkov obslúžiť prostredníctvom niekoľkých trás. Každý cyklus musí spĺňať podmienku, že súčet požiadavkov uzlov ležiacich na cykle neprekročí kapacitu vozidla V.
Vědecký seminář doktorandů FIS – únor 2008
85
2 Matematický model Konštrukciu modelu budeme formulovať ako úlohu zvozu, ktorý sa realizuje vozidlom s kapacitou V a v každom uzle je treba naložiť qik jednotiek produktu, pričom premenná qik v modeli predstavuje časť požiadavku na i-tého zákazníka qi, ktorá je odvezená vozidlom na trase k. Označme binárnu premennú xijk, ktorá je rovná 1, ak hrana (i, j) je obsiahnutá v riešení, čiže vozidlo pôjde z uzlu i do uzlu j na k - tej trase, v opačnom prípade je táto premenná rovná 0 a premenná xiik = 0. Matica C udáva vzdialenosti a platí, že C = {cij}. Účelová funkcia (1) predstavuje súčet ohodnotení všetkých hrán riešenia. Rovnica (3) zabezbečuje, že z uzlu i vychádza práve toľko hrán koľko do uzlu j vstupuje, pričom podmienka neplatí pre uzol 1. Nerovnosť (4) definuje premennú uik, ktorá udáva veľkosť nákladu vozidla po návšteve uzlu i na trase k. Táto podmienka je použitá namiesto anticyklických podmienok. Podmienka (6) zabezpečuje, aby itý požiadavok nepresahoval kapacitu vozidla V na trase k. Podmienka (7) zaisťuje, aby vozidlá odviezli od každého zákazníka požadované množstvo. V prípade, že k - ta trasa nevedie cez i - ty uzol, potom sa na tejto trase z i - tého uzla nič neodváža, ale ak sa na k - tej trase z i - tého uzla odváža časť požiadavku qi > 0, potom musí existovať aspoň jeden uzol, do ktorého vozidlo pôjde v rámci tejto trasy priamo z itého uzla, t.j. xijk = 1 pre niektorý index j, čo vyjadruje nerovnosť (8). Matematický model SDVRP (1)-(10): K
min
n
n
∑∑∑
cijxijk,
(1)
k =1 i =1 j =1
k
∑
x1jk ≤ 1, k = 1, 2, ..., K
(2)
xjik, j = 2, 3, ..., n; k = 1, 2, ..., K,
(3)
j=2
n
∑
n
xijk =
i =1
∑ i =1
uik + qjk – V(1-xijk)
≤ ujk, i = 1,2,..,n; j = 2,3,..,n; i ≠ j, k = 1,2,..,K, u1k = 0, k = 1, 2, ..., K,
qik
86
≤ uik ≤ V, i = 2, 3, ..., n; k = 1, 2, ..., K,
(4) (5) (6)
Vědecký seminář doktorandů FIS – únor 2008
K
∑
qik = qi, i = 2, 3, ..., n
(7)
xijk, i = 2, 3, ..., n; k = 1, 2, ..., K,
(8)
k =1
0
≤ qik ≤ qi
n
∑ j =1
xiik = 0, i = 1, 2, ..., n; k = 1, 2, ..., K,
(9)
xijk ∈ {0, 1}, i,j = 1, 2, ..., n; k = 1, 2, ..., K.
(10)
3 Heuristické metódy SDVRP patrí medzi NP obtiažne úlohy, preto bude pre riešenie úlohy väčšieho rozsahu vhodné navrhnúť heuristické metódy. Bude sa jednať o úpravu heuristických metód pre obchodného cestujúceho a to o metódu najbližšieho suseda, metódu výhodnostných čísiel a vkladaciu metódu. Predpokladáme, že matica C je symetrická a nezáporná. Označme M ⊂ { 2,3,…,n} množinu uzlov, ktoré ešte neboli zahrnuté do žiadnej z trás. Na začiatku metódy bude množina M rovná { 2,3,…,n}. Heuristická metóda končí, ak množina M je prázdna. Priebeh trasy bude uložený do vektoru tr = (tr(1), tr(2),.., tr(s)), kde tr(1) = tr(s) = 1. 3.1
Metóda najbližšieho suseda
Vykonávame nasledujúce kroky, pokiaľ M nie je prázdna: Krok 1. Pokiaľ M je jednoprvková, obsahujúca len uzol k a qk ≤ V, potom položíme tr(1) = 1, tr(2) = k, tr(3) = 1 a výpočet trasy končí. Inak označíme k uzol s najkratšou vzdialenosťou c1i a vytvoríme trasu tr(1) = 1, tr(2) = k, tr(3) = 1, položíme s = 3. Ak qk ≤ V , uzol k odstránime z M, V = V – qk a prejdeme na krok 2. Ak qk > V, uzol k v M ponecháme a zmení sa jeho požiadavka na pk, kde pk predstavuje časť požiadavky, ktorá presahovala kapacitu vozidla V, čiže pk = qk − V. Trasa je ukončená. Pokračujeme krokom 1, kapacita vozidla je V. Krok 2. Hľadáme uzol k, ktorý minimalizuje vzdialenosť ctr(s-1),k a patrí do M. Ak pripočítanie qk v uzle k neprekročí kapacitu vozidla V , rozšírime trasu tr o uzol k vložením za uzol tr(s-1). Zvýšíme s o 1, uzol k odstránime z M.
Vědecký seminář doktorandů FIS – únor 2008
87
Ak pripočítanie qk prekročí kapacitu vozidla V , rozšírime trasu tr o uzol k, vložením za uzol tr(s-1), uzol k neodstránime z M, požiadavka uzla k sa zmení na pk, pk = qk - V . Trasa je ukončená, pokračujeme krokom 1. Pokiaľ M je neprázdna, pokračujeme krokom 2, inak metóda končí. 3.2
Metóda výhodnostných čísiel
Vykonávame nasledujúce kroky, pokiaľ množina M nie je prázdna: Krok 1. Ak M je jednoprvková, obsahujúca len uzol k, potom vytvoríme trasu tr(1) = 1, tr(2) = k, tr(3) = 1 a položíme s = 3. Ak požiadavka uzla k qk > V , potom uzol k odstránime z M a výpočet trasy končí. Ak qk > V, uzol k v M ponecháme a zmení sa jeho požiadavka na pk, kde pk predstavuje časť požiadavky, ktorá presahovala V, čiže pk = qk - V a trasa je ukončená. Pokračujeme krokom 1, pričom kapacita vozidla je V. Krok 2. Hľadáme dvojicu uzlov z M v tvare (k, l), ktorá maximalizuje výhodnostné číslo sij = ci1 + c1j - cij. Vytvoríme trasu tr(1) = 1, tr(2) = k, tr(3) = l, tr(4) = 1 a položíme s = 4. Ak qk + ql ≤ V, tak uzly k a l odstánime z množiny M a V = V – (qk +ql). Prejdeme na krok 3. Ak qk + ql > V, označíme min index menšieho z dvojice (qk, ql) a max index väčšieho z dvojice (qk, ql) (ak qk = ql, položíme min = k a max = l). Ak qmin > V, znížime qmin o V, inak V = V - qmin, odstránime uzol min z M a znížime požiadavku qmax o V . Trasa je ukončená a pokračujeme krokom 1. Krok 3. Hľadáme uzol i z M, ktorý maximalizuje sik, resp. uzol j z M, ktorý maximalizuje slj. Ak sik ≥ slj (alebo j neexistuje), potom vložíme uzol i do trasy pred miesto k a ak qi
≤ V tak uzol i odstránime z M. Kapacita vozidla sa zmení na V ,
kde V = V - qi. Zvýšime s o 1 a za k položíme i. Ak qi > V tak uzol i v M ponecháme a pi = qi - V . Trasa je ukončená, s zvýšime o 1 a za k položíme i. Pokračujeme krokom 1. Ak sik < slj (alebo i neexistuje), potom vložíme uzol j do trasy za miesto l a ak
≤ V tak uzol j odstránime z množiny M. Kapacita vozidla sa zmení na V , kde V = V - qj. Zvýšime s o 1, a za l položíme j. Ak qj > V tak uzol j v M ponecháme a zmení sa požiadavka uzla j na pj, kde pj = qj - V . Trasa je ukončená, s zvýšime o qj
1 a za l položíme j. Pokračujeme krokom 1. Ak ani i a ani j neexistuje, potom trasa končí a pokračujeme krokom 1. Pokiaľ M je neprázdna, pokračujeme krokom 3, inak metóda končí.
88
Vědecký seminář doktorandů FIS – únor 2008
3.3
Vkladacia metóda
Pri vkladacej metóde vykonávame nasledujúce kroky pokiaľ M nie je prázdna: Krok 1. Označíme uzol k s najväčšou vzdialenosťou c1i a vytvoríme trasu tr(1) = 1, tr(2) = k, tr(3) = 1, položíme s = 3. Ak požiadavka uzla k qk ≤ V, potom V = V - qk. Uzol k odstránime z M. Pokiaľ M je prázdna, výpočet končí. Ak qk > V, potom uzol k v M ponecháme, jeho požiadavka sa zmení na pk, kde pk = qk - V. Pokračujeme krokom 1. Krok 2. Hľadáme uzol k z M, ktoré minimalizuje číslo d = ctr(i), k + ck ,tr(i+1) – ctr(i) ,tr(i+1) pre všetky i=1,2,…, s-1 a k ∈ M. Rozšírime trasu o uzol k vložením medzi uzol tr(i) a tr(i+1), kde i minimalizuje hodnotu d. Ak qk ≤ V, potom V = V - qk. Uzol k odstránime z M. Ak qk > V, potom uzol k v M ponecháme, jeho požiadavka sa zmení na pk, kde pk = qk - V. Pokračujeme krokom 1. Ak neexistuje takýto uzol k, potom trasa je ukončená a pokračujeme krokom 1. Pokiaľ M nie je prázdna, pokračujeme krokom 2, inak výpočet končí.
4 Numerické experimenty Majme spolu 20 miest zo Sloveskej a Českej republiky, pričom Bratislava je východiskovým mestom, ktoré musí byť zahrnuté v každej trase. Trasy sa realizujú po cestnej sieti, kapacita vozidla V je vo všetkých prípadoch rovnaká tak ako aj veľkosť požiadaviek qi. Navrhnuté heuristiky boli aplikované na 10 rôznych problémov s rôznym počtom miest.
Vědecký seminář doktorandů FIS – únor 2008
89
Tabuľka 1. Výsledky aplikovaných heuristických metód na rozvozný problém s delenou dodávkou
metóda metóda vkladacia počet najbližšieho počet výhodnost- počet počet p.č. metóda miest trás suseda trás ných čísiel trás (km) (km) (km) 1 2 3 4 5 6 7 8 9 10
10 11 11 13 14 15 17 18 19 20
3063 2555 2688 3804 4521 3463 4123 5163 4692 4667
4 4 4 5 6 5 6 7 7 7
2520 1944 2398 3596 3558 3199 3746 4058 4320 4456
4 4 4 5 6 5 6 7 7 7
2457 2245 2419 3471 3865 3150 3911 4476 4538 4725
4 4 4 5 6 5 6 7 7 7
5 Závěr Po aplikácii heuristických metód na rôzne prípady rozvozných problémov s delenou dodávkou sme zistili, že najlepšie výsledky nám dáva metóda výhodnostných čísiel, pričom metóda najbližšieho suseda nie je vôbec vhodná na aplikáciu. Výskum bol podporený grantom GAČR402/06/0123.
Literatura [1] Dror, M., Trudeau, P.: Split Delivery Routing. Naval Research Logistics, 37: 383-402, 1990. [2] Fábry, J.: Dynamické okružní a rozvozní úlohy, disertační práce. Praha VŠE FIS, 2006. [3] Pelikán, J.: Diskrétní modely v operačním výzkumu. Professional Publishing, Praha 2001.
90
Vědecký seminář doktorandů FIS – únor 2008
Summary Application of selected heuristic methods on SDVRP The paper deals with a split delivery vehicle routing problem, which is a modification of a vehicle routing problem. It consists in delivery routes optimization in communications network containing initial city of all routes and a given number of places, which is necessary to include in delivery routes, where a customer can be served by more than one vehicle. The objective is to find a set of vehicle routes that serve all the customers and the total distance traveled is minimized. The split delivery vehicle routing problem is NP hard, therefore we present a solution approach by three heuristics.
Vědecký seminář doktorandů FIS – únor 2008
91
Technická efektívnosť v oblasti zdravotníctva a jej vzťah k odmenám zdravotníckeho personálu Ivana Novosádová Doktorandka oboru Ekonometrie a operační výzkum
Abstrakt. Tento príspevok sa zaoberá hodnotením technickej efektívnosti 119 českých nemocníc (rok 2005) pomocou analýzy obalu dát (DEA). DEA je metóda založená na produkčnej teórii a matematickom programovaní. Konštruuje sa hranica produkčných možností a to ako najpesimistickejšia, po častiach lineárna hranica obalu dát. Na analyzovaných dátach som aplikovala modely orientované na vstupy ako aj oba prístupy k typu výnosov (modely s konštantnými a variabilnými výnosmi z rozsahu). Pomocou korelačnej analýzy som neidentifikovala silný vzťah medzi technickou efektívnosťou a mzdami zdravotníckeho personálu, na 5 %-nej hladine významnosti. Kľúčová slová: hodnotenie efektívnosti, analýza obalu dát, zdravotníctvo, nemocnice
1 Úvod Spôsob využitia prostriedkov verejných financií je stále aktuálnou témou. Hodnotenie efektívnosti ich využitia je komplikované a náročné. V tomto príspevku sa zaoberám jedným z možných prístupov ku kvantitatívnemu hodnoteniu technickej efektívnosti českých nemocníc pomocou analýzy obalu dát. Pre hodnotenie efektívnosti som nepoužila tradične používané pomerové ukazovatele. Hlavným dôvodom bolo to, že tieto ukazovatele v sebe zahŕňajú dva alebo len niekoľko málo faktorov, pričom efektívnosť a produktivita je závislá na celej rade charakteristík. Často sú tieto charakteristiky v rôznych merných jednotkách a to je ďalším dôvodom prečo jednoduché pomerové ukazovatele nie sú vhodné pre hodnotenie efektívnosti a produktivity.
2 Analýza obalu dát Analýza obalu dát (skrátene DEA) je neparametrická metóda. DEA umožňuje individuálne hodnotenie efektívnosti konkrétnej jednotky vzhľadom k ostatným jednotkám analyzovaného súboru, čo je jednou z jej veľkých výhod. Pomocou tejto
92
Vědecký seminář doktorandů FIS – únor 2008
metódy je možné jednotky rozdeliť na efektívne a neefektívne a pre jednotky neefektívne určiť tzv. cieľové hodnoty. Cieľové hodnoty sú hodnoty jednotlivých premenných ktorých by daná jednotka mala dosiahnuť aby sa stala efektívnou, aby sa dostala na hranicu efektívnosti. Takisto je možné pre neefektívne jednotky určiť vzory. Vzorom sa stáva jednotky ktorá leží na hranici efektívnosti a má podobnú štruktúru vstupov a výstupov. Analýzu obalu dát je možné riešiť pomocou špecializovaných softwarov (Frontier Analyst, DEA Solver Pro, OnFront a iné). Nevýhodou je deterministický prístup metódy. Ani testovanie významnosti jednotlivých vstupov a výstupov nie je prepracované do takej miery ako je to u iných ekonometrických či štatistických metód. Na druhej strane, vzhľadom k tomu že analýza obalu dát je pomerne nová metóda dá sa čakať že v oblasti testovania významnosti vstupov a výstupov dôjde k ďalšiemu prepracovaniu [1, 2]. Efektívnosť je možné definovať ako pomer výstupu, ktoré jednotka produkuje, k vstupu, ktoré jednotka pri činnosti spotrebováva. Efektívnosť =
výstup vstup
(1)
Pred samotným definovaním použitých modelov vysvetlím niekoľko základných pojmov. Efektívna hranica je hranica hranica tvorená efektívnymi jednotkami a ohraničuje množinu efektívnych prípustných možností. Za efektívnu jednotku je považovaná taká jednotka ku ktorej neexistuje iná jednotka ktorá by dosiahla rovnakého výstupu pri použití menšieho množstva vstupov, resp. ktorá by dosiahla vyššiu produkciu výstupov pri rovnakom spotrebovaní vstupov. •
Modely orientované na výstupy (output-oriented models) Tento typ modelov v prípade neefektívnej jednotky navrhuje zvýšenie množstva výstupu pri zachovaní množstva vstupu. • Modely orientované na vstupy (input-oriented models) V prípade týchto modelov sa pre neefektívne jednotky redukuje množstvo vstupu pri zachovaní súčasného množstva výstupu. • Aditívne, resp. odchylkové modely (additive, slack-based models) Tieto modely kombinujú oba predchádzajúce prístupy. K dosiahnutiu efektívnej hranice dochádza súčasnou redukciou, resp. zvýšením vstupov i výstupov. (Podrobnejší výklad týchto modelov presahuje rámec tohto príspevku, viď [1-3], [5]). Ďalším kritériom delenia modelov je predpoklad o charaktere výnosov z rozsahu: CCR modely
Vědecký seminář doktorandů FIS – únor 2008
93
Predpoklad konštantných výnosov z rozsahu. BCC modely Predpoklad variabilných výnosov z rozsahu. FDH modely Nie sú obmedzené apriórnymi predpokladmi o type charaktere výnosov z rozsahu [5]. Ako bolo spomenuté v úvode, jednou z výhod tejto metódy je možnosť agregovania viacerých vstupov, resp. viacerých výstupov. Pre túto agregáciu sa využíva systém váh. Uvažujme teda súbor homogénnych produkčných jednotiek U1, U2, …, Un. Každá z jednotiek produkuje r výstupov a zároveň spotrebováva m vstupov. Označme X = {xij, i = 1, 2,…, m; j = 1, 2,..., n} ako maticu vstupov a Y = {yij, i = 1, 2,…, r; j = 1, 2, ..., n} ako maticu výstupov. Vstupy a výstupy jednotky Uq obsahuje q-tý stĺpec matíc Xq a Yq. Mieru technickej efektívnosti tejto jednotky môžeme všeobecne vyjadriť ako:
∑i ui yiq ∑ j v j x jq
,
(2)
kde vj = 1, 2,..., m sú váhy priradené j-temu vstupu a ui, i = 1, 2,..., r sú váhy priradené i-temu výstupu. DEA analýza spočíva v tom, že pri hodnotení technickej efektívnosti produkčnej jednotky Uq sa maximalizuje jej miera technickej efektívnosti (2) pri rešpektovaní podmienky, že miera technickej efektívnosti všetkých ostatných jednotiek daného súboru nemôže byť väčšia než jedna (resp. 100 %). Váhy vstupov a výstupov musia byť zároveň väčšie ako nula, a to z toho dôvodu, aby boli všetky uvažované charakteristiky v modeli zahrnuté. Pre tieto účely je do modelu zahrnutá konštanta ε, za ktorú dosadzujeme väčšinou hodnoty 0,0001 a menšie [5]. Pre doplnenie uvádzam ešte matematické modely použitých modelov v analytickej časti. Model CCR orientované na vstupy (CCR-I) Maximalizovať
∑i u i y iq
za podmienok
∑ j v j x jq = 1 ,
,
∑iru i y ik ≤ ∑ m j v j x jk , k = 1, 2, …, n, ui ≥ ε, i = 1, 2, …, r,
94
(3)
Vědecký seminář doktorandů FIS – únor 2008
vj ≥ ε , j = 1, 2, …, m. Model BCC orientované na vstupy (BCC-I) Maximalizovať
∑ir u i y iq + µ ,
za podmienok
∑ j v j x jq = 1 ,
∑ir u i y ik + µ ≤ ∑ m j v j x jk , k = 1, 2, …, n, ui ≥ ε, i = 1, 2, …, r, vj ≥ ε , j = 1, 2, …, m, µ – ľubovoľné.
(4)
3 Dátový súbor Analyzované dáta o nemocniciach pochádzajú z publikácií „Provozně-ekonomické informace nemocnic a léčeben dlouhodobě nemocných“ [8]. Údaje sa týkajú roku 2005. Pre analýzu sa podarilo, vo vhodnej podobe, získať údaje o 119 nemocniciach, čo je viac ako polovica nemocníc v ČR. Hodnotiť budem iba technickú efektívnosť v lôžkových oddeleniach. Pri výbere vstupov a výstupov nemocníc som použila obdobné premenné, ktoré boli použité v podobných analýzach v minulosti [3, 4, 6, 7]. Ako vstupy som použila ukazovatele, týkajúce sa faktoru práce (evidenčný počet lekárov v lôžkových oddeleniach, evidenčný počet sestier v lôžkových oddeleniach) a ukazovateľ týkajúci sa kapitálu (počet lôžok). Výstup budeme merať pomocou dvoch ukazovateľov: počet hospitalizovaných, počet ošetrovacích dní. Tieto ukazovatele mi zabezpečujú odlišný pohľad na intenzitu starostlivosti v lôžkových oddeleniach. Počet ošetrovacích dní charakterizuje intenzitu dlhodobej chronickej starostlivosť, zatiaľ čo ukazovateľ počtu hospitalizovaných je vhodnejší k meraniu akútnej krátkodobej starostlivosti. Rozhodla som sa využiť oba ukazovatele, z dôvodu kombinácie oboch typov starostlivosti, ktorú nemocnice poskytujú.
4 Výsledky Výsledky analýzy technickej efektívnosti pre súbor nemocníc, ktorá bola počítaná pomocou DEA modelov orientovaných na vstupy, vzhľadom k rozsahu príspevku v detailnej podobe neuvádzam. Uvažovala a pracovala som len s výsledkami pre modely orientované na vstupy. Potrebu zdravotníckych služieb považujem za danú a mojim cieľom je minimalizovať vstupy potrebné k uspokojeniu tejto potreby. Agregované výsledky zobrazuje tabuľka 1. Ich grafickým vyjadrením je graf 1.
Vědecký seminář doktorandů FIS – únor 2008
95
Tabuľka 1. Počet jednotiek, intervalové rozdelenie dosiahnutej efektívnosti, model CCR a BCC
interval (%) 100 95,0 - 99,9 90,0 - 94,9 85,0 - 89,9 80,0 - 84,9 75,0 - 79,9 70,0 - 74,9 pod 70
CCR 6 9 29 24 23 17 8 3
počet jednotiek BCC 26 13 29 22 15 6 5 3
35
30
počet jednotiek
25
20
15
10
5
0 100
95,0 - 99,9
90,0 - 94,9
85,0 - 89,9 80,0 - 84,9 75,0 - 79,9 70,0 - 74,9
pod 70
intervaly CCR
BCC-I
Graf 1. Rozdelenie nemocníc podľa tech. efektívnosti a porovnanie modelov CCR a BCC
Na analyzovanom súbore som skúmala pomocou korelačnej analýzy existenciu vzťahu medzi technickou efektívnosťou nemocníc a úrovňou priemernej mzdy lekára a samostatne vzťah medzi technickou efektívnosťou a úrovňou priemernej mzdy sestry. Základnou otázkou ktorú som si pri tejto analýze položila: „Je personál z nemocníc s vyššou technickou efektívnosťou za túto vyššiu úroveň odmeňovaný a naopak, sú doktori a sestry pracujúci v zariadeniach s nižšou efektívnosťou
96
Vědecký seminář doktorandů FIS – únor 2008
nejakým spôsobom za „neefektívnosť“ penalizovaní?“ Problém, ktorý pri korelačnej analýze nastal je, že pomocou DEA modelov sa vo väčšine prípadov podarí identifikovať viacero jednotiek so 100%-nou efektívnosťou. V mnou analyzovanom súbore bolo v modele BCC 26 efektívnych jednotiek. Uvedomujem si že tento fakt porušuje predpoklad o normálnom rozdelení a tým aj to že Pearsonov korelačný koeficient nie je spoľahlivý. Rovnako ani použitie neparametrického Spearmanovho korelačného koeficientu nie je ideálne. Z týchto dôvodov, výsledky uvedené v tabuľke 2 majú skôr informačný charakter. Tabuľka 2. Korelačné koeficienty medzi technickou efektívnosťou a priemernou mzdou lekára a sestry, model CCR a BCC
Model
Technická efektívnosť a priemerná mzda lekára
Technická efektívnosť a priemerná mzda sestry
CCR BCC
Pearsonov korelačný koeficient 0,167 (0,0695) 0,084 (0,3582) 0,178 (0,0527) 0,221 (0,0156)
CCR BCC
Spearmanov korelačný koeficient 0,074 (0,4216) 0,016 (0,8651) 0,181 (0,0495) 0,191 (0,0383)
Oba použité korelačné koeficienty v modeli CCR vyšli nízke, sú štatisticky nevýznamne. Pre model BCC sa korelácia medzi technickou efektívnosťou a mzdami lekárov pohybuje na hranici štatistickej významnosti, zatiaľ čo v prípade miezd sestier sa dostávame na korelačné koeficienty, ktoré už štatisticky významné na 5%-nej hladine významnosti sú. Na základe výsledkov sa podľa môjho názoru nepotvrdila hypotéza, že by medzi technickou efektívnosťou a priemernou mzdou lekára existoval silný vzťah. V prípade priemernej mzdy sestier korelačné koeficienty ukazujú na možnú existenciu vzťahu. Avšak s ohľadom na obmedzenú spoľahlivosť korelačných koeficientov pre model BCC (26 efektívnych jednotiek) nie je možné tento vzťah považovať za potvrdený. Výsledky môžem interpretovať tak, že pomocou použitých analytických metód sa nepodarilo preukázať, že by bol v praxi personál efektívnych (neefektívnych) nemocníc zjavne mzdovo zvýhodnený (znevýhodnený).
Vědecký seminář doktorandů FIS – únor 2008
97
5 Záver Možnosti využitia modelov DEA v oblasti zdravotníctva sme ilustrovali na súbore 119 nemocníc. Pomocou DEA modelov som kvantifikovala efektívnosť technickú, nie ekonomickú. Na tento fakt by mal byť braný ohľad pri interpretácii výsledkov. V oboch modeloch boli ako neefektívne jednotky identifikované 3 nemocnice: nemocnice Klatovy, Duchcov a Milosrdných sestier. V modeli s predpokladom konštantných výnosov z rozsahu efektívnu hranicu tvorí 6 jednotiek. Pri zmene predpokladu o type výnosov z rozsahu, na variabilné, tvorí efektívnu hranicu jednotiek 26. Vzhľadom k výsledkom korelačnej analýzy sa nepotvrdila hypotéza o tom, že existuje silný lineárny vzťah medzi technickou efektívnosťou a priemernou mzdou lekára, resp. medzi technickou efektívnosťou zdravotníckeho zariadenia a priemernou mzdou sestry. Pri analýzach som bola limitovaná viacerými faktormi. Najväčším limitujúcim faktorom pri analýzach je fakt, že o prípadovom mixe jednotlivých zariadení nemáme žiadne podrobnejšie informácie. Tým sa skresľuje predpoklad o homogenite analyzovaného súboru je do istej miery porušený.
Literatura [1] Coelli, T., Rao, D. S. P., Battese, G. E.: An Introduction to Efficiency and Productivity. Boston – Dordrecht – London: Kluwer Academic Publishers 1998. [2] Cooper, W. W., Seiford, L. M., Charnes, A., Lewin, A. Y.: Data Envelopment Analysis – Theory, Methodology and Applications. 4th Printing. Boston – Dordrecht – London: Kluwer Academic Publishers 1998. [3] Cooper, W. W., Seiford, L. M., Zhu, J.: Handbook on Data Envelopment Analysis. Boston – Dordrecht – London: Kluwer Academic Publishers 2004.. [4] Dlouhý, M., Jablonský, J., Novosádová, I.: Využití analýzy obalu dat pro hodnocení efektivnosti českých nemocnic. Politická ekonomie, LV, 2007, č. 1, s. 60 – 71. [5] Jablonský, J., Dlouhý, M.: Modely hodnocení efektivnosti produkčních jednotek. 1. vydanie. Praha: Professional Publishing 2004. [6] Novosádová, I., Dlouhý, M.: Hodnotenie technickej efektívnosti nemocníc a odmeňovanie zdravotníkov. Ekonomický časopis, 55, 2007, č.8, s.783 – 792. [7] Ozgen, H., Ozcan, Y. A.: A National Study of Efficiency for Dialysis Centers: An Examination of Market Competition and Facility Characteristics for
98
Vědecký seminář doktorandů FIS – únor 2008
Production of Multiple Dialysis Outputs. Health Services Research, 37, 2002, č. 3, s. 711 – 732. [8] Provozně-ekonomické informace nemocnic a léčeben dlouhodobě nemocných. Praha: Ústav zdravotníckej informatiky a štatistiky ČR 2005 <www.uzis.cz>.
Summary Relationship between Efficiency and Wages in Czech acute Hospitals Efficiency evaluation in the area of health care sector is a theoretical as well as a practical problem. DEA proved to be a very attractive method of efficiency evaluation for health economists throughout the world. I evaluated distribution of technical efficiency for the sample of Czech hospitals. By the correlation analysis I tried to evaluate the relationship between technical efficiency and the average wage of doctors and separately for the relationship between technical efficiency and the average wage of nurses. There was a problem with skewed distribution of efficiency coefficients cause by the higher number of efficient units (26 units for BCC model). I did not find any statistically significant relationship between technical efficiency and wages at the boundary of 5 % level. The information on case-mix of patients, which is not currently available, would improve the strength of results significantly. Nevertheless, the results of this analysis can serve as the first identification of potentially low performing hospitals.
Vědecký seminář doktorandů FIS – únor 2008
99
Modelování zahraničního obchodu pomocí panelových dat Filip Tichý Doktorand oboru Ekonometrie a operační výzkum
Abstrakt. V příspěvku bude demonstrován možný dopad volatility měnového kurzu a vytvoření měnové unie mezi zeměmi na jejich vzájemný obchod. K modelování těchto vztahů byl zvolen gravitační model zahraničního obchodu. Model byl odhadnut pomocí zobecněné metody nejmenších čtverců z panelových dat, která byla shromážděna pro členy Evropské unie. Klíčová slova: volatilita měnového kurzu, měnová unie, gravitační model, panelová data, zobecněná metoda nejmenších čtverců
1 Úvod Cílem této studie je modelovat vliv společné měny na vzájemný obchod mezi partnerskými zeměmi. Tato problematika se v současnosti řadí mezi více diskutované, a to především v souvislosti se založením Evropské měnové unie a budoucím zavedením Eura v nových členských zemí Evropské unie. Přelomovou práci ohledně této problematiky publikoval A. K. Rose [4], ve které formuloval závěr, že vytvoření měnové unie mezi partnerskými zeměmi vede k velkému nárůstu vzájemného zahraničního obchodu, a to nad úroveň, kterou by predikovaly vysvětlující proměnné modelu. Tento efekt se začal v literatuře označovat jako tzv. „Roseův“ efekt. Pochopitelně následovala celá řada studií, které se pokoušeli tento závěr potvrdit, zpřesnit nebo vyvrátit. Přehledný seznam i se shrnutím závěrečných výsledků jednotlivých prací je možno nalézt v článku R. Baldwina [1]. Závěry těchto studií jsou však navzájem nekonzistentní. V následujícím textu bude odhadnut model zahraničního obchodu pro země Evropské unie, který v sobě, kromě jiných proměnných, bude obsahovat i „Roseův“ efekt v podobě umělé nula-jednotkové vysvětlující proměnné. Tento efekt by bylo možné označit jako přímý dopad vstupu do měnové unie na zahraniční obchod. Nepřímý kanál vede přes volatilitu měnového kurzu. Dopad přijetí společné měny na tuto proměnnou je zřejmý, volatilita směného kurzu přestane existovat, ale jelikož volatilita měny snižuje zahraniční obchod, bude mít
100
Vědecký seminář doktorandů FIS – únor 2008
společná měna i nepřímo za následek nárůst zahraničního obchodu mezi partnerskými zeměmi.
2 Gravitační model zahraničního obchodu Pro modelování zahraničního obchodu zvolíme koncept gravitačního modelu zahraničního obchodu. Tento přístup byl poprvé použit Janem Tinbergenem [5]. Model vychází z logiky Newtonovy gravitační rovnice, kde velikost vzájemné přitažlivé síly těles je úměrná jejich hmotnosti a vzdálenosti mezi nimi. V kontextu zahraničního obchodu byla hmotnost těles nahrazena HDP, popř. HDP na obyvatele a počet obyvatel.
X ij = αYi β1 Y jβ2 Popiβ3 Pop βj 4 Dijβ5 ∏ UPkγk u ij ,
(1)
k
kde X¸ij je objem zahraničního obchodu mezi zeměmi i a j, Yi(j) velikost HDP na obyvatele, Popi(j) počet obyvatel, Dij vzdálenost mezi partnerskými zeměmi, UP umělé nula-jednotkové proměnné (např. výskyt společné hranice) a uij je stochastická složka modelu. Ačkoliv byl model prvotně použit čistě jako empirický model, bylo později vypracováno několik studií, které model doplňují i o chybějící teoretické odvození, např. J. H. Bergstrand [2]. Pro potřeby našeho modelování rozšíříme ještě rovnici (1) o měnový kurz, volatilitu měnového kurzu a nula-jednotkovou proměnnou vyjadřující členství v Evropské měnové unii u jednoho partnera a druhou vyjadřující společnou měnu u obou zemí. Upravená rovnice se dá vyjádřit následovně:
X ij = αYi β1 Y jβ2 Popiβ3 Pop βj 4 Dijβ5 ERijβ6 e
(
β7V ERij
)
∏UP
γl
l
uij ,
(2)
l
kde ER¸ij je měnový kurz mezi zeměmi i a j, V(ER¸ij ) volatilita měnového kurzu a množina umělých proměnných zahrnuje již i proměnné pro „Roseův“ efekt. Volatilita měnového kurzu je v exponentu z toho důvodu, aby se při logaritmické transformaci nedopustil počítač chyby při zaokrouhlování. To je dáno tím, že volatilita je velmi malé číslo, jelikož je počítána ze změny denních směnných kurzů podle následujícího vztahu:
(
)
V ERij =
2
1 n S ij ,d 1 n S ij ,l , − ∑ ∑ n d =1 S ij ,d −1 n l =1 S ij ,l −1
(3)
kde S¸ij je spotový směnný kurz a n je počet dní v příslušném roce. Vědecký seminář doktorandů FIS – únor 2008
101
3 Odhad gravitační rovnice Rovnice (2) je pro odhad převedena na lineární tvar logaritmickou transformací. Výsledný tvar lze vyjádřit následovně:
x ij = ln(α ) + β1 y i + β 2 y j + β 3 popi + β 4 pop j + β 5 d ij +
(
)
(4)
+ β 6 erij + β 7V ERij + ∑ γ l up l + u ij , l
kde malá písmena vyjadřují přirozený logaritmus původní proměnné. 3.1
Data
K odhadu rovnice (4) byla použita panelová data. Časové řady byly shromážděny pro všechny členy EU25 (kromě Kypru) a dále pro Norsko a Švýcarsko. Rozmezí časových řad bylo od roku 1997 do 2005. V následující tabulce můžete vidět přehled proměnných modelu včetně popisu a zdroje, ze kterého byla data získána. Tabulka 1. Data – popis a zdroje
Proměnná Xij Yi(j) Popi(j) Dij ERij V(ERij)
Popis export ze země i do j-té země; v US$ HDP na obyvatele ve stálých cenách; v US$ velikost populace vzdálenost mezi i-tou a j-tou zemí směnný kurz volatilita spotového směnného kurzu
Zdroj IMF - DOTS IMF - WEO UN www.cepii.fr Bloomberg, ČNB vlastní kalkulace
Dále je uveden seznam použitých umělých nula-jednotkových proměnných včetně jejich popisu. Tabulka 2. Umělé proměnné
Proměnná Bordij EMU1ij EMU2ij T(Yeart)
102
Popis vyjadřuje výskyt společné hranice mezi zeměmi i a j jedna ze zemí i a j je členem eurozóny obě země i i j jsou členy eurozóny Každému roku (vyjma prvního) byla přiřazena umělá proměnná, aby byl model upraven o trend
Vědecký seminář doktorandů FIS – únor 2008
Endogenní proměnnou modelu je export ze země i k j-tému partneru. To pro 26 zemí vede k vytvoření 650 kombinací různých partnerů. Každé z těchto kombinací byly přiřazeny roční časové řady o 9 pozorováních. V celku to vede k 5850 pozorováním, která jsou využita k odhadu modelu. 3.2
Metody odhadu
Přístup k odhadu modelu z panelových dat pomocí metod založených na nejmenších čtvercích se liší podle typu heterogenity mezi jednotlivými prvky množiny, která tvoří průřezovou dimenzi dat. Rozlišují se zde tzv. fixní a náhodné efekty, např. D. N. Gujarati [3]. Fixní efekty se vyskytují, když je heterogenita v modelu nepozorovatelná, ale je korelována s některou z proměnných zahrnutých do modelu. Tento typ heterogenity můžeme kontrolovat přidáním umělých nula-jednotkových proměnných do modelu pro každou jednotku z průřezové dimenze (kromě jedné). Na takto rozšířený model poté aplikujeme standardní nejmenší čtverce. Tato metoda je známa jako nejmenší čtverce s umělými proměnnými (LSDV – least squares dummy variables). V našem případě bychom museli model rozšířit o dalších 649 nula-jednotkových proměnných. Náhodné efekty mají také nepozorovatelnou heterogenitu uvnitř průřezových dat, ale v tomto případě předpokládáme, že navíc není zkorelována s žádnou proměnnou obsaženou v modelu. Pakliže vykazují data náhodné efekty, použije se k odhadu rovnice metoda zobecněných nejmenších čtverců. V prvním kroku odhadneme model standardními nejmenšími čtverci a získáme rezidua. Poté vypočteme transformační matici, která je následně použita pro odhadovou funkci zobecněné metody nejmenších čtverců. Pro ověření, zda data vykazují spíše fixní nebo náhodné efekty, můžeme použít LM test Breusche a Pagana. Testovací statistika se spočítá podle následujícího vzorce: 2
2 n T ∑ ∑ eit nT i =1 t =1 − 1 , LM = 2(T − 1) n T 2 ∑∑ eit i =1 t =1
(5)
kde T je délka časových řad, n je počet jednotek v průřezové dimenzi a e¸it je reziduum získáno standardními nejmenšími čtverci.
Vědecký seminář doktorandů FIS – únor 2008
103
Přijetí nulové hypotézy znamená, že data vykazují fixní efekty, kdežto alternativní hypotéza mluví ve prospěch náhodných efektů. LM charakteristika má přibližně χ2 rozdělení s jedním stupněm volnosti. 3.3
Odhad modelu
Výsledná odhadová funkce byla zvolena na základě LM testu Breusche a Pagana. Testovací statistika (5) zamítla nulovou hypotézu ve prospěch alternativní, a tudíž byla rovnice (4) odhadnuta zobecněnou metodou nejmenších čtverců. K odhadu byl použit softwarový produkt GiveWin s modulem PcGive. V následující tabulce můžete vidět přehled odhadnutých statisticky významných parametrů včetně jejich standardní chyby. Proměnné se statisticky nevýznamnými proměnnými byly před finálním odhadem vyloučeny z množiny vysvětlujících proměnných. Tabulka 1. Data – popis a zdroje
Proměnná úrovňová konstanta yi yj popi popj dij V(ERij) Bordij T1998 T1999 T2000 T2001 T2002 T2003 T2004 T2005
Odhad parametru - 17.75250 1.03036 0.73648 0.89540 0.88101 - 1.37115 - 2161.26 0.32840 0.111460 0.131090 0.387150 0.476119 0.409122 0.312949 0.152239 0.199987
Standardní chyba 0.69790 0.03248 0.03250 0.02188 0.02196 0.06327 300.2 0.12000 0.01826 0.02327 0.02402 0.02408 0.02381 0.02473 0.02781 0.02915
Všechny parametry, až na proměnné EMU1, EMU2 a ERij, jsou statisticky významné i na jednoprocentní hladině významnosti. Všechny významné parametry mají předpokládané orientace a jejich velikost je v souladu s dalšími studiemi. Otázkou je, proč vyšly proměnné EMU1 a EMU2 statisticky nevýznamné? Jedna z možných odpovědí je v časových proměnných. Můžete vidět, že v letech 2000 a 2001 parametry u těchto proměnných skokově vzrostly. Z tohoto důvodu je možné, že odhadová funkce nedokázala správně odlišit „Roseův“ efekt od
104
Vědecký seminář doktorandů FIS – únor 2008
časových proměnných. Nedostatkem této hypotézy je fakt, že po roce 2001 začaly odhadnuté hodnoty parametrů opět klesat až téměř na původní úroveň. Další možná hypotéza je, že se „Roseův“ efekt neprojevil a nárůst v časových proměnných je na vrub některého šoku v ekonomice, např. změna směnného kurzu eura a dolaru nebo příliš optimistické očekávání po vstupu do Evropské měnové unie.
4 Závěr Přestože se nám nepodařilo prokázat existenci „Roseova“ efektu ve spojení se založením Evropské měnové unie, může výše odhadnutý model pomoci při rozhodování nových členů Evropské unie ohledně přijetí společné měny. V následující tabulce je vidět, jak by vstup České republiky mohl ovlivnit její zahraniční obchod s Maďarskem, Polskem a Slovenskem. Tabulka 4. Scénáře vstupu ČR do EMU
Maďarsko Polsko Slovensko
Měna EUR HUF EUR PLN EUR SKK
Česká republika EUR CZK 100.00 98.51 94.21 96.21 100.00 98.51 94.85 97.13 100.00 98.51 95.84 98.70
Hodnoty v tabulce označují procentní hladiny, na které klesá bilaterální zahraniční obchod v důsledku volatility měnového kurzu při různých scénářích vstupu do EMU. Kdyby volatilita směnného kurzu neexistovala (byla nulová), tak by úroveň obchodu byla na úrovni, kterou predikují ostatní proměnné modelu, což je situace, kdy obě partnerské země mají společnou měnu.
Vědecký seminář doktorandů FIS – únor 2008
105
Literatura [1] Baldwin, R.; Skudelny, F.; Taglioni, D.: Trade effects of the euro, evidence from sectoral data. European Central Bank Working Paper Series No. 446, 2005. [2] Bergstrand, J. H.: The gravity equation in international trade: Some microeconomic foundations and empirical evidence. The Review of Economics and Statistics, Vol. 67, No. 3, 474-481, 1985. [3] Gujarati, D. N.: Basic Econometrics. McGraw-Hill Higher Education, Singapore, 2003. [4] Rose, A. K.: One Money, One Market: Estimating the Effect of Common Currencies on Trade. Economic Policy 30, 7-76, 2000. [5] Tinbergen, J: Shaping the World Economy: Suggestions for an International Economic Policy. Twentieth Century Fund, New York, 1962.
Summary Model of international trade with panel data The gravity equation is used to estimate the impact of exchange rate volatility and currency unions on international trade. Model’s variables include GDPs per capita and populations of each partners, distance between them, exchange rate volatility and several dummy variables, including those, that signify membership of given country in the Eurozone. Model is estimated by general least squares method using panel data for members of the European Union. The estimation based on gravity equation suggests a statistically significant relationship between exchange rate volatility and international trade. We weren’t successful in determining the real value of the dummies expressing membership in currency union (the “Rose” effect); to do so, additional research is required.
106
Vědecký seminář doktorandů FIS – únor 2008
Wavelety a jejich použití v analýze časových řad Milan Bašta Doktorand oboru Statistika
Abstrakt. Alternativním přístupem ke klasickému přístupu analýzy časových řad je jejich analýza ve frekvenční doméně. Následující článek shrnuje základní nástroje analýzy časových řad ve frekvenční doméně, jako je diskrétní Fourierova transformace (DFT), a to konkrétně její obměna: ortonormální diskrétní Fourierova transformace (ODFT). Zabývá se též stručně reprezentací lineární filtrace ve frekvenční doméně. Hlavním cílem článku je nastínění pojmu diskrétní waveletová transformace (DWT) jakožto alternativy k DFT, resp. ODFT. V tomto článku jsou zároveň uvedeny možnosti využití DWT v analýze časových řad a ve statistice. Klíčová slova: frekvenční analýza, lineární filtrace, waveletová transformace
1 Úvod Frekvenční analýzou časové řady se nazývá taková analýza, která poskytuje informace o frekvenčním obsahu této řady. Informace získané prostředky frekvenční analýzy jsou často velmi cenné a představují významné doplnění poznatků o časové řadě získaných klasickými postupy. V následujícím článku bude nejprve zaveden pojem ortonormální diskrétní Fourierovy transformace (ODFT) a základy jejího použití v analýze časových řad a v teorii lineární filtrace. Následně bude nastíněno zavedení diskrétní waveletové transformace (DWT) jakožto analogie a zároveň i alternativy k ODFT. Stručně budou diskutovány možnosti použití DWT v různých oblastech analýzy časových řad a ve statistice. Vzhledem k tomu, že rigorózní zavedení DWT je pracné a zdlouhavé, není pro něj v tomto krátkém a úvodním textu místo. Obdobně i vlastní aplikace waveletové transformace by zasluhovaly mnohem větší prostor. Tento článek je proto pojat jako motivační. Detailnější popis celé problematiky lze najít např. v knihách [2], [3] a [4], ze kterých je čerpáno i v tomto článku. V uvedené literatuře je možno nalézt nejen rigorózní odvození DWT, včetně důkazů některých tvrzení, která zde budou uvedena, ale i řadu aplikací, ve kterých je možné DWT využít.
Vědecký seminář doktorandů FIS – únor 2008
107
2 Diskrétní Fourierova transformace Jedním z nejznámějších přístupů frekvenční analýzy čas. řady {xt : t = 0, …, N – 1} je analýza posloupnosti {Fk : k = 0, ..., N – 1},
Fk ≡
1
N −1
N
t =0
∑ xt e
−i 2π t f k
,
(1)
kde fk = k/N a k = 0, …, N – 1. Tato posloupnost se nazývá ortonormální diskrétní Fourierova transformace (ODFT) časové řady {xt}. Klasická (tj. neortonormální) diskrétní Fourierova transformace (DFT) je definována bez faktoru 1/√N před sumou rovnice (1). Přítomnost faktoru 1/√N však nikterak nemění podstatu transformace a pro pozdější účely v tomto článku je definice zavedená rovnicí (1) výhodnější. Posloupnost {Fk} je plně ekvivalentní původní časové řadě {xt}, neboť tuto řadu lze z posloupnosti {Fk} zpětně rekonstruovat na základě vztahu
xt =
1
N −1
N
k =0
∑ Fk e
+ i 2π t f k
,
(2)
kde t = 0, …, N – 1. Rovnici (2) lze chápat jako rozklad časové řady {xt} do tzv. bazických vektorů ODFT. Tyto vektory tvoří množina časových řad {{1/√N ei2πtk/N: t = 0, …, N – 1} : k = 0, …, N – 1}. Uvážíme-li vztah pro komplexní exponencielu, tj. eix = cos x + i sin x a rozepíšeme-li komplexní číslo Fk jako Fk = Ak – iBk, kde Ak a Bk jsou reálná čísla, potom lze rovnici (2) přepsat do tvaru
xt =
1
N −1
N
k =0
∑ [ Ak cos( 2π t f k ) + Bk sin( 2π t f k )] .
(3)
ODFT je tedy rozkladem časové řady {xt} do řady „diskretizovaných“ sinů a kosinů o různých frekvencích. Lze též ukázat (viz např. [3], str. 47 a 48) , že
σˆ x2 =
1
N −1
N
k =0
∑ Fk
2
−x 2 , x ≡
1
N −1
N
t =0
∑ xt ,
(4)
tj. rozptyl časové řady lze rozložit do frekvenčních příspěvků {|Fk|2}. Konkrétní hodnota |Fk|2 je tudíž úměrná příspěvku frekvence fk do rozptylu časové řady. ODFT nachází praktické uplatnění v teorii lineární filtrace. Uvažujme časovou řadu {xt : t = 0, …, N – 1} délky N a posloupnost hodnot {ht : t = …, –1, 0, 1, …}, formálně nekonečné délky, tzv. filtr. Lineární filtrací časové řady {xt} filtrem {ht} se nazývá časová řada
108
Vědecký seminář doktorandů FIS – únor 2008
∞
yt ≡ ∑ h j xt − j mod N , t = 0, ... , N − 1 , j = −∞
(5)
kde pro získání hodnot yt pro t = 0, …, N – 1 jsou zapotřebí hodnoty xt s časovým indexem t < 0 a t > N – 1. V našem případě uvažujeme tak, jako by řada {xt} byla periodická s periodou N, tj. xN ≡ x0, xN+1 ≡ x1, x–1 ≡ xN–1, x–2 ≡ xN–2 atd., což je význam operace t – j mod N, tedy celočísel. dělení čísla t – j číslem N v rovnici (5). Lineární filtrace definovaná rovnicí (5) má četné aplikace v ekonomických a finančních analýzách, kde se běžně setkáváme s klouzavými průměry, diferencemi různého druhu, s filtrem Spencerovým, Hendersonovým či Baxter-Kingovým apod. Operace zprostředkované těmito filtry lze jednotně zapsat rovnicí (5). Význam těchto filtrů (při lineární filtraci) lze získat studiem jejich frekvenční odezvy {Hk}, kterou lze definovat jako ODFT (resp. DFT) posloupnosti {ht}. Velikost frekvenční odezvy, tj. {|Hk|}, nás informuje o frekvencích, které filtr zesiluje resp. potlačuje, argument frekvenční odezvy nás informuje o fázovém posunu frekvenčních komponent mezi řadami {xt} a {yt} a o případném zpoždění informace mezi těmito řadami (detailně viz např. [1], [2] str. 25, [3] str. 20). Tímto způsobem lze jednoduše interpretovat význam např. klouzavých průměrů, diferencí, Spencerova, Hendersonova či Baxter-Kingova filtru aplikovaného na časovou řadu. Lze řešit i úlohu obracenou, tj. z požadavků na frekvenční odezvu {Hk}, lze konstruovat příslušný filtr {ht} (viz např. [1]).
3 Diskrétní waveletová transformace Ze sekce o ODFT vyplývá, že na Fourierovu transformaci se lze dívat jako na rozklad časové řady do bazických vektorů, jimiž jsou časové řady sinů a kosinů různých frekvencí. Hodnoty |Fk|2 podávají zároveň informaci o příspěvku frekvence fk do rozptylu časové řady. Rovnice (1), ukazuje důležitou vlastnost ODFT a to, že hodnoty koeficientů Fk jsou dány hodnotami časové řady {xt} po celé její délce. Sumace v rovnici (1) totiž probíhá přes všechny hodnoty indexu t = 0, …, N – 1. Lze tedy konstatovat, že hodnoty Fk určují globální frekvenční obsah časové řady {xt}, neboť prostřednictvím ODFT se získává frekvenční obsah zprůměrňovaný přes „všechen čas“. Tato vlastnost ODFT je nevýhodná v případě, kdy časová řada má frekvenční obsah, který je s časem proměnný. Diskrétní waveletovou transformaci (DWT) lze volně řečeno chápat jako alternativu k ODFT, kde koeficienty DWT zachycují frekvenční obsah časové řady {xt} (obdobně jako ODFT), avšak lokálně v čase. Aby bylo možné této vlastnosti dosáhnout, je třeba volit bazické vektory jiné než jsou siny a kosiny Fourierovy transformace. Konkrétně, bazické vektory musí být „efektivně“ nenulové pouze na omezeném (konečném) časovém intervalu. Právě „časová nekonečnost“ sinů a
Vědecký seminář doktorandů FIS – únor 2008
109
kosinů (bazických vektorů ODFT) znemožňuje, aby ODFT zachytila frekvenční obsah lokálně. Bazické vektory DWT lze odvodit na základě dvou filtrů, tzv. waveletového a škálovacího filtru. 3.1
Waveletový a škálovací filtr
Waveletový filtr {ht} je definován jako filtr délky L splňující vlastnosti L −1
L −1
L −1
t =0
t =0
t =0
∑ ht = 0,
2 ∑ ht = 1,
∑ ht ht + 2 n = 0 ,
(6)
kde n je libovolné celé číslo kromě nuly. Vlastnosti rovnice (6) zjednodušeně řečeno znamenají, že a) waveletový filtr {ht} musí být „vlnkou“, b) waveletový filtr {ht} musí být „efektivně konečnou vlnkou“ a c) waveletový filtr {ht} je ortogonální ke svým posunům o sudý počet hodnot. Je výhodné požadovat, aby waveletový filtr {ht} byl filtr (při lineární filtraci) potlačující frekvence přibližně v intervalu [0;1/4] (tj. nízké frekvence) a propouštějící frekvence v intervalu [1/4;1/2] (tj. vysoké frekvence). Tuto vlastnost lze ověřit rozborem frekvenční odezvy filtru, tj. rozborem {Hk}. Zde je třeba ještě poznamenat, že veškerý frekvenční obsah původní časové řady je popisován intervalem frekvencí [0;1/2]. Je-li k dispozici waveletový filtr {ht}, potom lze definovat škálovací filtr {gt},
g t ≡ ( −1) t +1 hL −1− t ,
t = 0, ... , L − 1.
(7)
Je-li {ht} filtr propouštějící vysoké frekvence, lze ukázat, že filtr {gt} bude filtrem propouštějícím frekvence nízké (viz např. [3], str. 76). Uvažujme např. filtr {at}, který má nenulové pouze dvě hodnoty a0 = 1/√2 a a1 = – 1/√2. Filtr {at} splňuje podmínky rovnice (6). Výpočtem frekvenční odezvy {Ak} filtru {at} lze zjistit, že tento filtr propouští vysoké frekvence zhruba v intervalu [1/4;1/2]. Takto definovaný filtr lze tedy považovat za filtr waveletový. Na základě rovnice (7) lze dodefinovat příslušný škálovací filtr k filtru {at}. Waveletový filtr {at} se označuje jako Haarův wavelet. Lze však volit i jiné waveletové filtry splňující vlastnosti rovnice (6). Volba příslušného filtru, závisí na charakteru časové řady, na její délce apod. Mezi nejznámější patří wavelety Haarovy, Daubechies, Meyerovy, Franklinovy apod. (viz též obr. 1).
110
Vědecký seminář doktorandů FIS – únor 2008
Obrázek 1. Ve sloupcích zleva: Haarův (L = 2), Daubechies 4 (L = 4) a Daubechies 8 (L = 8) waveletový (WF) a škálovací filtr (SF).
Obrázek 2. „Bazické vektory“ Haarovy DWT pro případ časové řady délky N = 8. Nenulové hodnoty bazických vektorů 0 až 3 jsou rovny –1/√2 a 1/√2. Tyto čtyři vektory byly utvořeny z hodnot waveletového filtru {at} (Haarův). Posouvání nenulových hodnot vektorů 0 až 3 doprava představuje „posouvání v čase“, rozdíl mezi vektorem 0 a 4 je zapříčiněn změnou škály. Vektor 5 je opět časově posunutým vektorem 4 atd. Vektory 0 až 3 zachycují vysoké frekvence, vektory 4 a 5 frekvence nižší, vektor 6 ještě nižší až vektor 7 zachycuje nejnižší frekvence v časové řadě.
Bazické vektory DWT lze získat ze znalosti hodnot filtrů {ht} a {gt}. Vysvětlení přesného postupu, jak toho dosáhnout, je v obecném případě pracné a zdlouhavé a přesahuje rámec tohoto textu. Na tomto místě lze říci pouze to, že bazické vekto-
Vědecký seminář doktorandů FIS – únor 2008
111
ry je možné získat „posunem hodnot filtru {ht} na časové ose“ a změnou škály (rozpětí) filtru {ht} (k tomu je potřeba škálovací filtr {gt}). Změnou škály se zachycuje odlišný frekvenční obsah, změna polohy na časové ose naopak umožňuje frekvenční obsah lokalizovat (viz obr. 2). 3.2
DWT
Vzniká otázka, jak pomocí bazických vektorů vypočteme koeficienty DWT. Vraťme se nejprve k případu ODFT. Ze zápisu rovnice (1) je vidět, že ODFT je lineární transformací, lze ji tedy zapsat maticovou notací. Pokud prvky časové řady {xt} zapíšeme do sloupcového vektoru X a koeficienty {Fk} do sloupcového vektoru F, potom ODFT a zpětnou rekonstrukci řady lze zapsat jako maticovou operaci s unitární maticí U, tj. takovou, pro kterou platí UHU = 1N, kde UH je matice hermitovsky sdružená k matici U a 1N je jednotková matice řádu N.
F = UX
X =U HF .
a
(8)
Pro prvek matice (U)kt, kde k = 0, …, N – 1 a t = 0, …, N – 1 platí
(U ) kt =
1
e
−i 2π t f k
.
N
(9)
Matice U má tedy ve svých řádcích zapsané komplexně sdružené „bazické vektory“ ODFT. Obdobně i DWT je lineární transformace, která je zprostředkována ortonormální maticí O, tj. OTO = 1N, kde OT je matice transponovaná k matici O. Matice O má ve svých řádcích též bazické vektory DWT. (Bazické vektory ODFT jsou komplexní řady, zatímco bazické vektory DWT jsou řady reálné. Unitární matice v případě reálných hodnot matice přechází v matici ortonormální. V tomto smyslu lze unitaritu matice U a ortonormalitu matice O považovat za stejnou vlastnost.) Pro případ Haarova waveletu a řady délky N = 8 lze za hodnoty k-tého řádku matice O zapsat hodnoty z k-tého vektoru obrázku 2, kde k = 0, …, N – 1. Např. nultý řádek obsahuje prvky posloupnosti {–1/√2, 1/√2, 0, 0, 0, 0, 0, 0}. Zapíšeme-li waveletové koeficienty {wk} jako sloupcový vektor W a hodnoty časové řady {xt} jako sloupcový vektor X, potom pro DWT a zpětnou rekonstrukci původní časové řady lze psát (analogicky jako v případě ODFT)
W = OX
a
X = OT W .
(10)
I když je možno DWT vypočítat na základě rovnice (10), obvykle se koeficienty {wk} počítají pomocí tzv. pyramidového algoritmu, který je časově méně nároč-
112
Vědecký seminář doktorandů FIS – únor 2008
ný. Pyramidový algoritmus lze chápat jako sekvenci lineárních filtrací zprostředkovaných filtry vytvořených na základě filtrů {hl} a {gl}, detailněji viz [2] str. 121, nebo [3] str. 80. Ještě je třeba zmínit, že DWT lze aplikovat pouze na řady délky N = 2J, kde J je přirozené číslo (jak si poradit v případě, že naše řada nemá požadované rozměry je diskutováno např. v [3]). 3.3
Vlastnosti a praktické použití DWT v analýze časových řad a ve statistice
Rozdělme posloupnost {wk : k = 0, …, N – 1} výsledných waveletových koeficientů délky N = 2J na J dílčích podposloupnosti {wj,m}
2 j −1 − 1 2 j −1 N ,..., N N − 1, w j ,m : m = 0,..., j − 1 ≡ wk : k = j −1 j 2 2 2
(11)
kde j = 1, …, J. Navíc nechť vJ,0 ≡ wN–1. Posloupnost {wj,m} má tedy délku N/2j. Např. prvních N/2 prvků {wk} spadá pod posloupnost {w1,m}, dalších N/4 prvků pod posloupnost {w2,m} atd., až předposlední a poslední prvek posloupnosti {wk} ztotožníme s hodnotami wJ,0 a vJ,0. Lze ukázat, že koeficienty {wj,m} zachycují lokálně frekvenční obsah časové řady v intervalu frekvencí [1/2j+1;1/2j]. Koeficient vJ,k zachycuje frekvenční obsah v intervalu [0;1/2J+1]. Dále lze ukázat, že platí (např. [3] str. 62) N −1
N −1
N / 2 −1
N / 4 −1
t =0
k =0
k =0
k =0
2 2 2 2 2 2 ∑ xt = ∑ wk = ∑ w1,k + ∑ w2,k + ... + wJ ,k + v J ,k
(12)
Rovnice (12) je základem pro rozklad rozptylu časové řady {xt} do příspěvků, které lze identifikovat se změnami časové řady v jistém čase a v jistém frekvenčním rozsahu. Např. první sumu na pravé straně rovnice (12) lze identifikovat s příspěvkem do rozptylu časové řady {xt}, který souvisí s frekvencemi v intervalu [1/4;1/2]. Jednotlivé členy této sumy potom lokalizují tento frekvenční rozsah v čase. Rozklad rovnice (12) je alternativa k Four. periodogramu, resp. k rovnici (4). Důležitou vlastností DWT je fakt, že zatímco do sumy ∑xt2 = ∑wk2 přispívají jednotlivé hodnoty xt2 často srovnatelnou měrou, příspěvek hodnot wk2 do této sumy je často velmi nevyvážený ve smyslu, že malý počet waveletových koeficientů s největšími hodnotami wk2 přispívá rozhodující měrou a zbývající koeficienty přispívají již jen zanedbatelně. Tuto vlastnost DWT lze využít např. ke kompresi časových řad (celou řadu, resp. její rozptyl, lze zachytit jen v pár DWT koeficientech), jejich předpovědi (snížení dimenze prostoru z délky časové řady na dimenzi odpovídající počtu nejvýznamnějších DWT koeficientů znamená nalezení závislos-
Vědecký seminář doktorandů FIS – únor 2008
113
ti v hodnotách původní řady). Další aplikací zmíněné vlastnosti je odstranění šumu. Uvažujme např. řadu typu {xt}, kde xt = dt + et, kde {dt} je deterministická složka časové řady a {et} je šum. Lze předpokládat, že deterministická složka po transformaci bude vystupovat pouze v několika v absolutní hodnotě velkých waveletových koeficientech, zatímco šum bude vystupovat v mnoha v absolutní hodnotě malých koeficientech. Vynulováním koeficientů v absolutní hodnotě nižších než jistý práh (tzv. metoda prahování) a zpětnou rekonstrukcí časové řady z prahovaných koeficientů lze v řadě šum odstranit (viz též [3], sekce 10). Dále lze ukázat (např. [3], sekce 9), že ve velké většině časových řad (i v případě řad s dlouhou pamětí), jejichž hodnoty jsou silně korelované, jsou hodnoty koeficientů DWT těchto řad korelované již jen nepatrně. DWT tedy zjednodušuje vzájemnou korelační strukturu dat, tj. kovarianční matice Σw DWT koeficientů, kterou získáme z kovarianční matice Σx původní časové řady na základě vztahu
Σ W ≡ OΣ X O T
(13)
má nediagonální prvky relativně malé. V tomto smyslu se DWT chová přibližně jako Karhunen-Loeve transformace. Této vlastnosti DWT lze využít mimo jiné k waveletovým metodám simulace gaussovských procesů (např. [3], sekce 9.2), případně k metodám bootstrappingu apod. Korelační struktura časové řady {xt} znemožňuje vytvořit zástupná data např. metodou permutace pořadí dat. Neboť DWT koeficienty jsou přibližně nekorelované, lze při přibližném splnění silnějšího předpokladu i.i.d. provádět jejich permutace v rámci posloupností {wj,m} a posléze provést zpětnou rekonstrukci čas. řady a tak získat řady zástupné. DWT (a její obdoba tzv. MODWT, tj. Maximal Overlap Discrete Wavelet Transform) umožňuje nejen získat koeficienty transformace a zpětně rekonstruovat časovou řadu {xt}, ale též časovou řadu {xt} délky N = 2J (resp. libovolné délky pro případ MODWT) aditivně rozložit do časových řad {dj,t}. Hovoříme o tzv. multiresolution analýze, tj. MRA (detailněji viz např. [2], str. 124 a str. 127). J +1
xt = ∑ d j ,t . j =1
(14)
Časová řada {dj,t} (pro j = 1, …, J) je sestrojena na základě koeficientů {wj,k} a tudíž zachycuje frekvenční obsah v intervalu frekvencí [1/2j+1;1/2j]. {dJ+1,t} je vytvořena z hodnoty vJ,0 a zachycuje frekvenční obsah v intervalu frekvencí [0,1/2J+1]. Každá z časových řad {dj,t} poté může být modelovaná samostatně (viz např. [2]). Na obr. 3 uvádíme MODWT MRA rozklad pro časovou řadu bazického indexu vývozu Islandu (data převzata z [5]).
114
Vědecký seminář doktorandů FIS – únor 2008
Waveletovou transformaci – tentokrát její spojitou obdobu lze též použít k neparametrickému odhadu hustoty pravděpodobnosti. Neparametrickou hustotu pravděpodobnosti je možno rozložit do tzv. waveletových a škálovacích funkcí, které jsou spojitou obdobou bazických vektorů diskrétní waveletové transformace. Z empirických dat lze odhadovat a modelovat koeficienty rozkladu (např. metodou prahování waveletových koeficientů) a zpětnou rekonstrukcí poté získat hledanou neparametrickou hustotu pravděpodobnosti. Protože jsou wavelety schopny pracovat s lokálními změnami v prostorových či časových entitách, vykazuje odhad neparametrické hustoty pravděpodobnosti s pomocí waveletů slibné výsledky v zachycení lokálních nespojitostí a oscilací, detailně viz např. [4], sekce 7. O dalších aplikacích DWT a jejích obměnách je detailně pojednáno v literatuře [2] (použití waveletů v analýze ekonomických a finančních časových řad), [3] (velmi podrobná teorie, s aplikacemi waveletů v analýze časových řad), [4] (použití waveletů ve statistice).
Obrázek 3. MODWT MRA rozklad časové řady bazického indexu vývozu Islandu [5] pomocí Daubechies 4 filtru. Platí xt = d1,t + d2,t + d3,t + s3,t, Aditivní členy rozkladu zachycují postupně frekvenční obsah přibližně ve frekvenčních intervalech [1/4;1/2], [1/8;1/4], [1/16;1/8] a [0;1/16], přičemž s3,t ≡ d4,t + d5,t + … dJ+1,t.
4 Závěr Na diskrétní waveletovou transformaci (DWT) se lze dívat jako na rozklad časové řady do bazických vektorů, jež jsou lokalizované jak v čase, tak i ve frekvenci. Na
Vědecký seminář doktorandů FIS – únor 2008
115
základě koeficientů DWT je možno provádět multiškálovou analýzu rozptylu, komprimovat a předpovídat časové řady, odstraňovat šum v časových řadách a provádět jejich dekorelaci. Další z možností použití waveletové transformace je aditivní dekompozice výchozí časové řady do časových řad, z nichž každá zachycuje jiný frekvenční obsah výchozí časové řady. Waveletovou transformaci je též možné použít i v jiných oblastech statistiky, např. při neparametrickém odhadu hustoty pravděpodobnosti. Velmi slibné výsledky vykazuje waveletová transformace při modelování volatility finančních trhů, což je i problematika, na kterou se v současnosti specializuji.
Literatura [1] Arlt, J., Arltová, M., Rublíková, E.: Analýza ekonomických časových řad s příklady. Oeconomica, VŠE, Praha, 2002, 2004. [2] Baxter, M., King, R.: Measuring Business Cycles: Approximate Band-Pass Filters for Economic Time Series. The Review of Economics and Statistics, Vol. 81 (1999) 575-593. [3] Gencay, R., Selcuk, F., Whitcher, B.: An Introduction to Wavelets and Other Filtering Methods in Finance and Economics. Academic Press, 2002. [4] Percival, D., Walden, A.: Wavelet Methods for Time Series Analysis. Cambridge University Press, 2000. [5] Vidakovic, B.: Statistical Modeling by Wavelets. Wiley Series in Probability and Statistics, 1999.
Summary Wavelets and their Use in Time Series Analysis Discrete wavelet transform (DWT) may be perceived as a decomposition of the time series into basis vectors localized both in time and frequency. Consequently, such a decomposition enables to capture the frequency content of the time series locally in time. The coefficients of DWT may be used for the purpose of the scalebased analysis of variance, compression or forecast of the time series, denoising methods and decorrelation of the time series. Another possible use of wavelet transform is an additive decomposition of the original time series into a set of time series, each carrying a different frequency content. Wavelet transform may be used in other branches of statistics, such as nonparametric density estimation. Promising results of wavelet methods are also associated with wavelet-based analysis of volatility of financial markets. Wavelet-based study of volatility is one of my personal interests in the application of wavelets to time series analysis.
116
Vědecký seminář doktorandů FIS – únor 2008
Vybrané aspekty robustní regrese a jejich aplikace v měření a regulaci Jindřich Černý Doktorand oboru Statistika
Abstrakt. Článek se zabývá srovnáním robustních regresních metod a metody nejmenších čtverců a to prozatím v modelu s jednou vysvětlující a jednou vysvětlovanou proměnnou, volbou vhodných robustních metod s ohledem na experimenty provedené v aplikacích měření a regulace, kde bylo zapotřebí odhadnout za účelem regulace vhodnou regresní funkci z naměřených dat a s požadavkem minimální náročnosti na výpočet a za předpokladu co nejvyšší kvality a zároveň robustnosti odhadů. Pro demonstraci vhodnosti a srovnání jsou použita simulovaná data podobná datům experimentálním. Klíčová slova: robustní regrese, LTS-odhady, M-odhady, bod zvratu, kontaminace dat
1 Úvod Zadání problému vycházelo z aplikací, které používají firmy v oblasti měření a regulace. Pokusím se nyní stručně shrnout technickou část problému, protože z ní dále vychází teoretický návrh a pozdější praktické ověření. Byl vznesen požadavek na rychlý odhad regresní funkce z naměřených dat za účelem zefektivnění regulace, tento odhad by měl být proveden pokud možno v místě sběru dat, případně nesmí zahltit hlavní řídící jednotku, (což znamená nízká výpočetní náročnost) a z této odhadnuté funkce by byly předpovězeny hodnoty dle předpokládaného vývoje vstupních dat a zoptimalizován řídící proces. Při prvních návrzích dané části řídícího systému byla použita pro odhad funkce metoda nejmenších čtverců (dále MNČ), avšak i když byly zhruba známy fyzikální, meze ve kterých se mohla odhadnutá funkce pohybovat, výsledky odhadů byly absolutně mimo tyto meze. Po důkladné analýze se narazilo na několik problémů: 1) sběr některých dat byl prováděn dálkově za pomoci jednosměrné komunikace, tzn. bez možnosti ověření aktuálně předané hodnoty, z toho vyplývá, že některé údaje v datech jsou chybné, avšak odlišit chybná měření od správných neby-
Vědecký seminář doktorandů FIS – únor 2008
117
lo, vzhledem k rozsahu měření a nutnosti odhadnout funkci v krátkém časovém úseku, možné, 2) některá data jsou předzpracována a posílané údaje jsou druhotné a ne přímo naměřené (například měrná hustota zemědělské suroviny v dané aplikaci byla měřena tak, že se měří hmotnost dodané suroviny v zásobovacích kontejnerech, avšak je zde předpoklad že surovina je pokaždé přibližně stejná z hlediska parametrů a pokaždé se vyplní celý objem – ukázalo se že oba předpoklady nejsou dodržovány, parametry plodiny vykazovaly značný rozptyl a vyplněný objem se lišil s velkou chybou, ovšem nedodržení těchto předpokladů potom způsobilo značnou chybu v naměřené a předané hodnotě hustoty) Oba problémy bylo možno řešit buď technicky, což za dané situace nebylo možné, takže byla zvolena alternativa ošetřit vzniklé problémy aplikací odpovídajících statistických metod. 1.1
Teoretické aspekty problémů
Z výše uvedených problémů bylo zřejmé, že se jedná s největší pravděpodobností o případy kontaminace dat, kde není možno použít metodu nejmenších čtverců z hlediska její citlivosti na vlivná pozorování. Mnohokrát bylo ukázáno, jak i jediný vlivný bod, viz [6], [7], může celkově změnit odhady regresních parametrů funkce při použití MNČ. Na druhé straně existují odhady, které se vyrovnají s určitým procentem kontaminace. S ohledem na toto byl představen bod zvratu (breakdown point). Nejstarší bod zvratu definoval Hodges (1967) pouze pro jednorozměrné odhady polohy. Dále pak došlo k několika modifikacím, já se přidržím tzv. odhadu bodu zvratu pro konečné odhady uvedeného například v [9] nebo [1]. Zde je definovaný takto – mějme náhodný výběr n pozorování Sn = (x1, x2, …, xn) a dále nechť Tn je regresní odhad. Aplikováním odhadu Tn na výběr Sn získáme odhad regresních koeficientů, který označíme Tn(Sn). Potom bod zvratu τn* odhadu Tn pro konečný výběr Sn definujeme vztahem
τ n* = τ n* (Tn , Sn ) = 1/ n ⋅ max{m | maxi ,...,i supy ,..., y Tn (z1 ,..., zn ) < +∞} , 1
m
1
m
(1)
kde (z1, …, zn) je vytvořeno z původního výběru Sn nahrazením libovolných m pozorování x1, …, xm libovolně velkými hodnotami y1, …, ym. Bod zvratu v podstatě říká, jaký podíl pozorování v souboru můžeme libovolně zaměnit, aniž by došlo k úplnému selhání odhadu Tn . Úplným selháním opět rozumíme to, že Tn nabude hodnoty + ∞ . Je zajímavé, že bod zvratu nezáleží na realizaci x1, …, xn a jen málo na rozsahu n. Asymptotický bod zvratu můžeme definovat jako
118
Vědecký seminář doktorandů FIS – únor 2008
τ * = lim τ n* . x →∞
(2)
Z toho lze vyvodit, že bod zvratu pro odhady aritmetického průměru je roven nule, zatímco pro medián se rovná ½. Ve skutečnosti ½ je vůbec nejvyšší možný dosažitelný bod zvratu. Je-li kontaminováno více než 50 % pozorování nelze rozhodnout, která část dat je správná. Pro případ regresní úlohy je nejvyšším dosažitelným bodem zvratu hodnota ((int(n – p)/2) + 1)/n, To znamená, že regresní metoda je schopna zpracovat datový soubor, který je kontaminovaný maximálně z jedné poloviny. Jak bylo řečeno pro MNČ jediný bod vychýlil odhad nade všechny meze, takže bod zvratu pro tuto metodu je
τ n* (Tn , S n ) = 1/ n ,
(3)
což se asymptoticky při n jdoucímu k nekonečnu, blíží nule, takže můžeme konstatovat, že MNČ má bod zvratu 0 %. Metodami s vysokým bodem zvratu tedy rozumíme ty, kde se bod zvratu blíží až k 50 %. Bod zvratu lze považovat za globální míru robustnosti. Bylo tedy teoreticky dokázáno, že pro potřebné účely nelze použít MNČ, ale je nutno zvolit metodu která by měla vyšší bod zvratu. Dalším teoretickým problémem byla tedy volba vhodné metody, tato volba ovšem vyplývá z charakteru kontaminace původních dat viz [3]. V dalších úvahách budu nadále vycházet z jednoduchého modelu přímky jak bylo uvedeno výše – to znamená jedna vysvětlující proměnná a jedna vysvětlovaná
y = β 0 + β1 x + ε .
(4)
Kontaminací modelu rozumíme, jak velké procento je nesprávných vlivných pozorování, přítomno v celkovém počtu pozorování. Obecně vycházím z předpokladu klasického lineárního modelu (dále KLM), takže nadále opustím možnost, že chybová složka modelu je tvořena výhradně jiným rozdělením, ale vždy budu uvažovat, že chybová složka je tvořena normálním rozdělením a pouze určité procento kontaminace je tvořeno jiným rozdělením. Tento předpoklad se i u testovaných dat prokázal jako správný, neboť se jednalo o měření fyzikálních veličin a provedená kontrolní měření vykazovala chyby z normálního rozdělení. Z tohoto předpokladu budou později vycházet i modelová data. Mějme tedy model dle (4) a kontaminaci tedy můžeme zapsat
ε = (1 − α )n + α h .
Vědecký seminář doktorandů FIS – únor 2008
(5)
119
V této rovnici je n tvořeno normálním rozdělením N(0,σ2) a h může mít obecně jakékoliv jiné rozdělení, tento předpoklad je skutečně velmi obecný a dává nám možnost použít jako kontaminaci i obecné hodnoty. Je také možné, že toto rozdělení nemusí být symetrické nebo nemusí mít střední hodnotu rovnou nule (což vychýlí data). Konstanta α nám vymezuje procento kontaminace a může nabývat hodnoty mezi 0 a 1 včetně. Nula znamená žádnou kontaminaci a jedná se o KLM a 1 znamená úplnou kontaminaci. V modelových datech se budu zabývat problematikou kontaminace zejména následujícími dvěma problémy, které vyplynuly z měřených dat. 1. Obecná hodnota – kontaminace tak jak byla definována, nám umožňuje použít i obecnou hodnotu. (například 100), tato obecná hodnota je pro podobné modely velmi zajímavá. Díváme-li se na tuto hodnotu z pravděpodobnostního hlediska, je tento pohled možný, ať už tuto hodnotu budeme chápat například jako hodnotu z alternativního rozdělení s pravděpodobností rovné jedné P = 1; (P(x = 100) = 1, P(x <> 100) = 0), nebo jako hodnotu z rovnoměrného rozdělení (kde a = b = 100). Tento problém nastal v prvním případě sběru dat, kdy správná hodnota je nahrazena špatnou hodnotou (správně naměřená hodnota nebyla odeslána, nebo čidlo nemělo dostatek času pro měření a neposlalo hodnotu, v obou případech však byla v datech zaznamenána některá hraniční hodnota rozsahu měření). Kontaminace tedy nemusí být jen jednou hodnotou, ale i více hodnotami, dále pak tato kontaminace může být násobkem chyby. V mých modelech se však budu držet té nejjednodušší varianty a to je kontaminace jednou nesprávnou hodnotou. 2. Normální rozdělení vycházející z N(0,σ2), avšak s větším rozptylem, toto byl druhý případ měření, kde docházelo ke koncentraci dalších chyb, které mohly značně vychýlit původně naměřená data. Toto bude zkonstruováno tak, že původní rozptyl modelových dat se vynásobí kladnou konstantou s několikrát větší než jedna, potom h ≈ N(0;sσ2). (6) Mohlo by se i předpokládat, že takto vzniklé chyby jsou z jiného rozdělení, avšak pro daný případ se po kontrolních měřeních volba s normálním rozdělením ukázala jako vhodná. Vzhledem k mojí předchozí práci a znalostem jsem omezil výběr robustních metod na následující: M-regrese, LTS-regrese, S-regrese a MM-regrese, další metody popsané např. v [2] jsem nevolil. Přičemž ověření se simulovanými daty probíhalo v programu SAS a poté bylo nutné „pochopit“ algoritmus a převést ho do jiného výpočetního prostředí. Jistá výhoda byla, že přenesený algoritmus už nemusel obsahovat volitelné parametry, ale tyto mohly být zafixovány.
120
Vědecký seminář doktorandů FIS – únor 2008
2 Použité metody Metoda M-Regrese, tuto metodu zde uvádím, protože se z počátku jevila jako velmi vhodná. Písmeno „M“ v názvu metody bylo zvoleno kvůli blízkému vztahu mezi M-odhady a maximálně věrohodnými odhady. Jedná se totiž o maximálně věrohodné odhady pro určitou hustotu pravděpodobnosti chyb. M-regrese je, stejně jako metoda nejmenších čtverců nebo metoda nejmenších absolutních hodnot reziduí, založena na odhadu neznámých parametrů regresního modelu prostřednictvím minimalizace reziduí. Konkrétně minimalizujeme součet Σρ(e), kde ρ(e), označuje určitou funkci reziduí. Funkce ρ(e) byla zavedena proto, aby byl jejím prostřednictvím snížen vliv velkých hodnot reziduí a tím i odlehlých pozorování na hodnoty odhadu. Aby toho bylo dosaženo volí se funkce ρ(e) obvykle tak, aby konvergovala k nekonečnu pro |e | → ∞ pomaleji než funkce f(e) = e2 . Těchto funkcí je navržena celá řada. Tyto odhady tedy vycházejí z minimalizace kritéria: n
p
i =1
j =1
min ∑ ρ ( yi − ∑ xij β j −1 ) .
(7)
K řešení této minimalizace můžeme použít derivaci podle β. V literatuře se většinou tato funkce, která je derivací funkce ρ, označuje ψ. Zaveďme tedy funkci ψ = ρ´. V případě, že je ρ konvexní, dostáváme jedno řešení pro odhady parametrů. Vzhledem k tomu, že takto definované odhady jsou obecně citlivé na změnu měřítka, používá se v praxi jejich studentizovaná verze, takže další modifikací výše uvedených těchto odhadů je zavedení směrodatné odchylky do odhadů. Tento parametr se označuje jako scale neboli měřítko. Takže po derivaci dostáváme k řešení soustavu rovnic: p y − xij β j −1 ∑ i n j =1 =0, xijψ ∑ σ* i =1
(8)
kde σ* je známý nebo odhadnutý parametr měřítka neboli směrodatné odchylky náhodné složky. Jak jsem uvedl výše, tato metoda se jevila s volbou správné váhové funkce jako poměrně vhodná, ovšem šok nastal při zkoušení algoritmu. Základem algoritmu pro výpočet je metoda iteračně vážených nejmenších čtverců – iteratively reweighted least squares (IRLS), viz [4], [5], [8]. Jak název napovídá, v každém kroku se posuzuje přiblížení k minimalizačnímu kriteriu za pomocí vážených nejmenších čtverců. Pro každou iteraci je učiněn odhad MNČ, ale soubor vah pro pozorování se mění k dalšímu odhadu. Váhy jsou konstruovány za použití váhové funkce na rezidua, která daném kroku vycházejí. Základní odhad vychází z klasické MNČ.
Vědecký seminář doktorandů FIS – únor 2008
121
Základní nastavení v SASu předpokládá výsledek po 1000 iteracích. Výpočetní náročnost je tedy nesmírně vysoká – úměrně navíc složitosti váhové funkce a počtu opakování. Tento algoritmus je téměř nepřeveditelný do programového prostředí jednotek. Z výše uvedeného vyplývá, že i MM-regrese, která je modifikací M-regrese nebude k použití vhodná. Stejně tak S-regrese, kde se v algoritmech používají k odhadům další složité funkce nemohla být z důvodů problémů zjištěných M-regrese také implementována. LTS-regrese (Least Trimmed Squares) neboli metoda nejmenších useknutých čtverců je další technika, která je alternativou klasické metodě nejmenších čtverců a je ve srovnání s ní velmi robustní. Tato metoda se uvádí mezi metodami s vysokým bodem zvratu, který u ní může být až 50 %. Metoda byla představena v [9]. Metoda nejmenších useknutých čtverců definuje objektivní funkci jako součet h nejmenších čtvercových reziduí. Odhad metodou nejmenších useknutých čtverců je určen minimalizační úlohou: h
min ∑ e[2i ] ( β ) , i =1
(9)
kde e [2i ] ( β ) je i-tá pořádková statistika mezi čtvercovými hodnotami reziduí e12 ( β ) , e 22 ( β
…, e n2 ( β ) a e i2 ( β ) = y i − x i β . Tzv. usekávací konstanta h musí splňovat podmínku n/2 < h < n. Tato konstanta určuje bod zvratu estimátoru, neboť n – h pozorování s největšími hodnotami reziduí neovlivní odhad. Maximálního bodu zvratu se dosáhne při použití hodnoty h = [n/2] + [(p + 1)/2], zatímco pro h = n, což odpovídá odhadu metodou nejmenších čtverců, je bod zvratu roven nule. Hodnota bodu zvratu tedy činí 50 %. Pro obecný regresní model a za předpokladu spojitě rozdělené náhodné složky lze dokázat, že odhad metodou nejmenších useknutých čtverců je asymptoticky normální. Gausovská vydatnost odhadu je při použití usekávací konstanty odpovídající maximálnímu bodu zvratu velmi nízká. Činí pouhých 7,1 %. Je to cena, kterou je nutné zaplatit za dosažení nejvyššího bodu zvratu, jaký si lze přát. Při zvyšování konstanty h dochází samozřejmě k růstu vydatnosti. Další vlastnost plyne z nespojitosti objektivní funkce. Změna nebo vypuštění některých pozorováni může znamenat výraznou změnu v podsouboru „dobrých“ pozorování a následnou změnu odhadů. Tato vlastnost je v angličtině označovaná jako „high subsample sensitivity“. Algoritmus pro výpočet LTS odhadů [4] je principielně jednoduchý. LTS vychází z podsouboru h pozorování z celkového počtu n pozorování pro něž použijeme MNČ, výsledkem je ten s nejmenší hodnotou objektivní funkce. Takto lze získat vždy správný výsledek, je však pro velké soubory výpočetně nesmírně náročný, nicméně toto nebyl náš problém, neboť odhad se dělá jen z aktuálně namě-
122
),
Vědecký seminář doktorandů FIS – únor 2008
řených dat za krátký čas. Výpočetní náročnost zde spočívá hlavně v opakování, avšak rovnice jsou jednoduché a známé pro odhad parametrů MNČ, to znamená lehce implementovatelné, proto jsem také tuto metodu použil. Lze také použít takzvaný FAST-LTS algoritmus, který jsem ovšem zatím nebyl schopen správně naimplementovat do jednotek a musel jsem prozatím zůstat u původního algoritmu.
3 Provedené ověření a simulace Z experimentálně měřených a sledovaných hodnot vyplynulo, že podíl kontaminace pro první případ nepřesahuje více než 8 % naměřených hodnot, to znamená, že při použití metody LTS by měl být poměr h/n roven cca 0,92. Pro druhý případ byl problém trochu složitější, protože kontaminaci způsoboval součet chyb, zde bylo opět po experimentálním prověřování zjištěno, že někdy tyto chyby působí proti sobě, takže i zde byl zjištěn podíl kontaminace a to, že nikdy nepřesáhne hodnotu 22 % takže z těchto předpokladů by mělo být zvoleno h. S určitou rezervou by tedy h bylo dobré zvolit tak, aby bod zvratu byl cca 25 %, toto se poměrně shoduje s přednastavenou konstantou v SASu, proto pro simulace nebyla měněna. Stejně tak do jednotek, kde bylo zapotřebí odhadovat funkci v rozsahu 20 až 60 měřených hodnot, byla použita konstanta odpovídající tomuto poměru. Pro simulace jsem použil data ze své dřívější práce [3] v souladu s výše uvedenými předpoklady kontaminace. Dat bylo několik setů, vždy po 10, 20, 50 a 100 pozorováních a kontaminace nabíhala od 0 do 50 % tato data byla nasimulována pro každou takovou kombinaci pětkrát. Na obrázku 1 je ukázka kontaminace dat jiným normálním rozdělením (s větším rozptylem) jsou zde v jednom grafu data pro 100 a 10 pozorování s kontaminací 0 % a 50 % pro oba tyto sety. Na obrázcích 2 a 3 je zobrazen rozdíl mezi odhadnutými parametry a správnými parametry, ze kterých vycházela simulovaná data, přičemž první je odhad pomocí LTS-regrese a druhý MNČ. Je možné si všimnout, že MNČ, přestane „fungovat“ hned s prvním špatným pozorováním. Naproti tomu LTS-regrese při nastavení konstanty h na cca 25 % kontaminace, nám ukazuje, že přesně za bodem 25, přestává tato také fungovat a odhady jsou též vychýlené.
Vědecký seminář doktorandů FIS – únor 2008
123
100 80 60 40 n=100;K=0%
20
n=100;K=50% n=10;K=0%
0 0
2
4
6
8
10
n=10;K=50%
12
-20 -40 -60 -80
Obrázek 1. Kontaminace rozdělením s větším rozptylem ukázka něterých vstupních dat, n – počet pozorování K - kontaminace
1-20 30 25 20 15 Intercept
10
x
5 0 1
7
13
19
25
31
37
43
49
55
61
67
73
79
85
91
97
-5 -10
Obrázek 2. Graf pro 100 pozorování, označuje rozdíl mezi správnou funkční hodnotou a hodnotou vypočtenou z LTS-regrese.
124
Vědecký seminář doktorandů FIS – únor 2008
1-20 30 25 20 15 Intercept
10
x
5 0 1
7
13
19
25
31
37
43
49
55
61
67
73
79
85
91
97
-5 -10
Obrázek 3. Graf pro 100 pozorování, označuje rozdíl mezi správnou funkční hodnotou a vypočtenou MNČ.
4 Závěr Podařilo se splnit zadání a použít pro aplikace měření a regulace robustní regresní funkce, které odstranili problémy s vlivnými pozorováními v datech. Byla zvolena metoda LTS-regrese i přesto, že jiné metody by jistě poskytovaly vydatnější odhad. Ttato metoda však měla algoritmus, který byl náročný hlavně z důvodů opakování, avšak byl relativně jednoduchý a tedy snadno implementovatelný. Další doporučení, které vyplynulo ze zkoušek a simulací je, aby v případě chybného měření byla zasílána nebo načtena extrémní hodnota (míněno horní nebo dolní mez rozsahu měření, případně hodnoty mimo tyto meze). Například, když čidlo které nestačilo hodnotu změřit poslalo 0, tato hodnota je uprostřed rozsahu a ovlivní výslednou funkci, tzn. že metoda je vhodnější pro data, v nichž se nacházejí velmi odlehlá pozorování nebo přesně pro druhý typ dat, kde rozptyl chybové složky je veliký. Na simulovaných datech se prokázala vhodnost těchto odhadů a jejich použití. Při prováděných pokusech bylo zjištěno, že vzhledem k tomu, že se měřené veličiny nemění výrazně skokově a funkce se vypočítává z n posledních hodnot, směrnice se tudíž mění také velmi plynule. Této vlastnosti by šlo pravděpodobně dále využít pro odhalení poruchy měření. Další prostor výzkumu existuje ve vyzkoušení jiných robustních metod, případně dalšího vyzkoušení algoritmů uvedených metod
Vědecký seminář doktorandů FIS – únor 2008
125
s ohledem na možnosti jednotek. V neposlední řadě pak je zde možnost výzkumu kombinace kontaminací a jejich vlivu a případného přednastavení algoritmů do jednotek tak, aby mohly být voleny a měněny základní údaje dle typu úlohy.
Literatura [1] Antoch, J., Vorlíčková, D.: Vybrané metody statistické analýzy dat. Academia, Praha 1992. [2] Bryndák, M.: Některé aspekty robustní regrese. VŠE, Praha 2001. [3] Černý, J.: Srovnání vybraných metod robustní regrese s použitím SAS 9.1. Diplomová práce. VŠE, Praha 2005. [4] Chen, C.: Robust Regression and Outlier Detection with the ROBUSTREG Procedure. Proceedings of the Twenty-seventh Annual SAS Users Group International Conference. [5] Coleman, D., Holland, P., Kaden, N., Klema, V., Peters, S.C.: A „System of Subroutines for Iteratively Reweighted Least-Squares Computations“, ACM Transactions on Mathematical Software. [6] Hebák, P.: Regrese I. Část. VŠE, Praha 2001. [7] Hebák, P.: Regrese II. Část. VŠE, Praha 2001. [8] Holland, P., Welsch, R.: Robust Regression Using Interactively Reweighted Least-Squares, Commun. Statist. Theor. [9] Rousseeuw, P. J., Leroy, A. M.: Robust Regression and Outlier Detection. John Wiley and Sons, 2003.
Summary Selected Aspects of Robust Regression and Application in Measurements and Controls Systems The article focuses on comparison of robust regression analysis methods and least squares method namely for the present in model with one explanatory variable and one dependent variable, option appropriate robust methods with reference to experimentation effected in applications measurements and controls systems, where require estimate regression analysis function with the view of regulation conditions fit from measured data and with request of minimum computation resources and providing high quality and at the same time robustness estimates. To demonstrate fitness and juxtaposition, simulated data similar to experimental data were used.
126
Vědecký seminář doktorandů FIS – únor 2008
Postačující charakteristiky kvality modelu binární logistické regrese Lubomír Hanusek Doktorand oboru Statistika
Abstrakt. Tento příspěvek si klade za cíl demonstrovat, jak vyhodnotit predikční sílu modelu binární logistické regrese v případě, kdy jsou data uložena v databázi poskytující pouze základní matematické funkce a kdy není možné k jejich analýze využít statistický software. Klíčová slova: logistická regrese, lift křivka, Giniho koeficient, gains křivka, centrální limitní věta
1 Úvod Logistická regrese (dále LR) patří do skupiny klasifikačních metod. Jejím cílem je jednotky klasifikovat, tj. rozdělit do předem známých tříd. V našem příkladě se omezíme pouze na binární logistickou regresi, kdy cílová proměnná Y nabývá dvou kategorií, tj. Y ∈ {0,1} . Příkladem může být model, který predikuje, zda zákazník splatí anebo nesplatí úvěr, koupí si anebo nekoupí daný výrobek apod. Predikční síla modelu LR závisí na tom, jak dobře nám model umožňuje roztřídit jednotky do jednotlivých kategorií. K vyhodnocení se velmi často používá gains křivka, lift křivka a Giniho koeficient – viz obrázek 1. Gains křivka [2] (vyznačená černou čarou) znázorňuje predikční sílu testovaného modelu. Křivka určuje, kolik procent statistických jednotek z celého souboru (znázorněných na ose x) nám stačí na to, abychom získali zvolené procento jednotek (tzv. responsí), které predikujeme (ty jsou znázorněny na ose y). Obrázek 1 zobrazuje gains křivku modelu, který predikuje, zda-li zákazník bude mít zájem o koupi určitého produktu. Z grafu můžeme vyčíst, že vybereme-li testovaným modelem 10 % zákazníků, oslovíme tím 30 % všech potenciálních zájemců o daný výrobek. Náhodným modelem (vyznačený plnou šedou čarou) bychom oslovili pouze 10 % potenciálních kupců, ideálním modelem (vyznačeným tečkovanou čarou) pak 100 %. Podílem gains křivky testovaného a náhodného modelu získáme lift. Ten vyjadřuje, kolikrát je testovaný model na zvoleném kvantilu lepší oproti modelu
Vědecký seminář doktorandů FIS – únor 2008
127
náhodnému. Tak například na 10 % kvantilu jsme schopni s využitím modelu vybrat třikrát více potenciálních kupců nežli náhodně, tedy Lift(10 %) = 3.
100%
Resnponsí
80%
60%
40%
20%
0% 0%
10% 20% 30% 40% 50% 60% 70% 80% 90% 100% Jednotek Testovaný model
Náhodný model
Ideální model
Obrázek 1. Gains křivka klasifikačního modelu
Jiným ukazatelem predikční síly modelu je Giniho koeficient [2]. Nabývá hodnot od nuly do jedné. Nula nastává u zcela náhodného modelu, jedna pak v případě modelu ideálního. Počítá se dle vzorce
Gini = 2 * T − 1 ,
(1)
kde T vyjadřuje plochu pod gains křivkou testovaného modelu. Výpočet všech výše uvedených měr samozřejmě umožňuje statistický software. Uvažujme ale situaci, kdy jsme nuceni model vyhodnotit bez použití statistického softwaru. K dispozici máme pouze databázi, ve které je uložena cílová proměnná a její predikce ve formě pravděpodobnosti. Ruční výpočet gains křivky, ze které lze další míry kvality dopočítat, vyžaduje tyto operace: 1. 2.
128
setřídit statistické jednotky podle pravděpodobnosti sestupně, rozdělit jednotky do stejně četných intervalů (optimálně 100) ,
Vědecký seminář doktorandů FIS – únor 2008
3. 4. 5.
v každém intervalu určit četnost responsí (tj. počet jednotek s y = 1), kumulovat výsledky od prvního intervalu po poslední, převést údaje na procenta.
Hlavním problémem jsou zejména kroky 1 a 2, tedy časově náročné třídění rozsáhlých souborů a rozdělení do stejně četných intervalů vyžadující výpočet kvantilů. U některých databázových systému chybí i funkce číslo řádku (anebo pořadí záznamu), ze které by se daly kvantily případně dopočítat. Naštěstí lze všechny výše uvedené ukazatele kvality modelu velmi efektivně odhadnout, a to pouze ze tří čísel, která je možné získat i s použitím základním databázových funkcí bez nutnosti třídění souboru. Jsou zde pouze dva předpoklady:
2
•
ke klasifikaci byla použita metoda logistické regrese,
•
model má data miningový charakter, tj. mnoho pozorování a mnoho proměnných (řekněme sto tisíc pozorování a deset proměnných).
Centrální limitní věta
Pro objasnění odhadu měr kvality modelu je nutné uvést některé rysy logistické regrese, které pak budou pro odhad využity. Podstata této metody spočívá v nalezení takové lineární kombinace vstupních proměnných K
η = ∑ βi X i
(2)
,
i =1
která nejlépe separuje jednotky do obou kategorií, tj. nejlépe predikuje cílovou proměnnou Y. Lineární kombinace η (říkejme ji skóre) může být pak převedena na pravděpodobnost příslušnosti k dané kategorii, a to prostřednictvím této transformační funkce:
π 1 = P(Y = 1) =
exp(η ) 1 − exp(η )
.
(3)
Příjemnou vlastností logistické regrese je možnost použití jak číselných tak i nominálních proměnných. Není zde tedy, na rozdíl od lineární diskriminační analýzy [3], požadavek na normální rozdělení vstupních proměnných. Jejich
Vědecký seminář doktorandů FIS – únor 2008
129
lineární kombinace ovšem k normálnímu rozdělení přesto konverguje, a to docela rychle. Při použití mnoha proměnných lze u logistické regrese uplatnit centrální limitní větu [1] (dále CLV), podle níž lineární kombinace proměnných konverguje k normálnímu rozdělení s jinými parametry obou predikovaných kategorií. Čím větší je pak rozdíl mezi středními hodnotami skóre obou kategorií, tím má model vyšší schopnost jednotky správně klasifikovat. Ukažme si vše na příkladě. Výše zmíněný model na predikci zákazníků mající zájem o daný výrobek obsahuje pouze deset binárních vysvětlujících proměnných. Aplikací logistické regrese bylo získáno skóre, jehož rozdělení, zvlášť pro každou predikovanou kategorii, ilustruje obrázek 2. Na obrázku je patrná nejen vysoká shoda s rozdělením normálním, ale také rozdíl v průměrech jednotlivých histogramů. 30%
y=0
rel. četnost
25% 20% 15% 10% 5% 0% 0.3
-5.6 -5.0 -4.4 -3.8 -3.2 -2.6 -2.0 -1.3 -0.7 -0.1 y=1 skóre
0.5
1.1
-5.6 -5.0 -4.4 -3.8 -3.2 -2.6 -2.0 -1.3 -0.7 -0.1 skóre
0.5
1.1
rel. četnost
0.25 0.2 0.15 0.1 0.05 0
Obrázek 2. Histogram skóre, které vzniklo lineární kombinací deseti binárních proměnných
3
Postačující charakteristiky kvality modelu LR
Za předpokladu, že má skóre v každé kategorii normální rozdělení, lze jej popsat prostřednictvím těchto šesti charakteristik:
130
Vědecký seminář doktorandů FIS – únor 2008
•
počet pozorování ( n 0 , n1 ),
•
střední hodnoty skóre ( µ 0 , µ1 ),
•
rozptyly skóre ( σ 02 , σ 12 ).
Všechny výše uvedené údaje lze vypočítat jednoduchým SQL dotazem, který nevyžaduje ani žádné třídění souboru, ani žádné kvantily, pouze základní agregační funkce (viz obrázek 3). Select Y, Count(*) as n, Avg(Skore) as mean, Avg(Skore*Skore)-Avg(Skore)*avg(Skore) as var from Tabulka group by Y Obrázek 3. Ukázka SQL dotazu na výpočet postačujících charakteristik kvality modelu
Výsledkem SQL dotazu je tabulka 1. Obsahuje šest charakteristik, které se však snadnou úpravou dají převést na pouhá tři čísla se stejnou vypovídací hodnotou. Postup je následující: 1.
absolutní četnosti obou kategorií lze nahradit relativní četností jedné z nich ( p1 ),
2.
místo dvou středních hodnot lze použít jejich rozdíl ( µ10 ),
3.
místo dvou směrodatných odchylek nám stačí jejich podíl ( σ 10 ) Tabulka 1. Popis skóre šesti charakteristikami
µ n Y σ2 0 90 071 -2,620 0,832 1 9 929 -1,798 0,793
Vědecký seminář doktorandů FIS – únor 2008
131
Tabulka 2. Popis skóre třemi charakteristikami
µ10 = µ1 − µ 0 σ 10 = σ 1 / σ 0
p1 9,93 %
4
0,822
0,976
Odhad bodů gains křivky
Máme-li k dispozici údaje z tabulky 2, můžeme přistoupit k odhadu jednotlivých bodů gains křivky, a to jak testovaného, náhodného, tak i ideálního modelu. Nejjednodušší bude výpočet náhodného modelu, neboť procento responsí je shodné s procentem vybraných jednotek:
Resp rnd ( x p ) = p ,
(4)
kde x p představuje hodnotu p*100 %-ního kvantilu odhadnutého skóre. Pro výpočet ideálního modelu lze uvést příklad. Vybereme-li modelem p = 10 % pozorování s nejvyšší pravděpodobností, zacílíme tím maximálně •
100 % responsí v případě, kdy relativní četnost responsí v celém souboru je menší než 10 %, tj. p1 ≤ 10 % ,
•
p / p1 responsí v případě, kdy relativní četnost responsí v celém souboru je větší než 10 %, p1 > 10 % .
Tedy pro výpočet bodů křivky ideálního modelu platí vztah:
Respideal ( x p ) = min( p / p1 ;1) .
(5)
K výpočtu bodů gains křivky testovaného modelu potřebujeme znát ony tři údaje z tabulky 2, tj. µ10 , σ 10 , p1 . Pak platí, že
Resp( x p ) = (1 − F10 ( x p )) * p1 ,
(6)
kde F10 je distribuční funkce normálního rozdělení s parametry µ10 , σ 10 . Problém nastává s kvantilem x p , neboť se nedá přímo určit. Skóre totiž vznikne kombinací dvou normálních rozdělení. K výpočtu kvantilu je tedy nutné použít numerickou metodu, např. metodu půlení intervalu, přičemž hledá se taková hodnota x p , pro kterou platí, že
132
Vědecký seminář doktorandů FIS – únor 2008
p = (1 − F10 ( x p )) * p1 + (1 − Φ ( x p )) * (1 − p1 ) ,
(7)
kde Φ( x) je distribuční funkce normovaného normálního rozdělení. Skutečná gains křivka našeho modelu (predikujícího zákazníky mající zájem o daný výrobek) a její odhad je zobrazen na obrázku 4. Z obrázku je zřejmá až neuvěřitelně vysoká shoda obou křivek. Křivky téměř splývají, což svědčí o vysoké přesnosti odhadu.
100%
Resnponsí
80%
60%
40%
20%
0% 0%
10%
20%
30%
40% 50% Jednotek
Odhadnutá křivka
60%
70%
Skutečná křivka
80%
90%
100%
Náhodný model
Obrázek 4. Odhadnutá a skutečná gains křivka
5 5.1
Odhad dalších charakteristik Odhad liftu
Známe-li všechny body gains křivky, lze vypočítat další charakteristiky kvality modelu, tj. lift na zvoleném kvantilu a Giniho koeficient. Lift na p*100 % kvantilu lze určit vztahem:
Vědecký seminář doktorandů FIS – únor 2008
133
Lift( p) =
Resp( x p ) Resp rnd ( x p )
= (1 − F10 ( x p )) * p1 / p .
(8)
K odhadu Giniho koeficientu pak můžeme využít aproximativní vzorec:
Gini = 2 *
∑ Resp( x p ) − 2 * ∑ p ,
p∈M
p∈M
(9)
kde M ∈ (1 %, 2 %, K , 100 %) .
6
Chybovost odhadu
Za účelem přesné kvantifikace chybovosti výše uvedeného přístupu bylo využito simulace, jejíž podstatou bylo zjištění: 1.
jak vysoká chybovost nastává u jednotlivých měr, tj. Giniho koeficientu a liftu na 5 %, 10 % a 30 % kvantilu,
2.
jak je ovlivněna chybovost hodnotou p1 , tj. relativní četností predikované kategorie, jak je ovlivněna chybovost odhadu prediktivní sílou modelu.
3.
Výchozí situací byla data s těmito parametry: •
rozsah souboru n = 100.000,
•
četnost predikované kategorie p1 = 10 % ,
•
deset nezávislých vysvětlujících proměnných s alternativním rozdělením (s parametrem π = 50 %).
Soubor byl vygenerován stokrát, pokaždé s jinou prediktivní silou vysvětlujících proměnných. Na každý vygenerovaný soubor byla aplikována metoda logistické regrese se všemi vysvětlujícími proměnnými a výsledný model pak byl vyhodnocen jak popisovanou metodou odhadu, tak přesně. Chyba odhadu byla měřena následujícím vzorcem:
odhad míry − 1 . chyba = abs míra
(10)
Výsledky všech pokusů měřených na vybraných ukazatelích pro různou relativní četnost cílové proměnné jsou obsaženy v tabulce 3.
134
Vědecký seminář doktorandů FIS – únor 2008
Z daných výsledků vyplývá, že odhad Giniho koeficientu je vždy velmi přesný s maximální chybou kolem 1,7 %. U liftu očekávejme obecně horší výsledky. Ty však záleží i na dalších parametrech. Vyšší chybovost liftu lze očekávat: •
pokud měříme lift na nízkém kvantilu,
•
při nízké relativní četnosti predikované kategorie.
Naopak nižší chybovost lze očekávat: •
u liftu měřeném na vyšším kvantilu,
•
při vysoké relativní četnosti predikované kategorie.
Tabulka 3. Chybovost odhadu jednotlivých měr kvality při různých relativních četnostech cílové proměnné
p1 1% 10 % 50 %
Maximální naměřená chyba odhadu Lift(5 %) Lift(10 %) Lift(30 %) 5,2 % 3,0 % 1,6 % 3,1 % 2,3 % 2,2 % 1,3 % 1,2 % 1,1 %
Gini 1,7 % 1,5 % 1,7 %
Řádově se však jedná o procenta, což jsou velmi příznivá čísla. Ještě vyšší přesnost můžeme očekávat při použití vysvětlujících proměnných s normálním rozdělením, či při použití většího počtu vysvětlujících proměnných. Teoreticky má na přesnost odhadu vliv i velikost souboru. Vyšší rozsah souboru znamená větší přesnost odhadovaných charakteristik skóre. U souborů o rozsahu 100.000 pozorování a víc však bude mít tento faktor zanedbatelný vliv.
7
Závěr
V tomto článku bylo ukázáno, jak lze efektivně vyhodnotit prediktivní sílu modelu binární logistické regrese tehdy, jsou-li data uložena v databázi, která poskytuje pouze základní matematické operace. Bylo využito toho, že data miningové modely obsahují mnoho vysvětlujících proměnných, a tedy jejich lineární kombinace konverguje k normálnímu rozdělení. K popisu skóre, které je výstupem logistické regrese, pak stačí určit parametry daného rozdělení pro každou predikovanou kategorii a také velikost jednotlivých kategorií. Výpočet všech požadovaných údajů – postačujících charakteristik kvality modelu logistické regrese – nevyžaduje ani časově náročné třídění souboru, ani
Vědecký seminář doktorandů FIS – únor 2008
135
výpočet kvantilů. Čísla lze navíc jednoduchou úpravou zredukovat na tři údaje, které „postačují“ k odhadu bodů gains křivky, bodů lift křivky či Giniho koeficientu – nejpoužívanějších měr prediktivní síly klasifikačních modelů. Simulací bylo ukázáno, že všechny odhady jsou relativně přesné s chybou v řádu několika procent.
Literatura [1] Anděl, J.: Statistické metody. Matfyzpress, Praha 1998. [2] Berry, M.J.A, Linoff, G.S. Data Mining Techniques.: For Marketing, Sales, and Customer Relationship Management. Wiley, 2004. [3] Hebák, P., Hustopecký, J., Jarošová, E., Pecáková, I.:Vícerozměrné statistické metody (1). Informatorium, Praha 2004.
Summary Sufficient characteristics of predictive power of binary logistic regression models This article describes an alternative way, how to evaluate a predictive power of logistic regression models. It is based on the central limit theorem according to which a linear combination of predictors approaches the normal distribution. In this case predicted score produced by logistic regression can be described by means of parameters of normal distribution (separately for both categories of target variable). These parameters may be reduced into three numbers – I call them Sufficient Characteristics of Predictive Power of Logistic Regression Models. Calculation of these characteristics requires neither computation of percentiles nor time consuming sorting of a data set, which is useful in case of large data sets. These characteristics are then used to estimate points of gains charts, lift charts, Gini coefficient and others measures of quality of classification models.
136
Vědecký seminář doktorandů FIS – únor 2008
Modelování časových řad průměrných měsíčních teplot pomocí Box-Jenkinsovy metodologie Karel Helman Doktorand oboru Statistika
Abstrakt. Tento krátký článek se zabývá možnostmi modelování časových řad průměrných měsíčních teplot pomocí Box-Jenkinsovy metodologie a schopnostmi sestavených modelů SARIMA odhadovat budoucí vývoj těchto časových řad. Součástí předkládané analýzy je srovnání hodnot předpovídaných modely sestavenými v minulosti se skutečnými hodnotami časových řad a zkoumání, zda a jak se mění parametry modelů SARIMA pro měsíční teplotní časové řady sestavené v minulosti a dnes. Klíčová slova: Box-Jenkinsova metodologie, SARIMA modely, teplotní časové řady, průměrné měsíční teploty
1 Úvod V diplomové práci [2] byly pro časové řady průměrných měsíčních teplot ze sedmi vybraných měřících stanic sestaveny modely vycházející z pojetí modelování časových řad prostřednictvím Box-Jenkinsovy metodologie (ve všech případech se jednalo o modely SARIMA). Zdrojovými daty přitom byly časové řady s počátkem v lednu 1970 a koncem v prosinci 2003. Základní informace o měřících stanicích, z nichž analyzovaná data pocházejí, jsou v tabulce 1. Tento článek si klade dva hlavní cíle. Za prvé posoudit schopnost a úspěšnost výše zmíněných modelů (sestavených na základě časových řad s koncem v prosinci 2003) ohledně výpočtu předpovědí budoucího vývoje časových řad a za druhé sestavit obdobné modely pro aktualizované časové řady s koncem v prosinci 2007 pro následné posouzení eventuálních změn odhadovaných parametrů. Článek také volně navazuje na práci [3], ve které lze nalézt komentář k využití Box-Jenkinsovy metodologie v klimatologii v ČR, včetně odkazů na další odborné práce a literaturu zabývající se touto tématikou u nás i v zahraničí.
Vědecký seminář doktorandů FIS – únor 2008
137
Tabulka 1. Základní popis vybraných měřících stanic
Zeměpisná Zeměpisná Nadmořská šířka délka výška* Jméno stanice Kód stanice Brno B2BTUR01 49°9'35'' 16°41'44'' 241 České Budějovice C2CBUD01 48°57'42'' 14°28'5'' 388 Hradec Králové H3HRAD01 50°10'34'' 15°50'19'' 278 Ostrava O1PORU01 49°49'31'' 18°9'34'' 242 Plzeň L1PLZB01 49°47'21'' 13°23'12'' 328 Praha P1PKLM01 50°5'27'' 14°25'9'' 191 Ústí nad Labem U1ULMA03 50°37'32'' 14°3'32'' 150 * U většiny stanic zůstala jejich poloha ve sledovaném období neměnná.
2 Box-Jenkinsova metodologie V tomto pojetí je časová řada chápána jako řada stochastického charakteru, která je realizací stochastického procesu. Na rozdíl od dekompozičních metod, které kladou důraz především na práci se systematickými složkami časové řady, BoxJenkinsův přístup bere jako základní prvek konstrukce modelu časové řady reziduální složku a snaží se v této části časové řady nacházet systematičnosti. Nejobecnějším modelem, který lze pomocí Box-Jenkinsovy metodologie vytvořit, je model SARIMA(p,d,q)(P,D,Q)S, který má tvar
φ p ( B )Φ P ( B S )(1 − B) d (1 − B S ) D X t = θ q ( B )Θ Q ( B S )ε t ,
(1)
kde p je řád autoregresního nesezónního procesu AR, q je řád nesezónního procesu klouzavých průměrů MA, d řád nesezónního integrovaného procesu, písmena P, D a Q označují řády odpovídajících sezónních procesů, S je délka sezónnosti, Xt je časová řada a konečně εt je bílý šum. Širší teoretická pojednání o principech, výstavbě, či praktické návody na konstrukci a ověřování modelů Box-Jenkinsovy metodologie lze nalézt mj. v [1] a [4]. 2.1
Výpočet předpovědí
Při výpočtu předpovědí s minimální střední čtvercovou chybou např. na základě modelu SARIMA(1,0,0)(0,1,1)12 se vychází z vyjádření modelu v čase T+h
X T + h = φX T + h + X T + h−12 − φX T + h−13 + ε T + h − Θε T + h−12 ,
138
(2)
Vědecký seminář doktorandů FIS – únor 2008
kde T je tzv. prah predikce a h se označuje jako horizont predikce. Předpovědí hodnoty v čase T+h s minimální střední čtvercovou chybou je potom podmíněná střední hodnota náhodné veličiny XT+h, tedy
X T (h) = E ( X T + h X T , X T −1 ,...).
(3)
Například předpověď při znalosti průměrné měsíční teploty v čase T (např. prosinec 2003; při znalosti průměrných měsíčních teplot v lednu 2003, prosinci 2002 a chyby předpovědi v lednu 2003) na období následující (např. leden 2004) se určí podle
X T (1) = φX T + X T −11 − φX T −12 − Θε T −11 .
(4)
3 Provedené experimenty 3.1
Hodnocení schopnosti modelů předpovídat budoucí vývoj
V tabulce 2 jsou shrnuty modely prezentované ve [2], které byly sestaveny pro časové řady průměrných měsíčních teplot v období leden 1970 až prosinec 2003. V případě stanice U1ULMA03 nebyly k dispozici teploty v měsících leden 1975 a srpen a září 1988; tyto hodnoty software nahradil jejich odhady. Tabulka 2. SARIMA modely časových řad s koncem v prosinci 2003
parametry modelu Stanice AR(1) MA(1) SMA(1) B2BTUR01 0,1867 . 0,9432 C2CBUD01 . -0,1262 0,9424 H3HRAD01 0,1687 . 0,9392 L1PLZB01 0,1257 . 0,9426 O1PORU01 0,1854 . 0,9441 P1PKLM01 0,1409 . 0,9447 U1ULMA03 0,1540 . 0,9449 (.) část není v modelu přítomna Na základě těchto modelů byly vypočteny bodové a intervalové předpovědi (spolehlivost 95 %) budoucího vývoje časových řad pro období leden 2004 – prosinec 2007. Výsledky pro stanici C2CBUD01 jsou na obrázku 1. V tabulce 3 jsou
Vědecký seminář doktorandů FIS – únor 2008
139
k nahlédnutí měsíce z období 2004 – 2007, ve kterých průměrná měsíční teplota na některé ze stanic překročila horní, či dolní mez 95% intervalu spolehlivosti teploty odhadované modely. V tabulce 4 je potom přehled počtu a podílu výše zmíněných překročení, ke kterým na jednotlivých měřících stanicích došlo. C2CBUD01
Srovnání skutečného vývoje průměrných měsíčních teplot na stanici C2CBUD01 v období 2004-2007 a jejich bodových a intervalových předpovědí vypočtených na z ákladě SARIMA modelu sestaveného pro období 1970-2003
PředpC HorníC DolníC
23 18
°C
13 8 3 -2 -7 2004.1
2004.7
2005.1
2005.7
2006.1
2006.7
2007.1
2007.7
Rok.měsíc
Obrázek 1. Srovnání skutečně naměřených hodnot a předpovědí pro stanici C2CBUD01
Tabulka 3. Přehled měsíců z období 2004-2007, v nichž skutečná teplota vybočila z intervalového odhadu
Rok.měsíc 2006.1 2006.2 2006.3 2006.7 2006.8 2007.1
Stanice Všechny Brno Brno, Ústí Hradec, Praha, Ústí Brno Všechny
Tabulka 4. Počty a podíly vybočení skutečné měsíční teploty z 95% intervalového odhadu
ID stanice B2BTUR01 C2CBUD01 H3HRAD01 L1PLZB01 O1PORU01 P1PKLM01 U1ULMA03
Počet 5 2 3 2 2 3 4
Podíl 10,42% 4,17% 6,25% 4,17% 4,17% 6,25% 8,33%
Jak je vidět z obrázku 1, skutečně naměřená průměrná měsíční teplota na měřící stanici C2CBUD01 v období 2004 – 2007 překročila hranice 95% intervalu spolehlivosti pro odhad průměrné měsíční teploty, stanovené na základě modelu SARIMA pro období 1970 – 2003, pouze ve dvou (z celkového počtu 48) případech. Prvním z nich byl mrazivý leden roku 2006, kdy průměrná měsíční teplota –5,4 °C byla nižší, nežli dolní mez intervalového odhadu. Leden 2006 byl (platí pro všech
140
Vědecký seminář doktorandů FIS – únor 2008
7 sledovaných měřících stanic) z hlediska průměrné lednové teploty v rámci období 1970 – 2007 třetím nejchladnějším – nižší průměrná teplota v lednu byla naměřena pouze v letech 1985 a 1987. Druhým případem pak byl (naopak) velmi teplý (opět) leden v roce 2007, kdy průměrná teplota 3,2 °C představovala vůbec nejvyšší lednovou hodnotu za celé období 1970 – 2007. Z tabulky 4 je zřejmé, že stanice C2CBUD01 (spolu se stanicemi L1PLZB01 a O1PORU01) je stanicí s nejnižším počtem vybočení skutečné průměrné měsíční teploty z hranic vymezujících intervalový odhad. Stanicí s nejvyšším počtem vybočení je stanice B2BTUR01 – viz obrázek 2. Konkrétní případy, kdy k vybočením došlo, jsou samozřejmě také v tabulce 3. B2BTUR01
Srovnání skutečného vývoje průměrných měsíčních teplot na stanici B2BTUR01 v období 2004-2007 a jejich bodových a intervalových předpovědí vypočtených na z ákladě SARIMA modelu sestaveného pro období 1970-2003
PředpB HorníB DolníB
23 18
°C
13 8 3 -2 -7 2004.1
2004.7
2005.1
2005.7
2006.1
2006.7
2007.1
2007.7
Rok.měsíc
Obrázek 2. Srovnání skutečně naměřených hodnot a předpovědí pro stanici B2BTUR01
3.2
Aktualizace parametrů modelů SARIMA
Časové řady průměrných měsíčních teplot v období 1970 – 2003, na jejichž základě byly vypočteny modely v tabulce 2, byly prodlouženy o aktuální hodnoty průměrných měsíčních teplot v období 2004 – 2007. Pro takto aktualizované časové řady byly obdobnou metodikou, která byla využita a detailně popsána v [2], sestaveny nové modely SARIMA. Přehled parametrů modelů pro jednotlivé měřící stanice je v tabulce 5.
Vědecký seminář doktorandů FIS – únor 2008
141
Tabulka 5. SARIMA modely časových řad s koncem v prosinci 2007
parametry modelu stanice AR(1) MA(1) SMA(1) B2BTUR01 0,2111 . 0,9515 C2CBUD01 0,1526 . 0,9485 H3HRAD01 0,1707 . 0,9639 L1PLZB01 0,1545 . 0,9519 O1PORU01 0,2209 . 0,9511 P1PKLM01 0,1705 . 0,9491 U1ULMA03 0,1836 . 0,9507 (.) část není v modelu přítomna Jak je patrné na první pohled, tak největším rozdílem mezi obsahem tabulek 2 a 5 jsou parametry modelu pro stanici C2CBUD01, kdy v novém modelu byla část MA(1) vystřídána částí AR(1). Tutou skutečnost nelze považovat za překvapivou – jako hlavní kritérium pro rozhodnutí, zda do modelu zahrnout část MA(1), či AR(1), sloužila hodnota MSE, která se často lišila opravdu nepatrně (čtvrté desetinné místo). V případě parametru Θ sezónní části klouzavých průměrů prvního řádu došlo u všech sedmi měřících stanic k jeho zvýšení u nových modelů ve srovnání s modely sestavenými v minulosti. Toto zvýšení se pohybovalo přibližně okolo hodnoty 0,006. Ke zvýšení u modelů pro všechny stanice došlo také u parametru φ nesezónní autoregresní části prvního řádu, který se zvýšil přibližně o 0,03.
4 Závěr Modely SARIMA se pro výpočet předpovědí budoucího vývoje časových řad průměrných teplot ukázaly jako poměrně vhodné. U třech ze sedmi zvolených měřících stanic byly hranice 95% intervalu spolehlivosti pro odhad průměrné měsíční teploty (na základě modelů časových řad s koncem v prosinci 2003) v období 2004 – 2007 překročeny v méně, než v 5 % případů. U zbylých čtyřech stanic došlo k překročení ve více případech. Jako nejobtížnější pro předpověď by se z tohoto pohledu jevila stanice B2BTUR01, kde byly hranice intervalového odhadu překročeny celkem v 10,42 % případů. Co se změn parametrů modelů SARIMA týká, tak prodloužení zdrojových časových řad o poslední čtyři roky vedlo ke zvýšení obou přítomných parametrů. Parametr Θ se zvýšil v řádu několika tisícin, parametr φ pak o několik setin.
142
Vědecký seminář doktorandů FIS – únor 2008
Literatura [1] Arlt, J., Arltová M.: Ekonomické časové řady. GRADA Publishing, Praha 2007. [2] Helman, K.: Analýza teplotních časových řad. Diplomová práce. VŠE, Praha 2005. [3] Helman, K.: Analýza vývoje sezónnosti průměrných měsíčních teplot v Praze-Klementinu v období 1775-2006. Sborník prací účastníků vědeckého semináře doktorského studia FIS. Oeconomica, Praha 2007, 142–152. [4] Kozák, J., Hindls, R., Arlt, J.: Úvod do analýzy ekonomických časových řad. VŠE, Praha 1994.
Summary Modelling of monthly average-temperature time series by means of BoxJenkins methodology This article deals with the possibilities of monthly average-temperature time series modelling by Box-Jenkins methodology and the abilities of the constructed SARIMA models to estimate future development of these time series. Part of this analysis is the comparison of values (temperatures) predicted by the models constructed in the past with the true recorded values of time series, as well as the research whether and how the parameters of SARIMA models for monthly average-temperature time series constructed in the past and nowadays change or not.
Vědecký seminář doktorandů FIS – únor 2008
143
Maxima´lneˇ veˇrohodny´ odhad stochasticke´ diferencia´lnı´ rovnice s kubicky´m driftem a konstantnı´ difu´zı´ ∗ Kamil Kladı´vko Doktorand oboru Statistika
Abstrakt. Prˇedstavı´me metodu maxima´lnı´ veˇrohodnosti pro odhad stochasticke´ diferencia´lnı´ (SDE) rovnice s kubicky´m driftem a konstantnı´ difu´zı´. Metoda spole´ha´ na explicitnı´ aproximaci prˇechodove´ hustoty SDE pomocı´ rozvoje Hermitovy´ch polynomu˚. Upozornı´me na proble´my spojene´ s odhadem procesu, ktery´ ma´ blı´zko k nestacionariteˇ. V Monte Carlo studii porovna´me metodu maxima´lnı´ veˇrohodnosti s metodou odhadu zalozˇenou na prˇiblizˇova´nı´ parametricke´ margina´lnı´ hustoty procesu k jejı´mu neparametricke´mu odhadu. Klı´cˇova´ slova: odhady parametru˚ stochasticky´ch diferencia´lnı´ch rovnic, metoda maxima´lnı´ veˇrohodnosti, Hermitovy polynomy, prˇechodova´ hustota pravdeˇpodobnosti
´ vod 1 U Na veˇdecke´m semina´rˇi FIS v roce 2007 jsme prˇedstavili model vy´nosove´ krˇivky zalozˇeny´ na metodeˇ hlavnı´ch komponent (PCA) a nelinea´rnı´ch stochasticky´ch diferencia´lnı´ch rovnicı´ch (SDE). Proces vy´nosove´ krˇivky jsme pomocı´ PCA transformovali na linea´rneˇ neza´visle´ procesy hlavnı´ch komponent, ktere´ modelujeme pomocı´ tzv. kubicke´ho driftu a konstantnı´ difu´ze: dXt = (α0 + α1 Xt + α2 Xt2 + α3 Xt3 )dt + β0 dWt ,
(1)
kde {Xt , t ≥ 0} je difu´znı´ proces hlavnı´ komponenty, θ ≡ (α0 , α1 , α2 , α3 , β0 ) je vektor parametru˚ a {Wt , t ≥ 0} je Brownu˚v pohyb. V subkapitole 3.2 prˇ´ıspeˇvku [3] je uka´za´no, zˇe prvnı´ trˇi hlavnı´ komponenty vysveˇtlı´ prˇes 99,9 % variability cˇeske´ vy´nosove´ krˇivky dennı´ch pozorova´nı´ z let 1998 azˇ 2006. Pro plnou specifikaci navrzˇene´ho modelu je potrˇeba odhadnout vektor parametru˚ θ procesu (1) pro kazˇdou z prvnı´ch trˇ´ı hlavnı´ch komponent vy´nosove´ krˇivky. ∗ Tato
144
pra´ce vznikla za podpory grantu IG VSˇE 410067
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
V prˇ´ıspeˇvku [3] jsem pro odhad vektoru parametru˚ θ pouzˇili metodu prˇiblizˇova´nı´ parametricke´ margina´lnı´ hustoty procesu k jejı´mu neparametricke´mu odhadu, metoda je oznacˇovana´ jako Marginal Density Matching (MDM). Tento zpu˚sob odhadu byl prˇedstaven v [4], kde je doka´za´na asymptoticka´ nevychy´lenost odhadu˚. Ta je ovsˇem implicitneˇ odvozena na prˇedpokladu i.i.d. velicˇin, cozˇ samozrˇejmeˇ nenı´ prˇ´ıpad u´rokovy´ch sazeb, ani jejich linea´rnı´ transformace v podobeˇ hlavnı´ch komponent. Jako metoda prvnı´ volby je v cele´ rˇadeˇ prˇ´ıpadu˚ pouzˇ´ıva´na metoda maxima´lnı´ veˇrohodnosti (ML). Ta vyzˇaduje znalost prˇechodove´ hustoty pravdeˇpodobnosti stochasticke´ho procesu. To bohuzˇel nenı´ prˇ´ıpad procesu (1), kde prˇechodova´ hustota ˇ esˇenı´ nabı´zı´ cˇla´nek [5], kde je navrzˇena aproximace prˇechonema´ explicitnı´ tvar. R dove´ hustoty difu´znı´ho procesu v explicitnı´m tvaru.
2 Metoda maxima´lnı´ veˇrohodnosti pro SDE s kubicky´m driftem a konstantnı´ difu´zı´ Meˇjme cˇasovou rˇadu xti , i = 1, . . . , N s veˇrohodnostnı´ funkcı´ L(θ) =
N −1 Y
p(xti+1 |xti ; θ, ∆t),
(2)
i=1
kde p(xti+1 |xti ; θ, ∆t) je prˇechodova´ (podmı´neˇna´) hustota pravdeˇpodobnosti1 . Vy´pocˇetneˇ jednodusˇsˇ´ı je pracovat s logaritmem veˇrohodnostnı´ funkce (2): ln L(θ) =
N −1 X
ln p(xti+1 |xti ; θ, ∆t).
(3)
i=1
Maxima´lneˇ veˇrohodny´ odhad θˆ vektoru parametru˚ θ najdeme maximalizacı´ logaritmu veˇrohodnostnı´ funkce (3) prˇes parametricky´ prostor. Pro prˇ´ıpad kubicke´ho driftu s konstantnı´ difu´zı´ rˇesˇ´ıme: θˆ ≡ (αˆ0 , αˆ1 , αˆ2 , αˆ3 , βˆ0 ) = arg max ln L(θ). θ
(4)
2.1 Aproximace prˇechodove´ hustoty pomocı´ rozvoje Hermitovy´ch polynomu˚ Pro aproximaci prˇechodove´ hustoty SDE s kubicky´m driftem a konstantnı´ difu´zı´ pouzˇijeme techniku vyvinutou v [5]. Mysˇlenka aproximace prˇechodove´ hustoty je 1 Vzhledem k tomu, z ˇ e prˇechodova´ hustota velicˇiny xti+1 je podminˇova´na pouze hodnotou xti , je tento za´pis veˇrohodnostnı´ funkce platny´ pouze pro Markovovy procesy. Difu´znı´ procesy patrˇ´ı do trˇ´ıdy Markovovy´ch procesu˚.
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
145
zalozˇena na rozvoji Hermitovy´ch polynomu˚. V tomto textu pouze uva´dı´me za´kladnı´ kroky te´to aproximace: 1. Obecny´ difu´znı´ proces transformuje na difu´znı´ proces s jednotkovou difu´zı´. 2. Na difu´znı´m procesu s jednotkovou difu´zı´ je mozˇne´ prove´st rozvoj jeho prˇechodove´ hustoty zalozˇeny´ na Hermitovy´ch polynomech. Za´kladnı´ cˇlen rozvoje ma´ norma´lnı´ rozdeˇlenı´. Na´sleduje cˇlen, ktery´ koriguje prˇ´ıtomnost driftu. Dalsˇ´ı cˇleny rozvoje vyvazˇujı´ nenormalitu procesu s jednotkovou difu´zı´ a opravujı´ zkreslenı´ zaprˇ´ıcˇineˇne´ za´kladnı´m cˇlenem. Pocˇet teˇchto dalsˇ´ıch cˇlenu˚ urcˇuje rˇa´d rozvoje. Vsˇechny cˇleny rozvoje majı´ explicitnı´ tvar. 3. V poslednı´m kroku je proces s jednotkovou difu´zı´ transformova´n zpeˇt na pu˚vodnı´ difu´znı´ proces. Zı´ska´va´me aproximaci prˇechodove´ hustoty v explicitnı´m tvaru pro proces nasˇeho za´jmu. Detailnı´ popis viz [5], prakticke´ prˇ´ıklady aplikovane´ na difu´znı´ procesy pouzˇ´ıvane´ v modelova´nı´ u´rokovy´ch sazeb prˇina´sˇ´ı doprovodny´ cˇla´nek [6]. V cˇla´nku [2] jsou v Monte Carlo studii porovna´va´ny dostupne´ metody odhadu SDE v prˇ´ıpadeˇ, zˇe prˇechodova´ hustota nema´ explicitnı´ tvar. Metoda maxima´lnı´ veˇrohodnosti zalozˇena´ na aproximaci prˇechodove´ hustoty pomocı´ rozvoje Hermitovy´ch polynomu˚ vycha´zı´ ze studie jednoznacˇneˇ nejle´pe. Oproti ostatnı´m metoda´m poskytuje odhady s nejmensˇ´ı chybou a s relativneˇ nı´zkou vy´pocˇetnı´ na´rocˇnostı´. 2.2 Aproximace prˇechodove´ hustoty SDE s kubicky´m driftem a konstantnı´ difu´zı´ a maxima´lnı´ veˇrohodnost Postupem uvedeny´m vy´sˇe zı´ska´va´me aproximaci prˇechodove´ hustoty SDE s kubicky´m driftem a konstantnı´ difu´zı´. To na´m umozˇnı´ odhadnout vektor parametru˚ θ pomocı´ metody maxima´lnı´ veˇrohodnosti. Metodu maxima´lnı´ veˇrohodnosti zalozˇenou na aproximaci prˇechodove´ hustoty pomocı´ rozvoje Hermitovy´ch polynomu˚ oznacˇ´ıme jako HEML (Hermite Expansion Maximum Likelihood). Odhady zı´skane´ metodou HEML konvergujı´ k odhadu˚m, ktere´ bychom zı´skali „skutecˇnou“ metodou maxima´lnı´ veˇrohodnosti a sdı´lejı´ stejne´ asymptoticke´ vlastnosti. Du˚kazy uva´dı´ [5]. Logaritmus aproximace prˇechodove´ hustoty SDE s kubicky´m driftem a konstantnı´ difu´zı´, ktery´ dosazujeme logaritmicko-veˇrohodnostnı´ funkce (3) uva´dı´me do druhe´ho
146
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
rˇa´du rozvoje Hermitovy´ch polynomu˚2 : ln pe(2) (xti+1 |xti ; θ, ∆t) = ln pe(0) (xti+1 |xti ; θ, ∆t) + c1 ∆t + c2
(∆t)2 , 2
(5)
kde pe(0) (xti+1 |xti ; θ, ∆t) obsahuje za´kladnı´ cˇlen rozvoje a cˇlen korigujı´cı´ prˇ´ıtomnost driftu, c1 a c2 oznacˇujı´ rozvoj prvnı´ho, respektive druhe´ho rˇa´du Hermitovy´ch polynomu˚. V na´sledujı´cı´m znacˇenı´ je pro lepsˇ´ı cˇitelnost xti+1 nahrazeno symbolem x a xti symbolem x0 . ln p e(0) (x|x0 ; θ, ∆t)=−
1 (x − x0 )2 + 12α0 (x − x0 ) + 6α1 (x2 − x20 ) ln(2π∆t) − ln(β0 ) − 2 2β02 ∆t
+4α2 (x3 − x30 ) + 3α3 (x4 − x40 ) /(12β02 )
c1 = −
1 210α20 + 70α21 (x2 + xx0 + x20 ) + 35α0 6α1 (x + x0 ) + 4α2 (x2 + xx0 + x20 ) 420β02
+3α3 (x3 + x2 x0 + xx20 + x30 ) + 21α1 10β02 + 5α2 (x3 + x2 x0 + xx20 + x30 )
+4α3 (x4 + x3 x0 + x2 x20 + xx30 + x40 ) + 2 21α22 (x4 + x3 x0 + x2 x20 + xx30 +x40 ) + 35α2 (x + x0 )(3β02 + α3 (x4 + x2 x20 + x40 )) + 15α3 7β02 (x2 + xx0 +x20 ) + α3 (x6 + x5 x0 + x4 x20 + x3 x30 + x2 x40 + xx50 + x60 ) c2 =
1 −35α21 − 105α3 β02 − 63α22 x2 − 140α2 α3 x3 − 75α23 x4 − 84α22 xx0 210 −210α2 α3 x2 x0 − 120α23 x3 x0 − 63α22 x20 − 210α2 α3 xx20 − 135α23 x2 x20 −140α2 α3 x30 − 120α23 xx30 − 75α23 x40 − 35α0 (2α2 + 3α3 (x + x0 )) −21α1 5α2 (x + x0 ) + 2α3 (3x2 + 4xx0 + 3x20 )
3 Empiricke´ porovna´nı´ HEML a MDM Vy´sˇe uvedenou metodu odhadu Hermite Expansion Maximum Likelihood porovna´me s metodou Marginal Density Matching, tj. s metodou pouzˇitou v [3]. Odhadujeme vektor parametru˚ θ ≡ (α0 , α1 , α2 , α3 , β0 ) SDE (1) z cˇasovy´ch rˇad prvnı´ch trˇ´ı hlavnı´ch komponent P C1 , P C2 a P C3 cˇeske´ vy´nosove´ krˇivky pouzˇite´ v [3]. Pro P C2 a P C3 se hodnoty odhadu˚ lisˇ´ı v rˇa´du procent (maxima´lneˇ 50 % pro αˆ1 P C3 ), avsˇak pro P C1 jsou hodnoty odhadu˚ vy´razneˇ odlisˇne´. Vy´sledky porovna´vany´ch metod odhadu demonstruje obra´zek 1, kde jsou vykresleny margina´lnı´ hustoty SDE (1) implikovane´ hodnotami αˆ0 , αˆ1 , αˆ2 , αˆ3 a βˆ0 , a to pro odhady zı´skane´ metodou HEML a da´le metodou MDM. Z obra´zku 1 je patrne´, zˇe pro P C3 2 Druhy ´
rˇa´d rozvoje je dle [5] a [6] pro financˇnı´ modelova´nı´ zcela postacˇujı´cı´.
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
147
Obra´zek 1. Grafy zobrazujı´ mariga´nlnı´ hustoty SDE (1) implikovane´ hodnotami αˆ0 , αˆ1 , αˆ2 , αˆ3 a βˆ0 . Levy´ graf zobrazuje vy´sledky pro P C3 , pravy´ graf pro P C1 . Tecˇkovaneˇ je zobrazen neparametricky´ odhad margina´lnı´ hustoty zı´skany´ gausovskou ja´drovou funkcı´. Cˇa´rkovaneˇ je vykreslena margina´lnı´ hustota implikovana´ metodou MDM, tj. metodou, kdy se parametricka´ margina´lnı´ hustota prˇiblizˇuje ke sve´mu neparametricke´mu odhadu (tecˇkovaneˇ). Plneˇ je zobrazena margina´lnı´ hustota implikovana´ metodou HEML.
jsou porovna´vane´ margina´lnı´ hustoty ve shodeˇ, cozˇ je v souladu s relativnı´ shodou parametru˚. To vsˇak neplatı´ pro margina´lnı´ hustoty P C1 , kdy margina´lnı´ hustota implikovana´ HEML je vy´razneˇ sˇpicˇateˇjsˇ´ı a posunuta´ doprava oproti neparametricke´mu odhadu margina´lnı´ hustoty, a tedy i hustoteˇ implikovane´ MDM. Du˚vodem je zcela odlisˇny´ odhad parametru α3 : MDM odhadne αˆ3 = −1, 292 × 10−4 , HEML odhadne αˆ3 = −1, 7 × 10−13 ! Nutna´ podmı´nka pro stacionaritu procesu (1) je α3 < 0. Odhad metodou HEML signalizuje, zˇe cˇasova´ rˇada P C1 ma´ velmi blı´zko k nestacionariteˇ.
4 Monte Carlo studie porovna´vany´ch metod odhadu Vzhledem k vy´razneˇ rozdı´lny´m odhadu˚m parametru˚ pro P C1 jsme provedli simulacˇnı´ studii. Pro odhady parametru˚ P C1 a P C3 zı´skane´ metodou MDM jsme nasimulovali
148
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
1000 cest vy´voje SDE (1). De´lku simulacı´ jsme stanovili na 5000 hodnot, tj. kazˇda´ simulace cesty prˇedstavuje dvacetiletou cˇasovou rˇadu dennı´ch pozorova´nı´ (uvazˇujeme obchodnı´ dni). Simulace zachycuje obra´zek 2. Pouzˇite´ parametry SDE (1) zarucˇujı´
Obra´zek 2. Levy´ graf obsahuje 1000 simulacı´ cest P C3 . Pravy´ graf 1000 simulacı´ cest P C1 .
„definicˇnı´ “ stacionaritu simulovany´ch cest P C1 a P C3 . Je trˇeba podotknout, zˇe cˇasoveˇ spojity´ proces (1) nema´ prˇechodovou hustotu v explicitnı´m tvaru a nenı´ tedy mozˇne´ tento proces simulovat nezkresleneˇ. Simulace jsme provedli pomocı´ Eulerovi diskretizace s krokem 1/100, tj. mezi simulovanou hodnotou i a i+1, kde i = 1, . . . , 5000 je vygenerova´no 99 hodnot. Pouzˇita´ „jemnost“ simulacı´ by meˇla zarucˇit prˇiblı´zˇenı´ se k cˇasoveˇ spojite´mu procesu. 4.1 HEML a MDM odhady na simulovany´ch cˇasovy´ch rˇada´ch Pro kazˇdou simulovanou cestu jsme pote´ odhadli parametry α0 , α1 , α2 , α3 a β0 . Pru˚meˇry odhadu˚ vcˇetneˇ skutecˇny´ch hodnot parametru˚ uva´dı´ tabulka 1. Porovna´nı´m pru˚meˇru˚ odhadu˚ se skutecˇny´mi hodnotami parametru˚ mu˚zˇeme posuzovat, zda metoda odhadu poskytuje nezkreslene´ odhady. Je patrne´, zˇe odhady pro P C1 jsou vychy´lene´ u obou metod odhadu. Metoda HEML podhodnocuje odhad parametru α3 vy´razneˇ vı´ce nezˇ metoda MDM. V prˇ´ıpadeˇ procesu P C3 lze usuzovat, zˇe HEML odhady konvergujı´ ke skutecˇny´m hodnota´m parametru˚, ale odhady zı´skane´ pomocı´ MDM
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
149
Tabulka 1. Odhady parametru˚ kubicke´ho driftu s konstantnı´ difu´zı´ pro prvnı´ trˇi hlavnı´ komponenty cˇeske´ vy´nosove´ krˇivky. ED oznacˇuje tzv. naivnı´ odhady zı´skane´ pomocı´ OLS na diskretizovanou verzi (Eulerova diskretizace) procesu (1). ED odhady se take´ oznacˇujı´ jako naivnı´ maxima´lneˇ veˇrohodne´ odhady, nebot’OLS je v tomto prˇ´ıpadeˇ ekvivalentnı´ s metodou maxima´lnı´ veˇrohodnosti. ED odhady jsou pouzˇ´ıva´ny jako pocˇa´tecˇnı´ hodnoty prˇi optimalizaci HEML.
P C1 α0 α1 α2 α3 β0
real values +6, 46 × 10−4 −3, 76 × 10−4 −3, 60 × 10−4 −1, 29 × 10−4 +4, 47 × 10−3
MDM +4, 65 × 10−4 −1, 81 × 10−3 +2, 11 × 10−4 −3, 81 × 10−4 +4, 46 × 10−3
HEML +5, 81 × 10−4 −1, 53 × 10−3 +3, 51 × 10−4 −9, 06 × 10−4 +4, 47 × 10−3
ED +5, 78 × 10−4 −1, 53 × 10−3 +3, 34 × 10−4 −8, 94 × 10−4 +4, 46 × 10−3
P C3 α0 α1 α2 α3 β0
real values +1, 05 × 10−3 −5, 82 × 10−2 −4, 47 × 10−1 −2, 51 × 10+0 +4, 55 × 10−4
MDM +6, 12 × 10−4 −4, 97 × 10−2 −2, 22 × 10−1 −1, 10 × 10+0 +4, 38 × 10−4
HEML +1, 04 × 10−3 −5, 79 × 10−2 −4, 47 × 10−1 −2, 62 × 10+0 +4, 55 × 10−4
ED +8, 87 × 10−4 −5, 76 × 10−2 −3, 86 × 10−1 −2, 25 × 10+0 +4, 21 × 10−4
jsou vychy´lene´. Variabilitu odhadu˚ pro P C1 a P C3 zobrazuje obra´zek 3, respektive obra´zek 4. Odhady pro P C1 se vyznacˇujı´ vysokou variabilitou a velky´m pocˇtem extre´mnı´ch hodnot. Metoda MDM poskytuje me´neˇ variabilnı´ odhady. 4.2 Proble´my se stacionaritou Vychy´lenost odhadu˚ P C1 , jejich vysoka´ variabilita a znacˇny´ pocˇet extre´mnı´ch hodnot je da´n pouzˇitou parametrizacı´ SDE, ktera´ ma´ blı´zko k jednotkove´mu korˇenu, tj. k nestacionariteˇ. Nestacionaritu simulovany´ch cˇasovy´ch rˇad otestujeme pomocı´ ADF testu (Augmented Dickey-Fuller test). Pp ADF test je zalozˇen na modelu ∆xt = φxt−1 + j=1 φj ∆xt−j + ut . Pocˇet zpozˇdeˇny´ch promeˇnny´ch volı´me p = 7. Testovou statistiku ADF testu spocˇteme ˆ ˆ kde ase(φ) ˆ je odhad asymptoticke´ smeˇrodatne´ chyby odhadu φ. ˆ jako τˆ = φ/ase( φ), Nulova´ hypote´za H0 je nestacionarita (jednotkovy´ korˇen). Podrobneˇjsˇ´ı informace o ADF testu lze najı´t naprˇ. v [1]. Vy´sledky testova´nı´ nestacionarity shrnuje tabulka 2. ADF test podporuje tvrzenı´, zˇe pouzˇita´ parametrizace procesu P C1 ma´ blı´zko k nestacionariteˇ.
150
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
Obra´zek 3. Krabicˇkove´ grafy odhadu˚ pro P C1 . Prˇ´ımka prˇes cely´ graf vyznacˇuje skutecˇnou hodnotu parametru. Prˇ´ımka uvnitrˇ krabicˇky je pru˚meˇr odhadu˚, viz tabulka 1. Ohranicˇenı´ krabicˇky prˇedstavuje dolnı´ a hornı´ kvartil. „Vousy“ krabicˇky majı´ de´lku 1, 5 na´sobku de´lky mezikvartilove´ho rozpeˇtı´. Extre´mnı´ hodnoty jsou zna´zorneˇny krˇ´ızˇkem. ED oznacˇuje OLS odhady, podrobneˇji viz tabulka 1.
Tabulka 2. Vy´sledky ADF testu pro simulovane´ cˇasove´ rˇady P C1 a P C3 .
pocˇet nestaciona´rnı´ch (nezamı´ta´me H0 ) pocˇet staciona´rnı´ch (zamı´ta´me H0 ) kriticka´ hodnota na 5 % hladineˇ pru˚meˇrna´ hodnota testove´ statistiky τˆ
P C1 787 213 -1,95 -1,58
P C3 0 1000 -1,95 -12,03
4.3 HEML nebo MDM? Jakou metodu odhadu SDE s kubicky´m driftem a konstantnı´ difu´zı´ zvolit? MDM poskytuje zkreslene´ odhady, ale v prˇ´ıpadeˇ, zˇe parametrizace SDE ma´ blı´zko k jednotkove´mu korˇenu, lze tento zpu˚sob odhadu doporucˇit. Na empiricky´ch datech se jevı´
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
151
Obra´zek 4. Krabicˇkove´ grafy odhadu˚ pro P C3 , podrobneˇji viz obra´zek 3.
jako vı´ce robustnı´ a me´neˇ zkresleny´ pro odhad parametru α3 , ktery´ zajisˇt’uje stacionaritu. V prˇ´ıpadeˇ, zˇe je proces staciona´rnı´, je metodou prvnı´ volby metoda HEML.
5 Za´veˇr Prˇedstavili jsme metodu maxima´lnı´ veˇrohodnosti pro odhad stochasticke´ diferencia´lnı´ (SDE) rovnice s kubicky´m driftem a konstantnı´ difu´zı´. Metoda spole´ha´ na aproximaci prˇechodove´ hustoty SDE pomocı´ rozvoje Hermitovy´ch polynomu˚. Aproximace prˇechodove´ hustoty ma´ explicitnı´ tvar. Analyzovali jsme proble´my spojene´ s odhadem procesu, ktery´ ma´ blı´zko k nestacionariteˇ. V Monte Carlo studii jsem porovnali uvedenou metodu maxima´lnı´ veˇrohodnosti s metodou odhadu zalozˇenou na prˇiblizˇova´nı´ parametricke´ margina´lnı´ hustoty procesu k jejı´mu neparametricke´mu odhadu.
152
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
Literatura [1] Arlt J., Arltova´ M.: Financˇnı´ cˇasove´ rˇady. Grada Publishing, Praha 2003. [2] Jensen B., Poulsen R.: Transition Densities of Diffusion Processes: Numerical Comparison of Approximation Techniques. The Journal of Derivatives, Summer 2002, 18-32. [3] Kladı´vko K., Cı´cha M., Zimmmermann P.: Modelova´nı´ vy´nosove´ krˇivky pomocı´ metody hlavnı´ch komponent a nelinea´rnı´ch stochasticky´ch diferencia´lnı´ch rovnic. Veˇdecky´ semina´rˇ FIS VSˇE 2007, 129-141. [4] Sahalia Y.: Testing Continuous-Time Models of the Spot Interest Rate. The Review of Financial Studies, 9 (1996), 2, 385-426. [5] Sahalia Y.: Maximum Likelihood Estimation of Discreteley Sampled Diffusions: A Closed-From Approximation Approach. Econometrica, 1 (2002), 70, 223-262. [6] Sahalia Y.: Transition Densities for Interest Rate and Other Nonlinear Diffusion. The Journal of Finance, 4 (1999), 54, 1361-1395.
Summary Maximum Likelihood Estimator of the Stochastic Differential Equation with Cube Drift and Constant Diffusion We propose a maximum likelihood estimator of the stochastic differential equation with a cube drift and a constant diffusion. Using Hermite polynomials, it is possible to construct an explicit approximation of the transition density function. This technique has been developed in [4]. We discuss parameter estimation of the cube drift and constant diffusion process when close to nonstationarity. We run a Monte Carlo study to compare the maximum likelihood estimator to the marginal density matching estimator.
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
153
Statistické modelování rozdělení mezd Roman Pavelka Doktorand oboru Statistika
Abstrakt. Článek se zabývá problematikou pravděpodobnostních rozdělení jako modelů pro mzdová rozdělení a teoretickými přístupy k jejich modelování. Znalost rozdělení mezd zaměstnanců, resp. příjmů obyvatelstva, je významným předpokladem posouzení životní úrovně, kvality ekonomického zabezpečení a měřítkem sociální spravedlnosti v rozdělování materiálních hodnot vytvořených společností. V závěru tohoto příspěvku se vybraná modelová rozdělení porovnají s výdělkovými rozděleními sledovanými empiricky v průběhu několika časových období. To umožní posoudit vhodnost modelových rozdělení pravděpodobnosti s reálnými rozděleními a sledování změn v rozdělování mezd po dobu sledovaného období. Klíčová slova: mzdové rozdělení, statistické modelování, pravděpodobnostní rozdělení, parametrické a neparametrické modely
1 Úvod Ke sledování obecné mzdové úrovně jsou k dispozici údaje pocházející ze dvou zdrojů, a to z Českého statistického úřadu (ČSÚ) a z Ministerstva práce a sociálních věcí (MPSV). ČSÚ zajišťuje tzv. statistické výkaznictví a šetření diferenciace mezd zaměstnanců (DMZ). Pod gescí MPSV probíhá rezortní statistické mzdové šetření Informační systém o průměrném výdělku (ISPV). Statistické výkaznictví ČSÚ poskytuje údaje o průměrných mzdách v národním hospodářství, které lze třídit podle podnikových hledisek, např. podle odvětví, typu hospodaření, regionů a velikostních kategorií podniků. Šetření DMZ zajišťované ČSÚ a rezortní zjišťování ISPV nabízejí informace o výdělcích zaměstnanců z různých osobnostních pohledů, zejména podle vykonávané profese, dosaženého stupně vzdělání a věku. Díky faktu, že se v šetření DMZ a ISPV shromažďují mzdová a personální data za jednotlivé zaměstnance, lze získat mzdovou distribuci, tedy to, jak jsou mzdy mezi zaměstnanci rozprostřeny. Pro účely tohoto příspěvku byla použita data z rezortního statistického šetření MPSV (ISPV) za období let 1995 až 2007. Rozložení mezd w rozprostřených v rámci celého trhu práce popisuje mzdové rozdělení. Hodnoty, které může mzda v rámci celého mzdového intervalu nabývat, nelze vyjádřit deterministicky, nýbrž jsou výsledkem působení i mnoha náhodných
154
Vědecký seminář doktorandů FIS – únor 2008
vlivů. Mzdu w je tedy nutné považovat za náhodnou veličinu s hustotou pravděpodobnosti f(w).
2 Modely pro rozdělení pravděpodobnosti Pravděpodobnostní modely, resp. modely rozdělení pravděpodobnosti se používají pro empirická data, jejichž hodnoty nejsou určeny zcela deterministicky, nýbrž podléhají vlivům náhody. Jedná se tedy o modely pro rozdělení dat, která jsou náhodně vybraným vzorkem, nebo pro data naměřená s náhodnými chybami měření. Obecně se jedná o modely pro data, u kterých nelze zajistit při opakovaných experimentech dosažení stejných výsledků a jejichž hodnoty jsou dosahovány s určitou pravděpodobností. Modely pro rozdělení pravděpodobnosti se podle [2] obecně dělí do dvou hlavních skupin, a to na skupinu parametrických modelů a skupinu neparametrických modelů. Mezi těmito hlavními skupinami pravděpodobnostních modelů leží tzv. smíšené modely. 2.1
Parametrické modely rozdělení pravděpodobnosti
Jedná se o modely se speciálním funkčním tvarem. Funkce modelu je pro reálnou náhodnou veličinu obvykle charakterizována parametrem polohy µ (střední hodnotou) a variabilitou σ (škály). Výhodou modelů je jejich jednoduchost a rozumná interpretovatelnost. Nevýhodou může být relativně vyšší odchylka, protože rozdělení reálných dat se nemusí ve skutečnosti řídit předpokládaným funkčním tvarem modelu. Mezi nejdůležitější modelové pravděpodobnostní funkce pro mzdová rozdělení patří logaritmickonormální rozdělení (1), Paretovo rozdělení a zobecněný logistický (Burrův logistický) systém pravděpodobnostních rozdělení
f (w) =
2.2
1 (ln w − µ )2 . exp − 2 wσ 2π 2σ 1
(1)
Neparametrické modely rozdělení pravděpodobnosti
Jedná se o modely s relativně málo předpoklady na tvar funkce modelu. Používají odhady rozdělení pravděpodobnosti ve tvaru tzv. jádrové hustoty, tj.
f (w) =
1 nh
n
w − wi , h
∑ K i =1
(2)
kde h je šířka pásma (okna) a n je velikost vybraného vzorku dat. Funkce K je tzv. jádrová funkce, kterou je možné vyjádřit jako
Vědecký seminář doktorandů FIS – únor 2008
155
∫
∞
−∞
K (u ) = 1 .
(3)
Tvar výsledného modelu je dán zejména šířkou pásma h, jenž nastavuje stupeň vyhlazení výsledné hustoty. Podle [4] pro parametr h platí:
h=
2.3
0,9 interkvartilové rozpětí min var x ; . 1,349 n
5
(4)
Smíšené modely rozdělení pravděpodobnosti
Smíšené modely pravděpodobností neboli směsi rozdělení jsou definovány jako
f (w) =
K
∑π
k fk
(w | θ k ) .
(5)
k =1
Model rozkládá celkové rozdělení pravděpodobnosti do lineární kombinace K komponent, resp. složek rozdělení pravděpodobností fk(w|θk) podmíněných konkrétními hodnotami parametrů θk. Každé podmíněné rozdělení fk(w|θk) je váženo vahou πk odpovídající relativnímu podílu podmíněného rozdělení fk(w|θk) v celkovém rozdělení f(w).
3 Empiricky zjištěné rozdělení mezd V průběhu posuzovaného období let 1995 až 2007 byla zjištěna rozdělení mezd zaměstnanců v rámci celého národního hospodářství začínající na úrovni minimální mzdy (u zaměstnanců s plnými úvazky a bez jiných, např. zdravotních omezení) a dosahující až miliónů Kč za měsíc. V každém roce sledovaného období hlavní masa zaměstnanců pobírá měsíční mzdu nepřevyšující úroveň 50 000 Kč/měsíc. Početně výrazně méně zastoupenou skupinou jsou zaměstnanci, kteří jsou odměňováni měsíčními výdělky nad 50 000 Kč/měsíc (viz obrázek 1). Jejich mzdy se rozprostírají v celém spektru mezd nad výdělky hlavní masy zaměstnanců a končí na úrovni miliónů Kč/měsíc. I když je zastoupení vysokopříjmové kategorie zaměstnanců výrazně malé (v roce 1995 podíl této skupiny na celkovém souboru činil 0,09 %, v roce 2007 se zvýšil na 2,61 %), svými výdělky zřetelně ovlivňuje statisticky vykazovanou průměrnou výdělkovou úroveň a zejména variabilitu celého souboru (viz tabulka 1).
156
Vědecký seminář doktorandů FIS – únor 2008
Relativní četnost [%]
18,0
16,0
14,0
Vývoj empirického rozdělení mezd celkem v období let 1995 až 2007
1995 1996 1997 1998 1999 2000 2001
12,0
2002 2003 2004
10,0
2005 2006
8,0
2007
6,0
4,0
2,0 Mzda [Kč/měs]
0,0 0
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Obrázek 1. Výběrová rozdělení mezd za období let 1995 až 2007
Tabulka 1. Výběrové charakteristiky rozdělení mezd za období let 1995 až 2007 Období 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007
počet 321 277 405 138 622 505 953 691 1 024 898 1 053 536 1 075 875 1 107 991 1 230 282 1 680 800 1 818 369 1 976 571 2 059 416
průměr 8 311 9 962 11 322 12 026 12 982 13 541 14 743 15 964 17 748 17 759 18 640 19 526 20 953
var. koef. 0,50 0,54 0,57 0,69 0,64 0,71 0,70 0,81 0,76 0,74 0,74 0,91 0,86
medián 7 500 8 956 10 171 10 563 11 506 11 860 12 901 13 857 15 519 15 789 16 432 17 143 18 185
maximum 187 555 276 382 441 856 540 486 780 577 1 402 347 1 130 469 2 476 501 1 692 690 1 922 262 1 426 617 7 727 873 4 692 976
nad 50 000 0,09 % 0,19 % 0,34 % 0,59 % 0,61 % 0,75 % 0,99 % 1,28 % 1,68 % 1,45 % 1,71 % 2,04 % 2,61 %
4 Statistické modelování rozdělení mezd 4.1
Parametrické modely rozdělení pravděpodobnosti
Vytvořené parametrické modely jsou znázorněny na obrázku 2 za období roku 1995 a na obrázku 3 za období roku 2007.
Vědecký seminář doktorandů FIS – únor 2008
157
0.000175
Empirické rozdělení Logaritmickonormální rozdělení
0.000150
Logaritmickologistické rozdělení
Hustota
0.000125
0.000100
0.000075
0.000050
0.000025
0.000000 0
5000
10000
15000
20000
25000
30000
35000
40000
45000
50000
Mzda
Obrázek 2. Empirické rozdělení mezd a jeho modely za rok 1995
0.000060
Empirické rozdělení Logaritmickonormární rozdělení Logaritmickologistické rozdělení
0.000050
Hustota
0.000040
0.000030
0.000020
0.000010
0.000000 0
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Mzda
Obrázek 3. Empirické rozdělení mezd a jeho modely za rok 2007
Tabulka 2. Parametry modelových rozdělení pravděpodobnosti za rok 1995 Rozdělení Lognormální Loglogistické
158
Parametr1 8 252 7 585
Parametr 2 3 256 0,210 696
χ-kvadrát 3 538,76 1 992,57
Počet df 96 96
P-hodnota 0,00 0,00
Vědecký seminář doktorandů FIS – únor 2008
Tabulka 3. Parametry modelových rozdělení pravděpodobnosti za rok 2007 Rozdělení Lognormální Loglogistické
Parametr1 20 474 18 106
Parametr 2 9 909 0,248 901
χ-kvadrát 120 613 60 033
Počet df 97 96
P-hodnota 0,00 0,00
Jako modelová rozdělení pravděpodobnosti byla použita lognormální a loglogistická rozdělení. Jejich parametry byly odhadnuty z empirických údajů pomocí metody maximální věrohodnosti. Parametry modelů jsou zaznamenány v tabulce 2 pro rok 1995 a tabulce 3 pro rok 2007. Po provedených testech dobré shody jsou v tabulce 1 a tabulce 2 uvedeny hodnoty testového kriteria s příslušnými stupni volnosti a P-hodnotami. 4.2
Neparametrické modely rozdělení pravděpodobnosti
Neparametrické modely mzdových rozdělení byly vytvořeny pomocí jádrové hustoty (3). V roce 2007 je parametr pásma h (okno) roven 362 Kč (viz obrázek 4). 0.00006
Histogram Jádrová hustota
0.00005
Hustota
0.00004
0.00003
0.00002
0.00001
0.00000 0
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
Mzda
Obrázek 4. Empirické rozdělení a jádrová hustota za období roku 2007
4.3
Smíšené modely rozdělení pravděpodobnosti
Smíšené modely mzdových rozdělení jsou znázorněny na obrázku 5 za období roku 1995 a na obrázku 6 za období roku 2007. Pro lepší názornost byla ke statistickému modelování použita rozdělení logaritmů sledovaných mezd.
Vědecký seminář doktorandů FIS – únor 2008
159
1.125
Jádrová hustota Složka 0,842*N(8,87; 0,31)
1.000
Složka 0,063*N(9,30; 0,67) Složka 0,095*N(9,37; 0,22)
0.875
Smíšený model
Hustota
0.750 0.625 0.500 0.375 0.250 0.125 0.000 8.0
8.5
9.0
9.5
10.0
10.5
11.0
11.5
12.0
Ln(mzda)
Obrázek 5. Empirické rozdělení ln(mezd) a jeho smíšený model za období roku 1995
1.000
Jádrová hustota Složka 0,964*N(9,78; 0,39)
0.875
Složka 0,022*N(10,89; 0,31) Složka 0,014*N(11,18; 0,77)
0.750
Smíšený model
Hustota
0.625
0.500
0.375
0.250
0.125
0.000 8.0
8.5
9.0
9.5
10.0
10.5
11.0
11.5
12.0
12.5
13.0
13.5
14.0
14.5
15.0
15.5
Ln(mzda)
Obrázek 6. Empirické rozdělení ln(mezd) a jeho smíšený model za období roku 2007
Tabulka 4. Parametry smíšených modelů rozdělení pravděpodobnosti Rok 1995 2007
160
Podíl 1 0,842 0,964
Složka 1 N(8,87;0,31) N(9,78;0,39)
Podíl 2 0,063 0,022
Složka 2 N(9,30;0,67) N(10,89;0,31)
Podíl 3 0,095 0,014
Složka 3 N(9,37;0,22) N(11,18;0,77)
Vědecký seminář doktorandů FIS – únor 2008
Modely jsou vytvořeny lineárními kombinacemi normálních rozdělení logaritmů mezd s koeficienty odpovídajícími podílu jednotlivých složek ve smíšeném rozdělení. Odhady parametrů (viz tabulka 4) byly získány metodou maximální věrohodnosti s využitím Newton-Raphsonova iteračního algoritmu. Adekvátnost modelu [3] byla potvrzena testem poměru věrohodnosti.
5 Závěr Testy dobré shody u parametrických modelů rozdělení mezd vykazují vyšší hodnoty testového kriteria, z čehož plyne zamítnutí hypotézy o vhodnosti použitého modelu. V prováděných testech se však pracuje s rozsáhlými výběry a test tak odkryje i nepatrné odchylky od modelového rozdělení. Zvolené modely v testech dosáhly nejmenších hodnot testového kriteria. Lepší přiléhavosti k získaným empirickým datům bylo dosaženo použitím modelů smíšených, kdy se modelové rozdělení pravděpodobnosti vyjádří jako vážená lineární kombinace normálních rozdělení. Každé takové normální rozdělení odpovídá homogenním (z hlediska mezd) skupinám, na něž lze rozložit celý vzorek.
Literatura [1] Everit, B. S.: The Cambridge Dictionary of Statistics, 3rdEd. Cambridge University Press, New York 2006. [2] Hand, D., Heikkei, M., Padhraic, S: Principles of Data Mining (Adaptive Computation and Machine Learning). MIT Press, Cambridge 2001. [3] Rabe-Hesketh, S., Everit, B. S.: A Handbook of Statistical Analyses using Stata, 3rdEd. A CRC Press LLC, Texas 2004. [4] Stata Base Reference Manual. Volume 2 K-Q. Release 9. Stata Press, Texas 2005.
Summary Statistical Modeling of Probability Distributions This article deals with probability distributions as models for wage distributions. The knowledge about employees wage distributions, resp. populations incomes is an important prerequisite for a considering population living conditions and a quality of social welfare. Chosen model distributions of probability are compared with wage distributions observed empirically for several years.
Vědecký seminář doktorandů FIS – únor 2008
161
Soucˇasne´ metody modelova´nı´ pravdeˇpodobnosti defaultu∗ Toma´sˇ Va´clavı´k, Petr Nova´k Doktorandi oboru Statistika
Abstrakt. Pra´ce se zaby´va´ vymezenı´m pojmu default a metodami odhadu jeho pravdeˇpodobnostı´. V soucˇasne´ dobeˇ je zna´mo mnoho metod odhadu˚ pravdeˇpodobnosti defaultu. Neˇktere´ jsou pouzˇ´ıvane´ vı´ce, neˇktere´ me´neˇ. Pro jakoukoliv aplikaci je dobre´ nejdrˇ´ıve zmapovat vsˇechny dostupne´ metody a posle´ze z nich dle zvoleny´ch krite´riı´ vybrat jednu, ktera´ bude aplikova´na. Kvu˚li komplexnosti a slozˇitosti metod totizˇ nenı´ zˇa´doucı´ zaby´vat se vı´ce metodami soucˇasneˇ, ale pouze jednou metodou dostatecˇneˇ do hloubky. V tomto textu prˇiblı´zˇ´ıme vsˇechny pouzˇ´ıvane´ metody, aby jak na´m, tak prˇ´ıpadne´mu zainteresovane´mu cˇtena´rˇi, usnadnˇoval vy´beˇr konkre´tnı´ metody. Na´mi zvolena´ metoda, kterou v za´veˇru vybereme, bude metoda zalozˇena´ na regresnı´ch modelech. Klı´cˇova´ slova: default, pravdeˇpodobnost defaultu, probit model, Moody’s RiscCalc, Structural KMV
1 Strucˇny´ u´vod do problematiky Metody odhadujı´cı´ pravdeˇpodobnost defaultu (pojem bude vysveˇtlen nı´zˇe) jsou zna´my v ru˚zny´ch forma´ch jizˇ od pocˇa´tku 30. let 20. stoletı´. Veˇtsˇ´ıho rozvoje se docˇkaly jednak v prvnı´ vlneˇ na prˇelomu 60. a 70. let a jednak v druhe´ vlneˇ na prˇelomu minule´ho a tohoto stoletı´. Liberalizace a postupna´ integrace evropsky´ch financˇnı´ch trhu˚, distribuce novy´ch bankovnı´ch produktu˚, elektronicke´ bankovnictvı´, prˇ´ıliv pojisˇt’oven a investicˇnı´ch fondu˚ na financˇnı´ trh, neusta´le se zveˇtsˇujı´cı´ konkurencˇnı´ tlak vedl ze strany ohodnocujı´cı´ch financˇnı´ch institucı´ k poklesu prˇesnosti tradicˇnı´ch (standardnı´ch) odhadovacı´ch metod meˇrˇenı´, analy´zy a rˇ´ızenı´ kreditnı´ho rizika subjektu˚ (tedy rizika nespla´cenı´ u´veˇru˚) klientu˚ financˇnı´ch institucı´. Ve stejne´ dobeˇ dosˇlo k vzedmutı´ vlny bankrotu spolecˇnostı´ a firem, ktera´ zasa´hla veˇtsˇinu evropsky´ch zemı´. Tyto stejne´ firmy vystupujı´cı´ takte´zˇ jako dluzˇnı´ci bankovnı´ch domu˚ ve sve´m du˚sledku zpu˚sobily cˇasto nucenou restrukturalizaci cˇinnostı´ svy´ch veˇrˇitelu˚ (tedy i bank) koncˇ´ıcı´ cˇasto insolvencı´ a nucenou spra´vou. Te´ma odhadova´nı´ pravdeˇpodobnosti defaultu se sta´va´ ∗ Tato
162
pra´ce vznikla za podpory grantu IGA VSE cˇ´ıslo 410057
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
v poslednı´ dobeˇ velmi aktua´lnı´ ve spojitosti s krizı´ na americke´m hypotecˇnı´m trhu. Cela´ tato problematika a mozˇne´ prˇ´ıstupy jsou samozrˇejmeˇ upraveny mnoha normami, proto si uvedeme alesponˇ ty nejdu˚lezˇiteˇjsˇ´ı. Nejzna´meˇjsˇ´ımi standardy, ktere´ jsou v poslednı´ch dvou desetiletı´ch jaky´msi za´kladem pro dalsˇ´ı rozvoj v jednotlivy´ch oblastech, jsou standardy basilejske´. Dne 26. cˇervna 2004 guverne´rˇi centra´lnı´ch bank spolecˇneˇ s vrcholny´mi regula´tory bank ve sta´tech takzvane´ Group of Ten vydali oficia´lneˇ publikaci „International Convergence of Capital Measurement and Capital Standards: a Revised Framework, the new capital adequacy framework“, ktere´ se veˇtsˇinou zkra´ceneˇ rˇ´ıka´ „Basel II Framework“. V Cˇesku se veskrze vzˇilo oznacˇenı´ „Basilejske´ standardy II“ nebo jesˇteˇ strucˇneˇji pouze „Basilej 2“. Vysˇly samozrˇejmeˇ i ru˚zne´ dodatky a odvozene´ standardy, to vsˇak z du˚vodu˚ rozsa´hlosti nemu˚zˇe by´t na´plnı´ tohoto textu. Tyto standardy vymezujı´ a popisujı´ mnohem detailneˇji ra´mec pra´ce s kapita´lovou prˇimeˇrˇenostı´ a rizikoveˇ citlivy´mi aktivy a da´vajı´ banka´m a jiny´m financˇnı´m institucı´m v te´to ota´zce mnohem vı´ce volnosti nezˇ sta´vajı´cı´ pravidla. Basilej II ve znacˇne´ mı´rˇe rozsˇirˇuje mozˇnosti bank jaky´m zpu˚sobem ohodnotit prˇimeˇrˇenost kapita´lu a za´rovenˇ tı´m da´va´ impuls k rozvoji mnoha matematicky´ch metod, jako je v prˇ´ıpadeˇ rˇ´ızenı´ u´veˇrovy´ch neboli kreditnı´ch rizik odhad pravdeˇpodobnosti defaultu. Vzhledem k tomu, zˇe deufault jako takovy´ je slozˇiteˇjsˇ´ı pojem a v ru˚zny´ch literatura´ch jsou pouzˇ´ıva´ny ru˚zne´ definice defaultu, vyuzˇ´ıvajı´ i nı´zˇe uvedene´ metody ne vzˇdy stejne´ vymezenı´ tohoto pojmu. Pro prˇiblı´zˇenı´ vsˇak je dobre´ uve´st alesponˇ jednu z definic. Definice defaultu dle Basileje II K uda´losti obecneˇ nazy´vane´ default dojde u povinovane´ strany v prˇ´ıpadeˇ, kdy nastane jedna z na´sledujı´cı´ch uda´lostı´, prˇ´ıpadneˇ obeˇ soucˇasneˇ. • Banka prˇedpokla´da´, zˇe povinovana´ strana nesplnı´ sve´ za´vazky vu˚cˇi nı´, pokud jı´ sama banka neˇjaky´m zpu˚sobem nepomu˚zˇe. • Povinovana´ strana jizˇ vı´ce nezˇ 90 dnı´ nespla´cı´ hmotne´ za´vazky vu˚cˇi bankovnı´mu sektoru. Docˇasne´ u´veˇry jsou povazˇova´ny za neprˇ´ıpustne´, jakmile za´kaznı´k nedodrzˇel ozna´meny´ limit nebo byl sezna´men s tı´m, zˇe limit je nizˇsˇ´ı nezˇ jeho soucˇasny´ dluh. Postupy modelova´nı´ a stanovova´nı´ pravdeˇpodobnosti defaultu (probability of default, PD) mu˚zˇeme bez u´jmy na obecnosti rozdeˇlit do dvou skupin, jak uva´dı´ naprˇ´ıklad Schimek [5]. Do prvnı´ skupiny patrˇ´ı metody, jejichzˇ vy´stupem je odhad pravdeˇpodobnosti defaultu oznacˇovany´ jako PD sko´r. Tento PD sko´r mu˚zˇe obsahovat mnozˇstvı´ sˇumu˚ a nemusı´ by´t nutneˇ fina´lnı´m vy´stupem modelu, nicme´neˇ indikuje jizˇ prˇiblizˇnou hodnotu konecˇne´ho odhadu PD pro danou spolecˇnost. Na za´kladeˇ hodnot PD sko´ru˚
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
163
pak by´vajı´ jednotlive´ subjekty rozdeˇlova´ny do ratingovy´ch trˇ´ıd. Druhou skupinou jsou metody, jejichzˇ prima´rnı´m vy´stupem je rozdeˇlenı´ portfolia do ratingovy´ch trˇ´ıd a odhady pravdeˇpodobnosti defaultu jsou urcˇeny azˇ na´sledneˇ z tohoto rozdeˇlenı´. Neˇktere´ popisovane´ metody odhadu PD jizˇ prˇedpokla´dajı´ znalost ratingovy´ch trˇ´ıd.
2 Metody zalozˇene´ na empiricky´ch sˇetrˇenı´ch Tyto metody jsou v podstateˇ nejjednodusˇsˇ´ımi metodami odhadu pravdeˇpodobnosti defaultu nebo jiny´ch rizikovy´ch charakteristik. Vycha´zejı´ z existence rozdeˇlenı´ portfolia do ratingovy´ch trˇ´ıd. Na za´kladeˇ znalostı´ relativnı´ch cˇetnostı´ odhadovany´ch charakteristik, jako naprˇ´ıklad default, odhadujeme pravdeˇpodobnost, zˇe nastane dana´ situace, tedy naprˇ´ıklad pravdeˇpodobnost defaultu. V prˇ´ıpadeˇ dostatku dat by tato metoda meˇla vykazovat dobre´ vy´sledky, jednodusˇe interpretovatelne´, dostatecˇneˇ prˇesne´, rychle dosazˇitelne´. Proble´m v praxi vsˇak spocˇ´ıva´ ve faktu, zˇe po rozdeˇlenı´ portfolia do ru˚zny´ch trˇ´ıd, kde by meˇly by´t srovnatelne´ subjekty co do typu i objemu ru˚zny´ch ukazatelu˚, jsou tyto takzvane´ ratingove´ trˇ´ıdy velice male´ (cˇasto slozˇene´ z jednoho nebo neˇkolika ma´lo subjektu˚) a nedostatecˇne´, zpravidla chybı´ jaky´koliv historicky´ za´znam o defaultu, nebo jeden default prˇesprˇ´ılisˇ zvy´sˇ´ı odhadovanou pravdeˇpodobnost. Uvedeme tuto metodu tedy spı´sˇe strucˇneˇji, protozˇe neprˇedpokla´da´me jejı´ veˇtsˇ´ı pouzˇitı´. Prˇesto by zde nemeˇla jako jedna ze za´kladnı´ch metod chybeˇt. V nasˇem prˇ´ıkladu pouzˇijeme jista´ zjednodusˇenı´, nutna´ pro na´zornost. Na´sledujı´cı´ vzorec vyjadrˇuje takzvane´ defaultnı´ mı´ry, neboli relativnı´ pocˇet defaultovany´ch hodnoceny´ch emitentu˚ z dane´ trˇ´ıdy v jednom obdobı´ (pro jednoduchost 12 meˇsı´cu˚), v cˇitateli se vyskytuje pocˇet defaultu˚, ve jmenovateli pocˇet vsˇech spolecˇnostı´. Dalsˇ´ım zjednodusˇenı´m je, zˇe mezi spolecˇnostmi nejsou uvazˇova´ny nedefaultovane´ nehodnocene´ spolecˇnosti (pu˚vodneˇ hodnocene´ byly, na konci obdobı´ jizˇ ne) ani noveˇ hodnocene´ spolecˇnosti. Mı´ra defaultu v cˇase t ve trˇ´ıdeˇ k, Dk,t je potom
Dk,t =
Σts=t−11 Yk,s , Ik,t−11
(1)
kde Yk,t je pocˇet defaultu˚ v cˇase t ve trˇ´ıdeˇ k a Ik, t − 11 je pocˇet vsˇech monitorovany´ch (viz vy´sˇe) spolecˇnostı´ na pocˇa´tku obdobı´. Existujı´ ru˚zne´ obmeˇny tohoto vztahu, defaultnı´ mı´ra mu˚zˇe by´t urcˇena take´ pomocı´ pru˚meˇrne´ va´zˇene´ margina´lnı´ defaultnı´ mı´ry atd.
164
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
3 Metody zalozˇene´ na diskriminacˇnı´ analy´ze Jedna´ se o jizˇ klasicke´ metody zalozˇene´ na principu Altmanova z-sko´re, pouzˇ´ıvane´ho od konce 60. let minule´ho stoletı´. Jsou aplikacı´ mnohorozmeˇrne´ statisticke´ metody diskriminacˇnı´ analy´zy, ktera´ byla do te´ doby pouzˇ´ıva´na v jiny´ch oblastech jako medicı´na cˇi biologie, na ekonomicka´ data, zejme´na na data zı´skana´ z financˇnı´ch vy´kazu˚. Jsou sice zna´my jiste´ nedostatky teˇchto metod, prˇesto jsou velice popula´rnı´ a dı´ky velice snadne´ interpretaci a robustnosti v cˇase jsou take´ cˇasto pouzˇ´ıvane´. Metody hodnotı´ soucˇasneˇ vsˇechny zvolene´ ukazatele na vstupu a za´rovenˇ se zaby´vajı´ jejich interakcemi. Je relativneˇ zajı´mave´, zˇe jesˇteˇ dodnes se pouzˇ´ıva´ i pu˚vodnı´ Altmanu˚v model v te´meˇrˇ nezmeˇneˇne´ podobeˇ. Altman v roce 1968 [5] prˇedstavil ukazatel bonity nazvany´ z-sko´re jako jakousi „cˇernou skrˇ´ınˇku, do nı´zˇ se nasypou data a vypadne rˇesˇenı´“. Vy´stupem te´to metody bylo kvantitativnı´ hodnocenı´, ktere´ prˇedpovı´dalo, zda podnik zbankrotuje, cˇi nikoliv. Tedy se jednalo o trochu neˇco jine´ho nezˇ pouhy´ default, nebot’ne kazˇdy´ defaultovany´ subjekt musı´ nutneˇ dojı´t azˇ do fa´ze bankrotu. Tento vy´stup se nazy´val z-sko´re a v soucˇasne´ dobeˇ uzˇ existuje mnoho postupu˚, jaky´mi se da´ k tomuto vy´stupu dostat. Vsˇechny jsou vsˇak zalozˇena na diskriminacˇnı´ analy´ze, pomocı´ nı´zˇ se odvozujı´ va´hy v modelu. Ukazˇme si, jak mohou by´t va´hy odvozeny na za´kladeˇ Fisherovy linea´rnı´ diskriminacˇnı´ analy´zy. Ta je zalozˇena na nalezenı´ optima´lnı´ hranicˇnı´ nadroviny (jake´si deˇlı´cı´ hranice) mezi defaultujı´cı´mi a nedefaultujı´cı´mi spolecˇnostmi. Pokud oznacˇ´ıme N skupinu nedefaultujı´cı´ch spolecˇnostı´, D skupinu defaultujı´cı´ch spolecˇnostı´, a = (a1 , ..., am ) je vektor m financˇnı´ch ukazatelu˚ dane´ho subjektu, T je kovariancˇnı´ matice teˇchto ukazatelu˚ a ηjD , ηjN jsou pru˚meˇrne´ hodnoty ukazatele j mezi spolecˇnostmi, potom sko´ringova´ funkce je da´na vztahem f (a) = (η N − η D )T−1 (a −
ηN − ηD ). 2
Meˇli bychom take´ uve´st, zˇe a = (a1 , ..., am ) = (η N − η D )T−1 je vektor m koeficientu˚ modelu, pj =
η D −η D 2
je takzvany´ pivot ukazatele j,
αj (aj − pj ) je prˇ´ıspeˇvek ukazatele j k celkove´mu sko´re f (a). Celkove´ sko´re f (a) je tedy pouze soucˇtem prˇ´ıspeˇvku˚ m financˇnı´ch ukazatelu˚. Rozhodovacı´ krite´rium pro zarˇazenı´ spolecˇnosti do skupiny default cˇi nedefault je tvaru: Pm > 0, spolecˇnost je zarˇazena do skupiny N , Kdyzˇ f (a) = j=1 αj (aj − pj ) ≤ 0, spolecˇnost je zarˇazena do skupiny D. Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
165
V pu˚vodnı´ Altmanoveˇ verzi vypadalo z-skr´e takto: Z = v1 x1 + v2 x2 + ... + vn xn ,
(2)
kde vi jsou va´hy a xi jsou vstupnı´ ukazatele: = Working capital/Total assets = pracovnı´ kapita´l/celkova´ aktiva; = Retained earnings/Total assets = zadrzˇene´ prˇ´ıjmy/celkova´ aktiva; = Earnings BIT/Total assets = zisk prˇed u´rokem a zdaneˇnı´m/celkova´ aktiva; = Market value equity/Book value of total debt = = trzˇnı´ hodnota vlastnı´ho kapita´lu/u´cˇetnı´ hodnota celkovy´ch dluhu˚; x5 = Net sales/Total assets = prodej/celkova´ aktiva.
x1 x2 x3 x4
Pu˚vodnı´ model obsahoval pouze teˇchto peˇt ukazatelu˚. Soucˇasne´ modely obsahujı´ parametru˚ zpravidla vı´ce, take´ syste´m vy´pocˇtu se cˇasto lisˇ´ı, prˇesto tento pu˚vodnı´ princip zu˚sta´va´ zachova´n. Autor volil ukazatele podle jejich tehdejsˇ´ı popularity v literaturˇe a potencia´lnı´ relevantnosti. Podoba Altmanova z-sko´re s vahami odhadnuty´mi na americky´ch datech byla (viz [1]): Z = 1, 2.x1 + 1, 4.x2 + 3, 3.x3 + 0, 6.x4 + 0, 999.x5 . Pokud vyjde hodnota Z vysˇsˇ´ı nezˇ 3, je spolecˇnost dle ukazatelu˚ zdrava´. V rozmezı´ 2,7 azˇ 2,99 je varovna´ zo´na. Mezi 1,8 a 2,7 je vysˇsˇ´ı pravdeˇpodobnost, zˇe spolecˇnost bude mı´t do dvou let financˇnı´ nesna´ze. Pod 1,8 je vysoka´ sˇance, zˇe spolecˇnost zbankrotuje. Prˇestozˇe tento model nemu˚zˇe konkurovat sofistikovany´m metoda´m odhadova´nı´ pravdeˇpodobnosti defaultu, je dı´ky svy´m vy´sˇe zminˇovany´m vlastnostem pouzˇ´ıva´n dodnes. Kazˇdopa´dneˇ ve sve´ dobeˇ byl Altmanu˚v model velky´m prˇ´ınosem.
4 Metody zalozˇene´ na regresnı´ch modelech Na nejru˚zneˇjsˇ´ıch regresnı´ch modelech je zalozˇena´ cela´ rˇada metod, hlavnı´ mysˇlenky a principy jsou vsˇak ve vsˇech modelech stejne´, proto prˇedstavı´me v poslednı´ dobeˇ nejvı´ce preferovane´ modely, zalozˇene´ na logit/probit regresi. Ty pouzˇ´ıva´ a prosazuje jako velice kvalitnı´ naprˇ´ıklad spolecˇnost Moody’s, jsou za´kladem jejı´ RiskCalc. Velice du˚lezˇity´m procesem, ktery´ prˇedcha´zı´ samotne´mu modelova´nı´ je volba financˇnı´ch ukazatelu˚ spolecˇnosti, ktere´ se pouzˇijı´ v modelu. Du˚lezˇita´ je vysoka´ vypovı´dacı´ sı´la jednotlivy´ch ukazatelu˚ a nı´zka´ korelace mezi nimi. Pouzˇite´ ukazatele se mohou pro jednotliva´ odveˇtvı´, cˇasto i regiony, vy´znamneˇ lisˇit. Samotny´ model se potom skla´da´ ze trˇ´ı kroku˚. Transformace vstupu˚, modelova´nı´ a mapping.
166
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
Prvnı´ krok, transformace, je jiny´mi slovy rˇecˇeno normalizace a na´sledne´ nahrazenı´ kazˇde´ho ukazatele odhadem prˇ´ıslusˇne´ margina´lnı´ pravdeˇpodobnosti defaultu za´visejı´cı´ pouze na tomto jednom ukazateli. Touto procedurou je odstraneˇno velke´ mnozˇstvı´ sˇumu˚ vna´sˇeny´ch do modelu˚ spolu se surovy´mi daty a take´ prˇevedeme vsˇechny ukazatele do jednoho meˇrˇ´ıtka. Druhy´ krok, modelova´nı´, spocˇ´ıva´ ve slucˇova´nı´ jednotlivy´ch ukazatelu˚ do jednoho modelu. Kazˇde´mu vstupu je nutne´ prˇirˇadit konkre´tnı´ va´hy. K tomuto u´cˇelu pouzˇijeme probit model (pokud by byla distribucˇnı´ funkce F distribucˇnı´ funkcı´ logisticke´ho rozdeˇlenı´, jednalo by se o logit model). Vy´sledkem je tzv. financˇnı´ sko´r. Prˇ´ıslusˇne´ informace o stavu spolecˇnosti a dalsˇ´ı ma´me tedy z prvnı´ho kroku transformova´ny, oznacˇ´ıme tyto transformovane´ vstupy pro i-tou spolecˇnost T(xi ). Kdyzˇ na´hodne´ velicˇiny naby´vajı´cı´ hodnoty 0 nebo 1, kde 0 znacˇ´ı nedefault a 1 znacˇ´ı default, oznacˇ´ıme Yi , potom vztah mezi teˇmito velicˇinami a transformovany´mi vstupy mu˚zˇeme zapsat jako (viz [4]) Yi = F (β T T(xi )) + ǫi , kde F je distribucˇnı´ funkce norma´lnı´ho rozdeˇlenı´, β je nezna´my´ vektor parametru˚, T(xi ) je na´hodny´ vektor a ǫi jsou neza´visle´ na´hodne´ chyby s nulovou strˇednı´ hodnotou. Takto je definova´n probit model. Obecneˇ mu˚zˇe by´t distribucˇnı´ funkce neˇjaka´ jina´, s nulovou strˇednı´ hodnotou a konecˇny´m rozptylem σ 2 . Je-li v probit modelu navı´c rozptyl roven 1, potom
Yi = Φ(β T T(xi )) + ǫi =
Z
β T T(xi )
−∞
t2 1 √ e− 2 dt + ǫi . 2π
Pokud nynı´ pro zjednodusˇenı´ budeme pocˇ´ıtat optimalizacˇnı´ u´lohu pro kazˇdy´ koeficient zvla´sˇt’, ma´ vy´sˇe uvedena´ funkce jediny´ nezna´my´ parametr β, pro jehozˇ odhad lze pouzˇ´ıt metodu maxima´lnı´ veˇrohodnosti. Veˇrohodnostnı´ funkce bude tvaru L(β) =
N Y
i=1
(1 − F (β T T(xi )))1−Yi F (β T T(xi ))Yi
a z te´to funkce zı´skany´ odhad parametru β oznacˇ´ıme B. Odhad sdruzˇene´ pravdeˇpodobnosti defaultu pro vsˇechny ukazatele potom bude mı´t tvar
d P D = P (def ault | x; B) = Φ(BT T(xi )) = Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
Z
BT T(xi )
−∞
t2 1 √ e− 2 dt + ǫi . (3) 2π
167
Vy´stup te´to rovnice se neˇkdy oznacˇuje jako financˇnı´ sko´r nebo PD sko´r. Trˇetı´ krok, mapping, je prˇizpu˚sobenı´ modelu rea´lny´m podmı´nka´m. Portfolio rozdeˇlı´me do ratingovy´ch trˇ´ıd. V jednotlivy´ch trˇ´ıda´ch upravı´me pravdeˇpodobnost defaultu pomocı´ vyhlazovacı´ funkce tak, aby vysˇsˇ´ı rizikova´ trˇ´ıda meˇla vysˇsˇ´ı nebo alesponˇ stejnou pravdeˇpodobnost defaultu jako nizˇsˇ´ı, musı´ se tedy jednat o monoto´nnı´ funkci. Zpravidla je vyhlazovacı´ funkce ryze monoto´nnı´, naprˇ´ıklad mu˚zˇe mı´t exponencia´lnı´ charakter.
5 Metody zalozˇene´ na maximalizaci ocˇeka´vane´ho uzˇitku Jedna´ se o relativneˇ proble´move´ a ne prˇ´ılisˇ uzna´vane´ metody, protozˇe jsou zalozˇeny na subjektivnı´ch faktorech. Podstatou je konstrukce uzˇitkove´ funkce, ktera´ je maximalizova´na vzhledem k mnozˇineˇ omezujı´cı´ch podmı´nek. Jako kazˇda´ uzˇitkova´ funkce je i tato subjektivnı´m hodnocenı´m zkonstruovany´m neˇjakou mnozˇinou osob, a proto nenı´ mozˇne´ proka´zat obecnou spra´vnost te´to metody. V za´vislosti na charakteru u´lohy se potom k rˇesˇenı´ proble´mu˚ pouzˇ´ıvajı´ ru˚zne´ metody optimalizace, jako naprˇ´ıklad linea´rnı´ cˇi nelinea´rnı´ programova´nı´. Tato mnozˇina metod je velice sˇiroce vymezena a zpravidla se prˇekry´va´ s ostatnı´mi, zde popisovany´mi typy metod.
6 Metody zalozˇene´ na struktura´lnı´ch modelech Tyto metody vycha´zejı´ ze slavne´ho Black-Scholesova a Mertonova modelu zalozˇene´ho na ocenˇova´nı´ opcı´. Pracujı´ s mysˇlenkou dynamicke´ho vy´voje velicˇin v cˇase, k cˇemuzˇ je vyuzˇ´ıva´na teorie stochasticky´ch procesu˚. Kromeˇ financˇnı´ch ukazatelu˚ pracujı´ i s cenou akciı´ jakozˇto souhrnny´m stanoviskem trhu. Model Oldrˇicha Vasˇ´ıcˇka a Stephena Kealhofera spolecˇnosti KMV (zna´my´ te´zˇ jako KMV nebo VK model [5]), je klasicky´m za´stupcem struktura´lnı´ch modelu˚. Jeho vy´chodiskem jsou vy´sˇe zminˇovane´ modely Black-Scholesu˚v a Mertonu˚v. KMV model pracuje s na´sledujı´cı´mi za´kladnı´mi elementy kreditnı´ho rizika: pravdeˇpodobnost defaultu, na´klady zpu˚sobene´ defaultem (definujı´cı´ rozsah celkovy´ch sˇkod, ktere´ default protistrany prˇinese), migracˇnı´ riziko (meˇrˇ´ıcı´ pravdeˇpodobnost, zˇe budou mı´t charakteristiky defaultujı´cı´ firmy vliv na pravdeˇpodobnostnı´ rozdeˇlenı´ defaultu firmy), korelace defaultu (meˇrˇ´ıcı´ stupenˇ relativnı´ za´vislosti defaultu veˇrˇitelu˚ a protistran), expozice (velikost nebo proporce portfolia, ktere´ je vystavene´ riziku defaultu kazˇde´ho z dluzˇnı´ku˚ a veˇrˇitelu˚). KMV model se skla´da´ ze trˇ´ı hlavnı´ch faktoru˚ urcˇujı´cı´ pravdeˇpodobnost defaultu firmy: a) Hodnota aktiv: trzˇnı´ hodnota celkovy´ch aktiv firmy.
168
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
b) Riziko aktiv: nejistota nebo riziko, s nı´zˇ je mozˇne´ firemnı´ aktiva ohodnotit. Tento ukazatel je meˇrˇ´ıtkem rizikovosti obchodnı´ cˇinnosti firmy a odveˇtvı´, ve ktere´m firma podnika´, je vyja´drˇeno ve formeˇ volatility aktiv. c) Zadluzˇenost firmy: meˇrˇena´ podı´lem u´cˇetnı´ hodnoty smluvnı´ch za´vazku˚ k trzˇnı´ hodnoteˇ celkovy´ch aktiv. S postupny´m prˇiblizˇova´nı´m hodnoty aktiv k u´cˇetnı´ hodnoteˇ za´vazku˚ docha´zı´ k ru˚stu rizika defaultu firmy. Zobecnı´me-li, firma defaultuje v te´ fa´zi sve´ podnikatelske´ cˇinnosti, kdy jı´ trzˇnı´ (rea´lna´) hodnota aktiv nepostacˇuje k pokrytı´ svy´ch za´vazku˚. Zkusˇenosti KMV dokla´dajı´, zˇe tzv. bod defaultu, tedy hodnota aktiv, prˇi ktere´ firma defaultuje, lezˇ´ı mezi u´rovnı´ celkovy´ch za´vazku˚ a hodnotou beˇzˇny´ch (kra´tkodoby´ch) za´vazku˚. Model KMV definuje tzv. vzda´lenost k defaultu DD jako pomeˇr cˇiste´ trzˇnı´ hodnoty (dane´ rozdı´lem trzˇnı´ hodnoty aktiv a bodu defaultu) a soucˇinu cˇiste´ trzˇnı´ hodnoty aktiv a smeˇrodatne´ odchylky ve vztahu k cˇasove´mu vy´voji teˇchto aktiv, tj. DD =
VA − DP , VA .σA
(4)
kde VA je hodnota aktiv, DP bod defaultu a σA volatilita aktiv. Urcˇenı´ pravdeˇpodobnosti defaultu firmy se potom skla´da´ ze trˇ´ı za´kladnı´ch kroku˚: 1. Odhad trzˇnı´/rea´lne´ hodnoty aktiv, kalkulace volatility aktiv, zjisˇteˇnı´ u´cˇetnı´ hodnoty za´vazku˚. 2. Kalkulace vzda´lenosti k defaultu na za´kladeˇ informacı´ zı´skany´ch v prˇedchozı´m kroku. 3. Vy´pocˇet pravdeˇpodobnosti defaultu, ktera´ je urcˇena prˇ´ımo z ukazatele vzda´lenost k defaultu. Trˇ´ıfaktorovy´ struktura´lnı´ model je dalsˇ´ım prˇ´ıkladem modelu˚ spadajı´cı´ch do stejne´ kategorie jako model spolecˇnosti KMV. Vzesˇel ze spolecˇne´ pra´ce Hong Kong Monetary Authority a The Chinese University of Hong Kong. Trˇ´ıfaktorovy´ struktura´lnı´ model mu˚zˇe by´t aplikova´n v ra´mci odhadu˚ pravdeˇpodobnosti defaultu firmy za vyuzˇitı´ internı´ho ratingu meˇrˇene´ho podle nove´ metodiky BASEL II. Model pracuje s na´sledujı´cı´mi charakteristikami: hodnota firmy vyja´drˇena´ jejı´mi celkovy´mi aktivy V , hodnota celkovy´ch za´vazku˚ firmy Q, dynamika bezrizikove´ u´rokove´ mı´ry r, ktera´ je modelova´na Vasˇ´ıcˇkovy´m modelem. Trˇ´ıfaktorovy´ strukturnı´ model je konzistentnı´
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
169
se soucˇasny´mi zı´skany´mi empiricky´mi pozorova´nı´mi ty´kajı´cı´ se kapita´love´ struktury firem, jezˇ ma´ tendenci limitneˇ se prˇiblizˇovat k prˇedem definovane´ cı´love´ u´rovni ukazatele zadluzˇenı´.
7 Vektorove´ stroje a neuronove´ sı´teˇ Vektorove´ stroje, SVMs (Support Vector Machines) jsou mnozˇinou spojeny´ch pru˚beˇzˇneˇ se ucˇ´ıcı´ch metod pouzˇ´ıvany´ch zejme´na k rˇesˇenı´ klasifikacˇnı´ch u´loh. Nejedna´ se o statisticke´, ny´brzˇ numericke´ metody, ktere´ jsou relativneˇ nove´, ale velmi progresivnı´. Vy´hodou teˇchto metod slouzˇ´ıcı´ch pro odhad pravdeˇpodobnosti defaultu je prˇ´ıma´ klasifikace n financˇnı´ch indika´toru˚, ktere´ jsou reprezentova´ny sourˇadnicemi v n-rozmeˇrne´m prostoru. Nenı´ zde potrˇeba zˇa´dna´ selekce ani statisticka´ interpretace vstupnı´ch indika´toru˚, je potrˇebna´ pouze normalizace slouzˇ´ıcı´ k dosazˇenı´ stejne´ho meˇrˇ´ıtka na vsˇech osa´ch. Jedna´ se o jakousi geometrickou interpretaci pravdeˇpodobnosti defaultu. Obecneˇ jsou n-dimenziona´lnı´m prostorem vedeny nadroviny rozdeˇlujı´cı´ prostor na oblasti vy´skytu prvku urcˇite´ kvality zpu˚sobem optima´lnı´m z hlediska minimalizace norem vzda´lenostı´ nespra´vneˇ umı´steˇny´ch prvku˚. Umeˇle´ neuronove´ sı´teˇ, cˇasto nazy´vane´ pouze neuronove´ sı´teˇ, jsou matematicky´mi modely nebo vy´pocˇetnı´mi modely zalozˇeny´mi na biologicky´ch neuronovy´ch sı´tı´ch. Umeˇle´ neuronove´ sı´teˇ se skla´dajı´ z umeˇly´ch neuronu˚ (naprogramovany´ch tak, aby co nejle´pe napodobovaly funkce rea´lny´ch neuronu˚), ktere´ si navza´jem prˇeda´vajı´ signa´ly a transformujı´ je pomocı´ funkce pro prˇenos k dalsˇ´ım neuronu˚m. Tyto sı´teˇ neuronu˚ se neusta´le ucˇ´ı, meˇnı´ a zprˇesnˇujı´ syste´my vy´pocˇtu. Jsou ru˚zne´ typy ucˇenı´ se jako naprˇ´ıklad dozorovane´, nedozorovane´ a posilneˇne´. Jedna´ se o velmi sofistikovane´ metody, ktere´ se v poslednı´ dobeˇ zacˇ´ınajı´ pouzˇ´ıvat ve sta´le vı´ce oblastech, jako naprˇ´ıklad pro statisticke´ odhady, optimalizace a teorie rˇ´ızenı´. Jejich pouzˇitı´ je relativneˇ slozˇite´, ale i prˇesto tyto metody stojı´ za zmı´nku.
8 Za´veˇr Zmı´nili jsme vsˇechny beˇzˇneˇ dostupne´, vı´ce cˇi me´neˇ pouzˇ´ıvane´ metody vy´pocˇtu pravdeˇpodobnosti defaultu. Jedna´ se o dosti rozvinutou problematiku a k jejı´mu pochopenı´ je dobre´ zna´t a velmi spra´vneˇ cha´pat vy´znam slova default, protozˇe vzhledem k drobny´m odchylka´m v definici tohoto pojmu u jednotlivy´ch metod (ktere´ jsou cˇasto do jiste´ mı´ry intuitivnı´) by se mohl sta´t cely´ text trochu matoucı´m. Cˇtena´rˇ si sa´m mu˚zˇe vytvorˇit obra´zek o rozmanitosti metod a v prˇ´ıpadeˇ za´jmu o konkre´tnı´ metodu k nı´ najı´t blizˇsˇ´ı informace, tento text nepopisuje zˇa´dnou prˇ´ılisˇ dopodrobna. Je vy´sledkem pouze fa´ze vy´zkumu, kdy jsme vybı´rali vhodnou metodu, kterou budeme da´le pouzˇ´ıvat. Pro na´sˇ budoucı´ vy´zkum jsme zvolili metodu zalozˇenou na regresnı´ch
170
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
modelech, cˇ´ımzˇ bychom vsˇak nechteˇli prˇ´ıpadne´ho cˇtena´rˇe ovlivnˇovat prˇi zvolenı´ jı´m preferovane´ metody.
Literatura [1] Gregory J.: Z scores - a guide to failure prediction. The CPA Journal, N.Y.S 1995. [2] Hui C.H., Lo C.F., Huang M.X.: Estimation of default probability by three-factor structural model. The Chinese University of Hong Kong, Hong Kong 2002. [3] KMV LLC: Modeling Default Risk. San Francisco 2001. [4] Moody’s Investors Service: Moody’s RiskCalc MOdel For Privately-Held U.S. Banks. Global Credit Research, New York 2002. [5] Schimek, M.: Metody pouzˇ´ıvane´ k odhadova´nı´ pravdeˇpodobnosti defaultu. Cˇeska´ na´rodnı´ banka, Praha 2004. [6] Wehrspohn, U.: Credit Risk Evaluation, Inaugural Dissertation. Center for Risk & Evaluation BmbH & Co. KG, Heidelberg 2002.
Summary Contemporary Methods of Default Probability Estimation We summarize all available methods of default probability estimation. It is very important for everybody trying to implement some of the models into reality to start with complete overview over already developed models. With this article it should be much easier to choose one of the available methods or to develop a new method.
Veˇdecky´ semina´rˇ doktorandu˚ FIS – u´nor 2008
171
Využití metody bootstrap a permutačních testů v oblasti marketingových výzkumů Ondřej Vilikus Doktorand oboru Statistika
Abstrakt: V tomto článku je představena metoda bootstrap, jakožto počítačově intenzivní alternativa k tradičním metodám statistické inference. Úvod je věnován úloze statistických metod v marketingovém výzkumu a problémům, které by využití metody bootstrap mohlo pomoci řešit. V další části je popsán algoritmus konstrukce intervalů spolehlivosti a postup při testování hypotéz pomocí bootstrapových rozdělení. Část obsahuje i stručné přiblížení principu permutačních testů. Použití uvedených metod je ilustrováno na praktickém příkladu, který je řešen jak s využitím statistického softwaru (S-PLUS), tak pouze s pomocí tabulkového kalkulátoru (MS Excel). Závěr je věnován dalším možnostem pro širší využití potenciálu zmíněných metod. Klíčová slova: bootstrap, permutační testy, intervaly spolehlivosti, testování hypotéz
1 Úvod Jedním ze specifik pozice statistiky v marketingovém výzkumu je silný důraz na názornost a snadnou interpretaci výstupů a určitá snaha prezentovat maximální objem informací pomocí minimálního počtu ukazatelů nebo grafů. Na druhé straně pracujeme s daty, o jejichž kvalitě by se dalo mnohdy pochybovat, a která často nesplňují mnohé požadavky kladené většinou statistických metod. Jelikož tradiční metody pro mnohdy složitě zkonstruované ukazatele nenabízejí žádná řešení, nejsou tyto ukazatele zpravidla doprovázeny informací o jejich přesnosti a ani mnohá srovnání nebývají vystavena statistickému otestování, přestože by to pro korektní interpretaci bylo více než vhodné, V tomto článku bych rád představil metodu bootstrap, která by mohla v těchto situacích uvedený problém pomoci vyřešit.
172
Vědecký seminář doktorandů FIS – únor 2008
2 Metoda bootstrap Metoda bootstrap, jejímž autorem je B. Efron, se objevuje na konci 70. let 20. století jako metoda pro posuzování přenosnosti statistických odhadů, která spíše než na složité odvozování rozdělení výběrových statistik pro známá pravděpodobnostní rozdělení spoléhá na „hrubou sílu“ výpočetní techniky. Využití substitučního principu, kdy nějakou zajímavou vlastnost neznámého rozdělení F odhadujeme přímo pomocí té samé vlastnosti, zjištěné ve výběru z tohoto rozdělení, je v teorii odhadu poměrně rozšířené. Metoda bootstrap představuje přímé využití tohoto principu tím, že neznámé rozdělení, které je objektem našeho zájmu odhaduje pomocí empirického rozdělení v našem výběru Fˆ . Každé hodnotě x tedy přisuzujeme pravděpodobnost odpovídající relativní četnosti výskytu této hodnoty ve výběru. Pro posouzení, jak přesný je náš odhad parametru θ = t (F ) jeho výběrovým protějškem θˆ = t ( x ) , používá metoda bootstrap rozdělení statistiky θˆ* = t x * , kde
( )
*
x představuje bootstrapový výběr n hodnot získaný výběrem s vracením z našeho původního výběru x o stejné velikosti n. Jelikož není prakticky proveditelné určit přesné bootstrapové rozdělení této statistiky ve všech možných bootstrapových výběrech, odhadujeme v praxi toto rozdělení výběrem B bootstrapových výběrů metodou Monte Carlo. Počet výběrů volíme podle typu úlohy a požadované přesnosti zpravidla v řádech stovek až tisíců. Využití této metody pro konstrukci intervalů spolehlivosti a testování hypotéz je popsáno v následujících odstavcích. Při popisu konkrétních algoritmů jsem čerpal z monografie [1], přičemž ve snaze o nalezení již používaných českých termínů jsem se řídil podle [2]. 2.1
Percentilové intervaly spolehlivosti
Metoda percentilových intervalů konstruuje intervaly spolehlivosti přímo pomocí kvantilů nestandardizované statistiky θˆ* = t x * , jejíž hodnotu spočítáme pro každý z B bootstrapových výběrů. Označíme-li jako Gˆ distribuční funkci statistiky θˆ* , je 1 – α percentilový interval spolehlivosti určen jako
( )
(θˆ
%, lo
) (
)
(1)
) (
)
(2)
; θˆ%,up = Gˆ (−α1/ 2 ) ; Gˆ (−11− α / 2 ) .
Tento vztah můžeme zapsat i jako:
(θˆ
%,lo
; θˆ%,up = θˆ(*α / 2 ) ; θˆ(*1− α / 2 ) .
Vědecký seminář doktorandů FIS – únor 2008
173
V této podobě by vztah platil pro ideální situaci, kdybychom použili nekonečné množství bootstrapových výběrů a mohli tak určit přesně distribuční funkci Gˆ . Jak již bylo uvedeno, v praxi se musíme spokojit s konstrukcí přibližného percentilového intervalu spolehlivosti na základě konečného počtu B výběrů, tj.
(θˆ
%, lo
) (
)
; θˆ%, up ≈ θˆB* ,( α / 2 ) ; θˆB* ,(1−α / 2 ) .
(3)
Konstrukce percentilových intervalů je velmi snadná, ale bohužel jsou tyto intervaly mnohdy nepřesné (tedy jejich skutečná spolehlivost neodpovídá požadované, nebo v případě oboustranných intervalů se nerovnají pravděpodobnosti, že se interval spolehlivosti bude nacházet nad nebo pod skutečnou hodnotou a je tedy vychýlený). 2.2
Intervalové odhady konstruované metodou BCa
Metoda BCa intervalů spolehlivosti (bias corrected and accelerated) odstraňuje největší nedostatky percentilových intervalů za cenu o něco komplikovanějšího výpočtu. Při využití statistického softwaru, který touto metodou disponuje (např. systém S-PLUS) je však použití této metody stejně snadné. Stejně jako u percentilových intervalů jsou hranice intervalů spolehlivosti určeny kvantily statistiky θˆ* . Určení těchto kvantilů však v případě BCa intervalů nezávisí pouze na zvolené spolehlivosti, ale také na parametrech označovaných aˆ (acceleration) a uˆ 0 (bias-correction), jejichž úlohou je korigovat zmíněné nedostatky. BCa interval spolehlivosti získáme tedy jako
(θˆ ; θˆ ) = (θˆ lo
up
* ( α1 )
)
; θˆ(*α2 ) ,
(4)
kde
uˆ 0 + u α / 2 , α 1 = Φ uˆ 0 + ˆ ˆ − ( + ) 1 a u u α 0 / 2 uˆ 0 + u 1−α / 2 , α 2 = Φ uˆ 0 + ˆ ˆ 1 − a ( u + u ) 0 1−α / 2
(5)
přičemž Ф(x) představuje distribuční funkci normovaného normálního rozdělení v bodě x a uα α100% kvantil normovaného normálního rozdělení.
174
Vědecký seminář doktorandů FIS – únor 2008
Parametr uˆ 0 vyjadřující velikost vychýlení získáme snadno přímo z podílu bootstrapových výběrů, ve kterých vyšla hodnota statistiky θˆ* větší, než původní (b )
odhad parametru θˆ na základě výběrových hodnot:
{
B ˆ* # θ ( b ) < θˆ uˆ 0 = Φ −1 b =1 B
} ,
(6)
kde Ф-1(p) představuje kvantilovou funkci normovaného normálního rozdělení a funkce #{A} označuje počet prvků množiny, pro kterou platí uvedená podmínka A. Parametr v podstatě představuje znormovaný medián zkreslení statistiky θˆ . V případě, že v polovině případů vyjde θˆ* větší a v polovině menší než θˆ , bude (b )
odhad zkreslení nulový, a tedy uˆ 0 = 0 . Výpočet parametru aˆ lze provést několika možnými způsoby, z nichž nejjednodušší je založen na metodě jackknife. Označíme-li výběrový soubor, ze kterého odstraníme i-té pozorování jako x(-i) a obdobně hodnotu statistiky vypočítanou na základě hodnot tohoto souboru θˆ( − i ) = t x( − i ) , potom můžeme určit hodnotu para-
(
)
metru aˆ jako
∑ (θˆ n
aˆ =
(.)
i =1
− θˆ( − i )
(
)
3
)
n ˆ ˆ 2 6 ⋅ ∑ θ (.) − θ ( − i ) i =1
, 3 2
(7)
kde n
1 θˆ(.) = ∑ θˆ( − i ) n i =1
(8)
představuje průměrnou hodnotu jackknife statistiky θˆ( − i ) . Takto vypočtený parametr vyjadřuje rychlost, s jakou se mění směrodatná chyba odhadu v závislosti na skutečné hodnotě parametru θ.
Vědecký seminář doktorandů FIS – únor 2008
175
2.3
Testování hypotéz pomocí bootstrapu
Přestože byla metoda bootstrap navržena původně pro konstrukci intervalů spolehlivosti, díky úzkému vztahu mezi intervaly spolehlivosti a testováním hypotéz lze tuto metodu úspěšně využít i k testování hypotéz. V případech, kdy můžeme testovanou hypotézu vyjádřit jako tvrzení o nulové hodnotě nějakého vhodně zvoleného parametru θˆ0 H0: θˆ0 = 0,
(9)
můžeme tuto hypotézu otestovat tak, že budeme hledat takovou hladinu významnosti α0, pro kterou platí, že dolní hranice intervalu spolehlivosti je rovna nule. Pro percentilové intervaly získáme odhad této hladiny významnosti jako ∧
ASL % =
{
}
1 B ˆ* # θ( b ) < 0 . B b=1
(10)
Při využití BCa intervalů je hledaná hladina významnosti odhadnuta jako ∧ w0 − uˆ0 ASL BCa = Φ −1 − uˆ0 , ˆ ˆ 1 a w u ( ) + − 0 0
(11)
w0 = Φ −1 (α0 ) .
(12)
kde
Obecněji použitelných postupů, jak aplikovat bootstrap při testování hypotéz, je nepřeberné množství. Tyto testy jsou zpravidla založené na úpravě bootstrapového rozdělení tak, aby odpovídal testované hypotéze a volbě vhodného testového kritéria. 2.4
Permutační testy
Permutační testy nacházejí využití zejména v případech, kdy testujeme hypotézu o shodě dvou pravděpodobnostních rozdělení H0: F = G
(13)
na základě dvou nezávislých výběrů x = (x1, … ,xn) a y = (y1, … ,ym) pořízených z těchto rozdělení.
176
Vědecký seminář doktorandů FIS – únor 2008
Pro provedení testu je třeba zvolit nějaké vhodné testové kritérium θˆ takové, abychom v případě, že testovaná hypotéza neplatí, očekávali vysoké hodnoty a při platnosti H0 očekávali hodnoty nízké. Je-li nulová hypotéza pravdivá, pak každá napozorovaná hodnota má stejnou pravděpodobnost nastání v obou sledovaných souborech o velikostech m a n. Všechny permutace zařazení m + n hodnot do obou souborů, by tedy měly být stejně pravděpodobné. Pokud bychom spočítali hodnotu testového kritéria pro všechny takové permutace, získali bychom rozdělení tohoto kritéria za platnosti H0. Jelikož je takových permutací příliš velké množství, spokojíme se podobně jako u bootstrapu s dostatečně velkým náhodným výběrem z množiny těchto permutací metodou Monte Carlo. Dosaženou hladinu významnosti testu ASL pak určíme tak, aby platilo:
ASL = P (θˆ* ≥ θˆ H 0 ) ,
(14)
tedy pro případ, kdy zjistíme hodnotu kritéria θˆ(*b ) pro B náhodně vybraných permutací ji odhadujeme jako ∧
ASL perm =
{
}
1 B ˆ* # θ( b ) ≥ θˆ . B b =1
(15)
3 Praktický příklad Příklad, na kterém budou aplikovány zmíněné metody, pochází z výzkumu pro výrobce alkoholu. Použitá data obsahují údaje o konzumaci různých značek vodky v počtu skleniček za poslední 4 týdny, zjištěné dotazováním 9 037 respondentů různých věkových kategorií. Pro řešení této úlohy jsou tradiční metody statistické inference jen těžko použitelné, jelikož: •
rozdělení hodnot počtu vypitých skleniček je silně asymetrické (zejména je velký počet nulových hodnot), což je patrné na obrázku 1,
•
a ukazatele, které nás zajímají, jsou zpravidla nelineárními funkcemi několika závislých veličin.
Vědecký seminář doktorandů FIS – únor 2008
177
9000
300
a)
b)
8000 250 7000 200
6000 5000
150 4000 3000
100
2000 50 1000 0
0 0
5
10
15
20
0
25
5
10
15
20
25
Obrázek 1. a) rozdělení četností hodnot konzumace značky – většina hodnot je rovna nule, b) po odfiltrování nulových hodnot, rozdělení je přibližně exponenciálně klesající s častějším výskytem násobků 5.
3.1
Popis úlohy
Datovou matici X tvoří vektory x1, …, x6 s údaji o konzumaci 6 značek a vektor x7 shrnující konzumaci ostatních značek vodky. Každý z těchto vektorů xk obsahuje hodnoty xijk, udávající počet skleniček značky k, kterou vypil za poslední 4 týdny itý respondent j-té věkové kategorie. Definujeme-li skutečný podíl Πk k-té značky na trhu s K značkami jako N
Πk =
∑X
ik
=
i =1 N K
∑∑ X
ik
i =1 k =1
X ik
,
K
∑X
(16)
ik
k =1
pak odhadem tohoto podílu využívajícím substituční princip je jeho výběrový protějšek: N
Πˆ k =
∑x
ik
=
i =1 N K
∑∑ x i = 1 k =1
ik
x ik
.
K
∑x
(17)
ik
k =1
Obdobně můžeme definovat i podíl k-té značky na trhu v j-té věkové kategorii Πjk.
178
Vědecký seminář doktorandů FIS – únor 2008
3.2
Intervaly spolehlivosti
Pro konstrukci intervalových odhadů podílů jednotlivých značek jsem použil proceduru Resample v systému S-PLUS. Výsledky pro B = 1 000 bootstrapových výběrů jsou uvedeny v tabulce 1. Tabulka 1. Shrnutí výsledků intervalových odhadů podílů jednotlivých značek na trhu značka 1 2 3 4 5 6 ostatní
Obs. 0,171 0,426 0,038 0,106 0,172 0,035 0,051
Bias 0,001 -0,001 0,000 0,000 0,000 0,000 0,000
Mean 0,172 0,425 0,039 0,106 0,172 0,035 0,051
SE 0,010 0,013 0,005 0,008 0,009 0,004 0,007
%lo 0,153 0,398 0,030 0,090 0,155 0,027 0,040
%up 0,191 0,452 0,048 0,123 0,190 0,044 0,063
BCalo 0,153 0,402 0,030 0,091 0,155 0,027 0,041
BCaup 0,191 0,455 0,049 0,125 0,192 0,045 0,064
Ve sloupci Obs. jsou uvedeny hodnoty napozorované v našem výběru, zatímco ve sloupci Mean jsou průměrné hodnoty ze všech bootstrapových výběrů. Rozdíly těchto hodnot, uvedené ve sloupci Bias, představují očekávané zkreslení našich odhadů. V tomto případě je zkreslení minimální. Ve sloupci SE je směrodatná chyba odhadu a ve sloupcích %lo, %up, BCalo a BCaup jsou dolní a horní hranice 95% intervalů spolehlivosti. Rozdíly mezi hranicemi percentilových a BCa intervalů jsou minimální a jelikož je tvar bootstrapového rozdělení (viz obrázek 2) přibližně normální, jsou intervaly poměrně symetrické.
0
20
40
Density
60
80
100
Param
0.025
0.030
0.035
0.040
0.045
0.050
0.055
Value
ˆ* Obrázek 2. Bootstrapové rozdělení statistiky Π 3
Vědecký seminář doktorandů FIS – únor 2008
179
3.3
Testování hypotéz
Pokud chceme například ověřit, jestli je podíl na trhu třetí značky Π3 významně větší než podíl šesté značky Π6, formulujeme testovanou hypotézu o nulové hodnotě parametru θˆ0
Π H0: θˆ0 = ln 3 = 0 ,
(12)
Π6
který je při rovnosti obou podílů roven 0 a nabývá tím vyšších hodnot, čím je větší podíl třetí značky než šesté. Nalezením takového intervalu spolehlivosti pro tento parametr, jehož dolní hranice je rovna nule, určíme hledanou hladinu významnosti. ∧
Při použití B = 1 000 bootstrapových výběrů vychází ASL% = 0,309 a ∧
ASL BC a = 0,257. Ani v jednom případě jsme tedy neprokázali, že by podíl třetí značky byl skutečně větší. Pokud bychom chtěli otestovat, zda-li je například značka úspěšnější ve věkové kategorii 18 – 24 let než v kategorii 25 – 34, je vhodnější použití permutačního testu. Zvolíme-li jako testové kritérium statistiku
θˆ = Πˆ 2,1 − Πˆ 2, 2 ,
(12)
odhadneme její rozdělení na základě B = 1 000 permutací vygenerovaných v MS ∧
Excel. (viz obrázek 3) V tomto případě vychází ASL perm = 0,094 , tedy jsme neprokázali, že by značka byla úspěšnější mezi mladými. 180 160 140 120 100 80 60 40 20 0 -0,1
-0,05
0
0,05
0,1
0,15
Obrázek 3. Odhad rozdělení statistiky θˆ při platnosti H0 metodou Monte Carlo
180
Vědecký seminář doktorandů FIS – únor 2008
4 Závěr Pomocí zmíněných metod se podařilo poměrně snadno vyřešit některé úlohy, jejichž řešení by bylo s využitím tradičních metod obtížné nebo dokonce nemožné. Velkou předností těchto metod se tedy ukázaly být jejich široké možnosti použití tam, kde předpoklady pro použití tradičních metod nejsou splněny. Přestože je možné všechny uvedené algoritmy vlastními silami naprogramovat s použitím tabulkového kalkulátoru, pro běžné použití těchto metod by bylo vhodné tyto postupy zautomatizovat tak, aby byly volitelně přímo součástí běžných výstupů. V takovém případě by však bylo potřeba výpočty maximálně zefektivnit a negenerovat novou sadu bootstrapových výběrů pro každý odhadovaný ukazatel. Pokud by se tyto cíle podařilo splnit, mohlo by širší využití uvedených metod zkvalitnit pohled na mnohé ukazatele, u kterých jsme dosud při jejich interpretaci byli odkázáni na úsudek výzkumníka.
Literatura [1] Efron, B., Tibshirani, R. J.: An Introduction to the Bootstrap. Chapman & Hall, New York 1998. [2] Prášková, Z.: Metoda bootstrap. Robust 2004. 299–314.
Summary Application of Bootstrap and Permutation Tests in Market Research This article presents bootstrap as a computer-intensive alternative for traditional methods of statistical inference. The introduction is devoted to the role of statistics in market research and the problems than could possibly be solved with use of bootstrap. Brief description of the algorithms for calculation of bootstrap confidence intervals and using bootstrap for hypothesis tests follows in the next section. This section also covers the principles of permutation tests. All described methods are illustrated on a practical example using both statistical software and spreadsheet. Potential opportunities for wider use of described methods are discussed in the end.
Vědecký seminář doktorandů FIS – únor 2008
181