Analisis Value at Risk Menggunakan Metode Extreme Value TheoryTheoryGeneralized Pareto Distribution Dengan Kombinasi Algoritma Meboot dan Teori Samad--Khan (studi kasus PT.X) Samad Angga Adiperdana 2506.202.013
BAB 1 PENDAHULUAN
Latar Belakang
Saat ini, risiko operasional semakin menjadi perhatian perusahaan--perusahaan, tidak hanya perbankan dan perusahaan asuransi, namun juga perusahaan / industri pada umumnya. Belum pernah diteliti perhitungan nilai risiko operasional berdasarkan extreme value theory menggunakan generalized pareto distribution. Penelitian ini mencoba untuk membuat model perhitungan nilai risiko operasional berdasarkan extreme value theory menggunakan generalized pareto distribution. Keterbatasan data yang muncul diatasi dengan algoritma meboot.
Perumusan Masalah Bagaimana membuat model untuk perhitungan nilai risiko (Value (Value at Risk, VaR)) berdasarkan extreme value theory VaR menggunakan generalized pareto distribution dengan datadata-data historis tentang losses yang ketersediaannya terbatas.
Tujuan Penelitian 1.
2.
Mengembangkan metode generalized pareto distribution untuk perhitungan nilai risiko (VaR) dimana distribusi loss dibangun dengan teknik SamadSamad-Khan. Menerapkan model yang diperoleh untuk analisis risiko di PT X, dimana keterbatasan jumlah data diselesaikan dengan teknik bootstrapping algoritma Meboot.
Batasan Masalah
Data-data losses terutama adalah data Datadata--data losses di PT X yang sudah terter-database meliputi data frekuensi terjadinya loss, dan nilai loss.
Akan diperhatikan pengaruh nilai uang dari tahun ke tahun, namun dibatasi pada pengaruh nilai suku bunga bank (dianggap sudah mencakup faktor inflasi).
Sistematika Penulisan BAB 1
BAB BAB BAB BAB BAB
2 3 4 5 6
Pendahuluan: Latar Belakang, Perumusan Masalah, Tujuan Penelitian, Batasan Masalah Tinjauan Pustaka Metodologi Penelitian Pengembangan Model Analisis Data dan Pembahasan Kesimpulan dan Saran
BAB 2 Tinjauan Pustaka
Risiko didefinisikan sebagai kombinasi antara peluang munculnya suatu peristiwa dengan konsekuensinya. Risiko bisa muncul dari ketidaktentuan-ketidaktentuan di pasar finansial, kegagalan proyek, pertanggung jawaban hukum, risiko kredit, kecelakaan, bencana alam, maupun kesengajaan-kesengajaan dari pihakpihak tak bertanggung jawab, dan lain-lain. Manajemen risiko adalah tindakan mengidentifikasi, memeriksa, dan memperhatikan risikorisiko-risiko disambung dengan pelaksanaan pengelolaan yang terkoordinasi dan ekonomis terhadap sumber sumber--sumber daya guna meminimalkan, memantau dan mengendalikan kemungkinan--kemungkinan dan/atau dampak terjadinya kemungkinan peristiwa--peristiwa yang tidak menguntungkan. peristiwa menguntungkan.
Operational Risk ?
Risiko yang timbul baik secara langsung atau tidak langsung dari ketidaktepatan atau kegagalan prosesproses-proses internal, orang--orang dan sistem orang sistem--sistem, serta dari peristiwa--peristiwa eksternal. peristiwa
Metode Pengukuran/Identifikasi risiko Operasional
Metode Pengukuran risiko 1.
Metode Standar dari Basel II
2.
Basic Indicator Approach Standardized Approach Alternative Standardized Approach
Metode Internal
Basic Indicator Approach (BIA) α x K BIA =
3
∑ GIi i =1 3
dimana KBIA = nilai kapital risiko operasional α = parameter yang besarnya ditetapkan sebesar 20% GIi = indikator eksposure risiko operasional (yaitu gross income) rata-rata selama tiga tahun
Standardized Approach (SA) 3
Max (0 , K SA =
∑ GIi x βi ) i =1 3
dimana KSA = kapital risiko operasional menurut metode SA GIi = Gross income satu tahun pada business line i βi = konstanta yang ditetapkan oleh Basel II untuk business line i (12% s.d. 18% tergantung business line i)
Alternative Standardized Approach (ASA)
K RB = β RB x m x LARB
dimana KRB = kapital risiko untuk line retail banking βRB = konstanta yang ditetapkan oleh Basel II untuk retail banking m = 0,035 LARB = total loan dan advances dari line retail banking
KelemahanMetode Standard
Merupakan metode baku untuk perbankan yang belum settled/managed dengan baik Pengukuran risiko tahunan dilakukan secara kasar, yaitu hanya dengan memperhatikan annual gross income Sehingga terhitung nilai kapital risiko yang terlalu besar (over secured)
Metode Internal
Penggunaan metode internal atau advanced measurement approach memberikan keleluasaan dan peluang mendapatkan kewajiban alokasi kapital yang lebih kecil. Namun, untuk itu diperlukan pemodelan distribusi probabilitas nilai losses yang didasarkan pada datadata-data historis sehingga untuk menerapkan metode ini bank harus mempunyai database loss risiko operasional setidaksetidaktidaknya dua hingga lima tahun ke belakang. Model distribusi yang digunakan umumnya adalah distribusi normal. Besarnya capital charge ini dinyatakan dalam nilai VaR.
Kelemahan Metode Internal
Penghitungan VaR yang menggunakan pendekatan central atau normal (tradisional), dipikirkan tidak tepat. tepat. Pengamatan terkini menunjukkan bahwa (selalu) ada potensi kejadiankejadian-kejadian yang bersifat ekstrim, dimana frekuensi terjadinya memang sangat rendah namun, jika terjadi akan menimbulkan dampak kerugian yang sangat besar.. Fenomena ekstrim ini tidak tercakup dalam besar penghitungan VaR secara tradisional (dimana menggunakan pendekatan dengan distribusi normal). normal). Dibutuhkan suatu model distribusi yang bisa mengakomodasi faktor extreme extreme.. Model distribusi itu harus memiliki ekor (tail) ke kanan yang cukup panjang (fat tail atau heavy tail). tail).
Extreme Value Theory (EVT)
Perhitungan nilai extreme yang dapat menghitung besarnya expexted losses maupun extreme losses. EVT menjawab pertanyaan seberapa besar kehilangan yang terjadi dengan probabilitas x% (kuantil) sepanjang periode tertentu.. tertentu Dengan bantuan kurva probabilitas agregat maka konsep EVT
EVT dapat digunakan untuk penghitungan VaR yang lebih baik d/p metode Central/Normal, karena bisa mengakomodasi faktor extreme events, sehingga nilai VaR lebih akurat
P(x ≤ VaRα ) = α VaR = F −1(1- α)
α
F -1 adalah fungsi kuantil, yaitu inverse dari fungsi distribusi F dengan: x :adalah variabel severity of loss VaRα :adalah nilai VaR untuk business line tertentu pada level kepercayaan α (nilai α sering diambil 99,9%)
Aggregated Probability Distribution
Terlihat bahwa kurva densitas probabilitas menggunung ke sebelah kiri atau pada sisi dampak finansial rendah, yang artinya frekuensi yang tinggi terjadi pada risiko-risiko dengan dampak finansial relatif rendah. Dari kurva tergambarkan juga bahwa risiko-risiko yang berdampak finansial tinggi bisa pula terjadi, meskipun dengan probabilitas yang sangat kecil.
Distribusi Normal tidak bisa mengakomodasi extreme events
A A
Metode Yang Memperhatikan Kejadian Extreme 1.
GPD muncul dari konsep pengambilan data losses yang melebihi suatu nilai yang disebut threshold value, maka sering pula disebut metode excesses over threshold value atau peak over threshold (POT).
Penanganan Extreme Losses
(a) Block Maxima
(b) Excesses over Threshold Value u
Generalized Pareto Distribution (GPD): Distribusi GPD berdasarkan pada teori yang dibangun oleh Picklands,Dalkema,de hann menunjukkan bahwa jika Fµ adalah fungsi distribusi dari kerugian di atas treshold : Fµ = Pr (X-µ <= y | X>µ), 0<=y<=Xf-µ maka Fµ didistribusikan secara GPD dengan fungsi probabilita kumulatif sebagai berikut :
Dimana parameter µ (myu) dan β (Beta) disebut parameter skalar dan tendensi, sedangkan ξ (ksi) disebut tail index yang menunjukkan gemuk atau kurusnya tail dari distribusi. Semakin besar nilai index maka tail semakin gemuk. Jika nilai index ξ = 0 maka H menjadi tipe Gumbel. Jika ξ < 0 maka H menjadi tipe Weibull, dan jika ξ > 0 maka H menjadi tipe Frechet. Tipe Frechet adalah tipe fat tail, maka tipe ini sangat cocok sebagai model distribusi tail/extreme.
Bootstrapping
Untuk memperoleh datadata-data EOT perlu tersedia datadatadata losses (severitas) dan frekuensi kejadian. Persoalan yang sering ada ialah bahwa datadata-data itu tidak tersedia secara cukup.
Metode bootstrapping menjadi teknik yang sangat bermanfaat untuk mengatasi kekurangan poin data. Dalam jurnal yang ditulisnya, WeiWei-han Liu (2007) mengungkapkan bahwa Algoritma MEBoot yang ditemukan oleh Vinod sangat bagus mengatasi kekurangan yang ada pada metode bootstrapping tradisional dalam pelaksanaan bootstrapping. Algoritma MEBoot ini akan dipakai dalam penelitian ini.
Algoritma MEBoot
Hasil Penelitian Algoritma Meboot:
Algoritma Meboot mampu men-generate data yang sangat fit dengan data aslinya.
Menyusun Total Loss Distribution Sementara itu RippelRippel-Teply (2008) menunjukkan bahwa distribusi loss yang secara tradisional dianggap mengikuti distribusi normal bisa disusun dengan memperhatikan data loss aslinya dikombinasi dengan distribusi frekuensi loss yang didekati dengan distribusi Poisson. Metode ini disebut metode Samad--Khan. Samad
Teori Samad Khan 1)
“existing empirical evidence suggest that the general pattern of operational loss data is characterized by high kurtosis, severe right-skewness and a very heavy right tail created by several outlying events.”
2)
1. Simulasikan secara Poisson jumlah kejadian loss selama setahun, n1 , n2 , ...nk 2. Untuk setiap jumlah nk kejadian, simulasikan nilai loss 3. Susun kumulasi loss tahunan
Distribusi Poisson mencerminkan probabilita jumlah dan frekuensi kejadian,contoh : jumlah atau frekuensi terjadinya kecelakaan kerja
4. Susun total loss distribution
Memberikan gambaran tentang bagaimana memodelkan distribusi frekuensi dalam penyusunan distribusi severitas Tidak diungkapkan metode untuk mengatasi kekurangan data loss
Simulasi Monte Carlo
Positioning Penelitian No 1
Metode Basic Indicator Approach (Muslich M,2007)
Ruang lingkup Perbankan Manufaktur
Kerugian yang di cover Expected loss Unexpected loss Exceptional loss
+
-
+
-
-
+
-
+
-
-
+
-
+
-
-
4
Alternative Measurement Approach (Embrechts,dkk,.2005)
+
-
+
-
-
5
Extreme Value Theory (Wei Han liu,2007)
+
+
+
-
-
6
Penelitian ini
+
+
+
+
+
2
3
Standardized Approach (Andrei Tinca,2007) Alternative Standardized Approach (Chernobai,dkk,2007)
BAB 3 METODOLOGI PENELITIAN
Mulai Data-data loss aktual (jumlah sangat terbatas)
Bootstrap dengan algoritma MEBoot Data Loss Hasil Bootstrap Metode Samad-Khan (Rippel-Teply) Model Distribusi Goodness of Fit Test
Fit ?
Simulasi Frekuensi Kejadian Poisson Data Frekuensi Kejadian Hasil Simulasi Poisson Generate Nilai-nilai Total Loss
Tetapkan suatu nilai THRESHOLD EasyFit 5.2 Professional diinstalkan dalam MS Excel
Hitung Excesses Over Threshold Susun Histogram nilai-nilai Excesses Over Threshold
Hitung parameter GPD
Goodness of Fit Test
Fit ?
Generate random variate GPD
Run Simulasi
Analsis statistik: quantile, mean, VaR
Kesimpulan
BAB 4 PENGEMBANGAN MODEL
GPD
Pada prinsipnya model yang dikembangkan pada penelitian ini ialah model simulasi Monte Carlo, yaitu lebih pada penggunaan metode pembangkitan bilangan random dan perhitungan statistik daripada manipulasi analistis--matematis. analistis Penelitian dimulai dari persoalan pemodelan distribusi nilai--nilai total loss dimana seringkali pada datanilai data-data itu terdapat poin data yang muncul dari sejumlah kecil event loss dengan nilai yang sangat besar (disebut extreme). Fungsi distribusi probabilitas yang bisa mengakomodasi extreme event itu ialah yang memiliki tail ke arah kanan yang panjang (istilah lain: fat, heavy).
Cummulative distribution function (cdf) dari GPD mengikuti persamaan:
dan probability density function (pdf):
Parameter k, µ, σ
Ditentukan dengan teknik MLE: Fungsi Likelihood, L:
n 1 L= σ i =1
∏
1 − +1 k ( x i − µ ) k 1 + σ
1 − +1 n n k ( x i − µ ) k 1 L = 1 + σ σ i =1
∏
Dalam formulasi logaritma:
n
1 k ( xi − µ ) ln L = −n ln σ − ( + 1) ln 1 + k σ i =1
∑
∂ ln L =0 ∂σ n k (xi − µ ) / σ 1 − + 1 − =0 σ k σ µ σ ( 1 + k ( x − ) / ) i i =1 n ( xi − µ ) / σ k n k = σ k +1 σ (1 + k (xi − µ ) / σ ) i =1 −n
∑
∑
n
∑
i =1
( xi − µ ) / σ n = 1 + k ( xi − µ ) / σ 1 + k
∂ ln L =0 ∂k n 1 n (xi − µ ) / σ = 0 1 − − ln (1 + k ( xi − µ ) / σ ) − + 1 (1 + k (xi − µ ) / σ ) k k 2 i =1 i =1 n 1 n (xi − µ ) / σ 1 ln (1 + k (xi − µ ) / σ ) = + 1 2 (1 + k (xi − µ ) / σ ) k k i =1 i =1
∑
∑
1 2 k
∑
∑
n ln (1 + k ( xi − µ ) / σ ) = k + 1 n k 1 + k i =1
∑
n
∑ ln[1 + k (xi − µ ) / σ ] = nk
i =1
n
∑ ln [1 + k (xi − µ ) / σ ] = nk
i =1
Parameter k dan σ bisa dihitung secara numerik:
Pertama, dicoba suatu nilai awal dari kedua parameter. Kemudian, nilai ruas kiri pada persamaan tsb dihitung. Jika pada persamaan tersebut, nilai ruas kiri dikurangi ruas kanan bernilai mendekati nol, maka nilai kedua parameter k dan σ sudah didapatkan. Sedangkan nilai parameter µ ditentukan sebagai nilai terkecil data yaitu µ = minimum (xi).
Perhitungan bisa dilakukan dengan MS Excel Solver. Namun demikian, dengan software khusus statistik probabilitas EasyFit 5.2 Professional, Professional, penyelesaian penentuan parameter--parameter bisa dilakukan dengan jauh lebih cepat. parameter Pada penelitian ini, penentuan parameter dilakukan dengan bantuan software statistik probabilitas EasyFit 5.2 Professional.. Professional
Untuk bisa mensimulasikan bilangan random yang akan terdistribusi secara GPD, maka disusun persamaan random variatnya sebagai berikut. 1 k (x − µ ) − k F = 1 − 1 + σ
1 − k (x − µ ) k =1− F 1 + σ
x=µ+
σ (1 − F )− k − 1 k
Persamaan Kuantile:
σ − 1 F ( p) = µ + k
(1 − p )− k − 1
Besaran yang ingin dicari dalam analisis risiko ialah value at risk (VaR) yang merupakan p% kuantile dari distribusi nilai total loss:
VaR p%
(
− 1 = F ( p%)
)
F nilai loss x ≤ VaR p% = p%
Jika F (x) adalah distribusi nilai total loss x, dan u adalah suatu nilai threshold, maka nilai excesses over threshold (EOT) ialah x – u. Dalam hal ini hanya kondisi dimana x > u, yaitu EOT positif, yang diperhatikan. Dimisalkan Fu (y) adalah distribusi nilai EOT y (ialah y=x - u), maka untuk y positif (x > u):
Fu ( y ) =
P{X − u ≤ y X > u} P{X > u}
F ( y + u ) − F (u ) = 1 − F (u )
F ( y + u ) = [1 − F (u )] Fu ( y ) + F (u ) )
n − Nu n − Nu F x u F (x ) = 1 − ( − ) + u n n n − Nu n − n + Nu = Fu (x − u ) + n n
Nu [1 − Fu (x − u )] = 1− n N u =1− 1 − n
1 −
1 − ( x − u ) k 1 + k σ
1 − Nu ( x − u ) k = 1− 1+ k n σ
INVERSE:
1 − Nu ( x − u ) k = 1 − F (x ) 1+ k n σ
1 − ( ) x u n − k [1 − F (x )] = 1 + k σ Nu −k ( x − u ) n 1 + k σ = N [1 − F (x )] u (x − u ) n k σ = N [1 − F (x )] u
−k
−1
−k σ n x=u+ [1 − F (x )] − 1 k N u
Untuk data-data excesses over threshold (EOT) akan berlaku persamaan:
−k σ n − 1 F ( p) = µ + ( 1 − p ) − 1 k N threshold Dengan software EasyFit maka parameter2 k,σ, danµbisa ditentukan sehingga persamaan tsb bisa digunakan untuk menghitung VaR dengan memasukkan nilai p tertentu, biasanya adalah 0,999 atau 99,9%.
Algoritma meboot Nomor Kolom
Nama Kolom
Keterangan
1
T
Indeks urutan waktu
2
xt
Variabel random loss pada waktu ke-t
3
x(t)
Variabel random x yang diurutkan nilainya dari kecil ke besar
4
(t)
Vektor indeks urutan, untuk mencatat urutan asli dari variabel random x
5
zt
Rata-rata dari setiap dua x(t) yang berurutan
6
mt
Mean dari setiap interval
7
dt
Selisih absolut antara dua xt , yaitu dt = |xt+1 - xt|
8
U
Bilangan random U(0,1)
9
Sorted U
Bilangan random U diurutkan dari kecil ke besar
10
Batas kuantile
Batas-batas kuantile pada setiap interval yang
xj,(t),me
Nilai variabel random hasil bootstrap yang urutan
11
jaraknya dibuat sama
indeks waktunya belum dipulihkan 12
xj,t
Nilai variabel random hasil bootstrap yang sudah dipulihkan urutan indeksnya
Data asli
Data hasil bootstrap
Untuk mengisi kolom keke-11, diperhatikan misalnya angka random 0,338 pada kolom keke-9. Dia ada di baris keke-2 dan berada diantara batas kuantile 0,333 dan 0,667. Perhitungan kuantile yang sesuai dilakukan dengan prinsip interpolasi dengan rumus:
(
)
)(
z −z atas bawah z=z + x U −batas kuantile bawah batas kuantile bawah −batas kuantile atas bawah
(
z = 12 +
( 21−12 )
(0,667 − 0,333)
x( 0,338 − 0,333) = 12,1
)
Distribusi Frekuensi Kejadian Loss:
Untuk memodelkan distribusi frekuensi kejadian munculnya loss dipakai fungsi distribusi Poisson sesuai model SamadSamad-Khan (Rippel(Rippel-Teply, 2008). Nilai parameter Poisson ditentukan dari data yang ada. Jika ada sejumlah n kejadian yi maka: n
∑ yi
λ = i =1 n
Sehingga probabilitas frekuensi kejadian bisa diperkirakan: λ y e-λ p(y)= , y = 0, 1, 2, ... y!
Samad Khan
Ditetapkan suatu nilai threshold tertentu dan nilai excesses dari setiap poin data loss dihitung, sehingga diperolehlah histogram ataupun fungsi distribusi dari nilai excesses over threshold (EOT).
Parameter-parameter (k dan σ) dari distribusi GPD untuk Parametermemodelkan data excesses over threshold bisa dihitung dengan metode maximum likelihood estimation (MLE), namun dalam penelitian ini akan digunakan software statistik probabilitas EasyFit 5.2 Professional untuk mempercepat analisis. Ketiga parameter terhitung diperiksa goodness of fitnya. Jika ternyata sudah fit, maka model simulasi Monte Carlo dilanjutkan untuk kemudian dilakukan penghitungan nilai risiko secara statistik menggunakan fungsi percentile ataupun dengan menyusun data probabilitas loss dari hasil simulasi yang diperoleh.
Data:
Data interest rate:
BAB 5 ANALISIS DAN PEMBAHASAN
Data Losses:
Bootstrapping total nilai losses dengan Algoritma MEBoot Tabel 5.3 Implementasi Algoritma MEBoot
Histogram Data Losses:
Untuk dapat mensimulasikan bilangan random dari nilai losses dengan pdf yang diperoleh tersebut secara Monte Carlo, maka dalam MS Excel (dimana terter-install EasyFit) bisa digunakan fungsi generator random variat variat:: =GenExtremeRand(k;sigma;mu))
dengan k = -0,1592 ; sigma (σ) = 201,01 ; dan mu (µ) = 2636,8.
Histogram Frekuensi Kejadian Losses:
Random variat dalam MS Excel (ter-install EasyFit): =DistRand(”Poisson(1)”)
Tabel 5.5 Captured Simulasi Monte Carlo dengan Cara Samad-Khan (Rippel-Teply) dalam MS Excel
TOTAL NILAI LOSS
Gambar 5.8 Satu Contoh Histogram Total Nilai Loss Hasil Simulasi Monte Carlo dengan Cara Samad-Khan (Rippel-Teply).
Excesses Over Threshold (EOT):
EOT minus tidak disertakan
Gambar 5.9 Histogram Contoh Excesses Over Threshold (Terdistribusi GPD)
Tabel 5.8 Simulasi Perhitungan Nilai VaR dari Data EOT
−k σ n − 1 F ( p) = µ + ( 1 − p ) − 1 k N threshold − 0,1617 1125 ,9 2345 − 1 VaR 99,9% = F (0,999 ) = 1091,3 + (1 − 0,999 ) − 1 = 12510 ,2 0,1617 50
Nilai VaR tersebut untuk periode dua tahunan. Nilai VaR untuk periode satu tahunan akan sebesar 12,510 Milyar : 2 = 6,255 Milyar
BAB 6 KESIMPULAN DAN SARAN
KESIMPULAN: 1. Diperoleh pengembangan model untuk perhitungan Value at risk menggunakan metode extreme value theory dan generalized pareto distribution adalah σ
F −1 ( p) = µ + ( 1 − p ) k N threshold n
−k
− 1
Yang menggunakan parameter losses yang dialami oleh suatu organisasi sehingga model perhitungan VaR dari penelitian ini dapat diaplikasikan pada seluruh industry.
2. Pada penelitian ini telah dibuat model untuk perhitungan nilai risiko (Value at Risk, VaR) berdasarkan extreme value theory menggunakan generalized pareto distribution dengan datadata-data historis tentang losses di lingkup PT X yang ketersediaannya terbatas. Data loss (severity) dengan jumlah sangat terbatas dikenai bootstrapping dengan Algoritma MEBoot sehingga diperoleh jumlah poin data sesuai yang diinginkan. Distribusi severitas yang diperoleh kemudian dikombinasikan dengan teknik SamadSamad-Khan (Rippel--Teply) dimana frekuensi kejadian dimodelkan dengan fungsi (Rippel Poisson sehingga diperoleh data nilai total loss. Dengan menetapkan suatu nilai threshold tertentu dihitung nilai excesses over threshold (EOT). Ternyata nilai EOT terdistribusi secara GPD, sehingga analisis lebih lanjut bisa didasarkan pada fungsi distribusi tersebut.
3. Nilai VaR PT. X tahun 2009 berdasarkan hasil simulasi perhitungan adalah sebesar Rp Rp.. 6,255 milyar. milyar.
SARAN Penelitian ini ditekankan pada pengembangan metode analisis nilai VaR dalam manajemen risiko operasional. operasional. Suatu model telah berhasil dikembangkan, dan bisa dipakai untuk keperluan analisis nilai risiko dalam kondisi jumlah data loss yang sangat terbatas. terbatas. Disarankan model bisa diuji ulang dengan dibantu pemrograman yang lebih baik kemampuan perhitungannya sehingga bisa dicobakan pada kasus dengan jumlah periode yang lebih banyak. banyak.
Daftar Pustaka
Bensalah, Y., (2000), Steps in Applying Extreme Value Theory to Finance: A Review, Review, Working Paper, Bank of Canada, Ottawa Embrects et al, (1999), Extreme Value Theory as A Risk Management Tool, Tool, North American Actuarial Journal, Volume 3, Number 2 Gençay et al, (2003), High volatility, thick tails and extreme value theory in valuevalue-at at--risk estimation,, Insurance Mathematics and Economics 33 (2003) 337– estimation 337–356, Elsevier Gilli And Kellezi, (2003), An Application of Extreme Value Theory for Measuring Risk, Risk, Preprint submitted to Elsevier Science, Department of Econometrics, University of Geneva and FAME CH– CH–1211 Geneva 4, Switzerland Kakiay, T.J., (2004) 2004), Pengantar Sistem Simulasi, Penerbit Andi Yogyakarta Liu, WW-H, (2007), A Closer Examination of Extreme Value Theory Modeling in Value at Risk Estimation,, Department of Banking and Finance, Tamkang University, Taipei, Taiwan Estimation McNeil, A.J., (1999), Extreme Value Theory for Risk Managers, Managers, Departement Mathematik, Mathematik, ETH Zentrum,, CHZentrum CH-8092 Zurich Muslich, M., (2007) 2007), Manajemen Risiko Operasional, Teori & Praktik, Bumi Aksara, Jakarta Paszek, E., (2007) 2007)., Maximum Likelihood Estimation (MLE), produced by The Connexions Project and licensed under the Creative Commons Attribution License Rippel And Teply, Teply, (2008). “ Operational Risk - Scenario Analysis ” IES Working Paper 15/2008, IES FSV. Charles University Teknomo,, K, (2009), Bootstrapping, Tutorial, Teknomo http://people.revoledu.com/kardi/tutorial/Bootstrap/examples.htm (diakses terakhir pada 22 Desember 2009) Tinca,, A., (2003), The Operational Risk in the Outlook of the Basel II Acord Implementation, Tinca Implementation, Theoritical and Applied Economics