UNIVERSITAS SUMATERA UTARA
BAB 2
TINJAUAN PUSTAKA
2.1 Stasioneritas
Stasioneritas berarti bahwa tidak terdapat perubahan yang drastis pada data. Fluktuasi data berada di sekitar suatu nilai rata-rata yang konstan, tidak tergantung pada waktu dan variansi dari fluktuasi tersebut. (Makridakis, 1995)
Sekumpulan data dinyatakan stasioner jika nilai rata-rata dan varians dari data time series tersebut tidak mengalami perubahan secara sistematik sepanjang waktu atau dengan kata lain rata-rata dan variansnya konstan. Kestasioneran data ini berkaitan dengan metode estimasi yang digunakan. Tidak stasionernya data akan mengakibatkan kurang baiknya model yang diestimasi. Selain itu apabila data yang digunakan dalam model ada yang tidak stasioner, maka data tersebut dipertimbangkan kembali validitas dan kestabilannya. Salah satu penyebab tidak stasionernya sebuah data adalah adanya autokorelasi. Bila data distasionerkan maka autokorelasi akan hilang dengan sendirinya, karena itu transformasi data untuk membuat data yang tidak stasioner menjadi stasioner sama dengan transformasi data untuk menghilangkan autokorelasi.
2.1.1
Uji Kestasioneran Data
Uji yang sangat sederhana untuk melihat kestasioneran data adalah dengan analisis grafik, yang dilakukan dengan membuat plot korelogram. Korelogram memberikan nilai Auto Correlation (AC) dan Partial Auto Correlation (PAC). Nilai Auto Correlation (AC) mengukur korelasi antar pengamatan dengan beda kala (lag) ke-k sedangkan Partial Auto Correlation (PAC) mengukur korelasi antar pengamatan dengan lag ke-k dan mengontrol korelasi pengamatan antar dua
UNIVERSITAS SUMATERA UTARA
pengamatan dengan lag kurang dari . Adapun nilai autokorelasi untuk lag 1, 2, 3, …, k dapat dicari dengan persamaan berikut:
(2.1) di mana: autokorelasi pada lag ke= data pengamatan ke= rata-rata data = data pengamatan ke-
Suatu nilai koefisien autokorelasi dikatakan tidak berbeda secara signifikan apabila nilainya berada pada suatu rentang nilai yang diperoleh dari nilai kesalahan standar dan sebuah nilai kepercayaan. Nilai kesalahan standar dari autokorelasi lag ke-
adalah:
(2.2) di mana: standar error atau kesalahan standar = banyaknya data,
Nilai autokorelasi parsial lag ke-
digunakan persamaan berikut:
(2.3) di mana: = autokorelasi populasi = autokorelasi populasi
Akan tetapi analisis grafik mempunyai kelemahan karena keputusan diambil secara subjektif, sehingga memungkinkan terjadinya perbedaan pengambilan keputusan. Untuk itu digunakan uji formal dalam menentukan
UNIVERSITAS SUMATERA UTARA
kestasioneran data. Ada beberapa macam pengujian yang dapat dilakukan yaitu Uji Bartlett, Uji Box-Pierce, Uji Ljung-Box(LB) dan Unit Root Test.
Uji stasioner data dilakukan dengan menguji stasioneritas pada data asli. Dalam penelitian ini kestasioneran data akan diuji dengan menggunakan Unit Root Test. Apabila hasil pengujian menunjukkan bahwa data tidak stasioner maka dilakukan modifikasi untuk memperoleh data yang stasioner. Salah satu cara yang umum dipakai adalah metode pembedaan (differencing), yaitu mengurangi nilai pada suatu periode dengan nilai data periode sebelumnya. Apabila tetap tidak stasioner maka dilakukan pembedaan lagi.
Uji akar unit (Unit Root Test) merupakan pengujian yang sangat populer dan dikenalkan oleh David Dickey dan Whyne Fuller. Dalam uji ini dibentuk persamaan regresi dari data aktual pada periode ke- dan ke- -1. Dalam uji akar unit digunakan model berikut:
(2.4)
Jika koefisien regresi dari masalah bahwa
(
, maka disimpulkan bahwa terdapat
tidak stasioner. Dengan demikian
dapat disebut mempunyai
“unit root” atau berarti data tidak stasioner.
Bila persamaan (2.4) dikurangi
sisi kanan dan kiri maka
persamaannya menjadi:
(2.5) (2.6)
atau dapat ditulis dengan: (2.7) di mana:
UNIVERSITAS SUMATERA UTARA
= hasil difference data pada periode ke= data aktual periode ke= data aktual periode ke= koefisien regresi = error yang white noise dengan mean=0 dan varians=
Pada tahap ini sudah dilakukan pembedaan sebagai metode untuk menanggulangi masalah ketidakstasioneran data. Kemudian data akan diuji kembali. Dari persamaan (2.7) dapat dibuat hipotesis:
Jika hipotesis
ditolak dengan derajat kepercayaan
artinya terdapat unit root, sehingga data time series membentuk persamaan regresi antara
dan
maka
tidak stasioner. Dengan akan diperoleh koefisien
regresinya, yaitu .
Hipotesis yang digunakan dalam uji akar unit (Unit Root) menjelaskan bahwa apabila hasil uji menyatakan nilai Augmented Dickey-Fuller test statistic lebih kecil nilai kritis pada derajat kepercayaan tertentu atau nilai tingkat signifikansinya lebih kecil dari derajat kepercayaan
, maka hipotesis nol
yang menyatakan bahwa data tersebut tidak stasioner ditolak dan demikian sebaliknya.
2.2 Heteroskedastisitas
Heteroskedastisitas merupakan suatu kondisi apabila suatu data memiliki varians residual yang tidak konstan atau dengan kata lain situasi saat varians faktor pengganggu
dari
adalah tidak sama untuk semua observasi. Jika kesalahan
pada suatu model mengandung masalah heteroskedastisitas, maka akibatnya
UNIVERSITAS SUMATERA UTARA
estimator yang dihasilkan tetap konsisten, tetapi tidak lagi efisien karena ada estimator lain yang memilki varians yang lebih kecil daripada estimator yang memiliki
residual
yang
bersifat
heteroskedastisitas.
Adanya
masalah
heteroskedastisitas juga menjadi indikasi adanya efek ARCH pada data.
2.2.1 Uji Heteroskedastisitas
Untuk mendeteksi heteroskedastisitas dapat diketahui dengan mengamati beberapa ringkasan statistik dari data. Pengujian efek ARCH pada suatu data dapat dilakukan dengan mengamati koefisien autokorelasi dari data tersebut. Keberadaan efek ARCH ditunjukkan dengan nilai autokorelasi yang signifikan pada 15 beda kala pertama yang diperiksa dari perilaku AC (Autocorrelation) dan PAC (Partial Autocorrelation). Pada tahap ini juga dilakukan pengujian terhadap eksistensi efek ARCH pada suatu data dengan mengamati AC dan PAC. Keberadaan efek ARCH ditunjukkan dengan nilai koefisien autokorelasi dari data yang signifikan pada 15 beda kala pertama (Firdaus, 2006).
Selain itu dibutuhkan pula uji formal untuk memutuskannya. Uji formal untuk mendeteksi adanya heteroskedastisitas antara lain uji korelasi Rank Spearman, uji Park, Goldfeld−Quandt, uji Breusch-Pagan Godfrey (uji BPG), uji white, dan uji Lagrange Multiplier.
Uji Lagrange Multiplier sering disebut sebagai ARCH-LM test. Hal ini disebabkan selain mendeteksi adanya heteroskedastisitas pada data, uji ini juga menunjukkan adanya efek ARCH yang menjadi pembahasan pada penelitian ini. Oleh karen itu, uji Lagrange Multiplier (ARCH-LM test) akan digunakan pada penelitian ini untuk menguji heteroskedastisitas dan efek ARCH.
Pengujian untuk mengetahui masalah heteroskedastisitas dalam time series yang dikembangkan oleh Engle dikenal dengan uji ARCH-LM. Ide pokok uji ini
UNIVERSITAS SUMATERA UTARA
adalah bahwa varians residual bukan hanya fungsi dari variabel independen tetapi tergantung pada residual kuadrat pada periode sebelumnya (Enders, 1995).
Berikut merupakan langkah pengujian efek ARCH: Hipotesis: (tidak terdapat efek ARCH) (terdapat efek ARCH)
Statistik Uji: (2.8) di mana:
taraf signifikansi jumlah variabel independen residual kuadrat terkecil rata-rata sampel dari T nilai probabilitas Kriteria keputusan: ditolak jika
atau
.
2.3 Uji Pemilihan Model Terbaik 2.3.1 Uji Akaike Information Criterion (AIC)
AIC digunakan untuk memilih model terbaik. Jika dua model dibandingkan, maka model dengan nilai AIC terkecil merupakan model yang lebih baik. Rumusan AIC adalah sebagai berikut (Djalal Nachrowi, 2006):
UNIVERSITAS SUMATERA UTARA
AIC =
=
(2.9)
di mana: SSE = Sum Square Error =
2
=
k = jumlah parameter dalam model n = jumlah observasi (sampel)
2.3.2 Uji Schwarz Information Criterion (SIC)
Kegunaan SIC pada prinsipnya tidak berbeda dengan AIC. Semakin kecil nilai AIC dan SIC maka semakin baik sebuah model. SIC digunakan
untuk
menentukan panjang lag atau lag yang optimum. Rumusan SIC adalah sebagai berikut: SIC =
=
(2.10)
di mana: SSE = Sum Square Error =
=
2
k = jumlah parameter dalam model n = jumlah observasi (sampel)
3.3.3 Uji Kelayakan Model
Setelah mendapatkan model yang terbaik dilakukan uji kelayakan terhadap model yang telah diperoleh. Uji yang dilakukan adalah uji terhadap residual yang mencakup histogram-normality test dan uji efek ARCH.
Apabila uji ARCH-LM menunjukkan probabilitas yang kurang dari derajat kepercayaan (0,05) maka model masih memiliki masalah heteroskedastisitas. Uji selanjutnya yang akan dilakukan pada model adalah uji kenormalan residual dengan menggunakan histogram-normality test. Pada uji ini akan dilihat apakah
UNIVERSITAS SUMATERA UTARA
variabel didistribusikan secara normal atau tidak. Untuk melihat kenormalan residual dapat dilihat pada probabilitas statistik Jarque Bera yang yang ditunjukkan histogram. Formula uji statistik Jarque Bera adalah:
(2.11) di mana: = kurtosis = skewness statistik
Adapun hipotesis yang digunakan dalam uji normalitas ini adalah:
(residual tidak berdistribusi normal) (residual berdistribusi normal)
Sebagai pengujian terakhir dilakukan pengujian signifikansi parameter. Suatu parameter dikatakan signifikan jika memiliki pengaruh nyata terhadap model. Signifikansi dapat dilihat dari nilai probabilitas yang lebih kecil dari derajat kepercayaan.
2.4. Maximum Likelihood Method (Metode Kemungkinan Maksimum)
Maximum Likelihood Method atau metode kemungkinan maksimum adalah teknik yang sangat luas dipakai dalam penaksiran suatu parameter distribusi data dan tetap dominan dipakai dalam pengembangan uji -uji yang baru (Lehmann, 1986). Berikut penjelasan tentang maximum likelihood method pada persamaan regresi.
Jika terdapat sebuah model: (2.12) (2.13) (2.14)
UNIVERSITAS SUMATERA UTARA
Maka fungsi densitas probabilitas residual yang berdistribusi normal untuk setiap eksperimen adalah:
(2.15)
(2.16)
(2.17)
karena
dan
maka fungsi densitas
(2.17) menjadi:
(2.18) dan densitas keseluruhan untuk
observasi adalah: (2.19)
Fungsi Likelihood-nya adalah: (2.20)
UNIVERSITAS SUMATERA UTARA
(2.21) Dengan mensubstitusikan nilai
dan
maka persamaan (2.21) menjadi:
(2.22)
Untuk mendapatkan nilai parameter-parameter
dan
, maka persamaan
(2.22) diturunkan terhadap parameter-parameter tersebut satu per satu seperti berikut: (2.23) (2.24) dan seterusnya sampai semua nilai parameter diperoleh.
2.5 General Autoregressive Conditional Heteroscedasticity (GARCH)
Model General Autoregressive Conditional Heteroscedasticity (GARCH) adalah model yang digunakan dalam peramalan data yang memiliki permasalahan heteroskestisitas tanpa menghilangkan heteroskedastisitas tersebut. Model ini dikembangkan oleh Bollerslev (1986) dari model ARCH yang ditemukan oleh Robert F. Engle (1982). Engle menemukan bahwa varians residual data akan berubah setiap waktu bergantung pada residual periode sebelumnya. Untuk persamaan autoregresi:
(2.25)
memiliki varians residual berikut:
UNIVERSITAS SUMATERA UTARA
(2.26) atau (2.27) di mana: data periode kedata periode keparameter autoregresi residual pada periode kevarians dari residual periode kekomponen konstanta parameter ARCH kuadrat residual periode ke-
Persamaan (2.27) adalah model ARCH berorde p atau biasa dinotasikan dengan ARCH (p). Sementara itu, Bollerslev mengembangkan model ARCH dengan menemukan bahwa varians residual tidak hanya bergantung dari residual periode lalu tetapi juga bergantung varians residual periode lalu. Untuk persamaan autoregresi: (2.28)
memiliki varians residual berikut:
(2.29) atau (2.30) di mana: data periode kedata periode keparameter autoregresi = residual pada periode ke-
UNIVERSITAS SUMATERA UTARA
varians dari residual periode kekomponen konstanta parameter ARCH = kuadrat residual periode ke= parameter GARCH = varians residual periode ke-
Persamaan (2.30) adalah model GARCH berorde (p,q) atau biasa dinotasikan dengan GARCH (p,q). Diketahui bahwa pada model GARCH varians residual (
) tidak hanya bergantung dari residual periode lalu (
bergantung varians residual periode lalu (
) tetapi juga
). Model ini dibangun untuk
menghindari orde yang terlalu tinggi pada model ARCH berdasarkan prinsip parsimoni atau memilih model yang paling sederhana.
Menurut Tsay (2005) nilai residual
dengan
(persamaan 2.14) dikatakan mengikuti model GARCH (p,q) jika:
(2.31) (2.32) dengan Persamaan varians yang memenuhi persamaan GARCH (p,q) menghubungkan antara varians residual pada waktu ke- dengan varians residual pada waktu sebelumnya.
Jika persamaan GARCH ditulis ke dalam operator B (Backshift), di mana B dikalikan terhadap
dan
sebagai koefisien residual dan varian residual sehingga
diperoleh:
atau atau
(2.33) (2.34)
UNIVERSITAS SUMATERA UTARA
maka persamaan (2.31) menjadi: (2.35) atau (2.36) koefisien-koefisien dalam model GARCH (p,q) harus bernilai positif.
Model ARCH ( ) didefinisikan sebagai berikut: (2.37) akan diperlihatkan bahwa model GARCH (p,q) dapat menggantikan model ARCH berorde tak hingga atau ARCH ( ) dengan mengurangkan persamaan (2.36) dengan
pada sisi kanan dan kiri maka diperoleh sebagai berikut:
(2.38) (2.39) (2.40) (2.41) dengan
dan
, sehingga terbukti bahwa model GARCH
(p,q) dapat menggantikan model ARCH( ).
Model GARCH yang paling sederhana dan paling sering digunakan adalah model GARCH (1,1). Model ini secara umum dinyatakan sebagai berikut (Bollerslev,1986): (2.42) dengan
dan
.
UNIVERSITAS SUMATERA UTARA
Model ARCH dan GARCH tidak dapat diestimasi dengan menggunakan Ordinary Least Square (OLS) tetapi dengan menggunakan maximum likelihood estimation method atau metode kemungkinan maksimum dalam analisis parameternya.
2.5.1 Langkah-Langkah Pemodelan GARCH
Dalam memodelkan data dengan model GARCH untuk tujuan peramalan langkahlangkah yang dilakukan adalah sebagai berikut:
1. Identifikasi Identifikasi dengan memeriksa data hasil pengamatan apakah sudah stasioner atau belum dengan membuat grafik AC dan PAC. Selain itu kestasioneran data juga akan diuji menggunakan Unit Root Test. Hal ini perlu dilakukan karena untuk membentuk model GARCH diperlukan data yang stasioner. 2. Uji Heteroskedastisitas Pada tahap ini, data sudah dibentuk dalam model autoregresi sehingga uji heteroskedastisitas menggunakan uji Lagrange Multiplier dilakukan terhadap residual dari model autoregresi terbaik yang didapat. Secara spesifik model autoregresi yang digunakan adalah model ARIMA. 3. Estimasi dan Pengujian Parameter Langkah selanjutnya setelah menguji keberadaan efek ARCH atau heteroskedastisitas residual model ARIMA adalah membentuk model GARCH dan mengestimasi parameter model dengan menggunakan metode kemungkinan maksimum atau maximum likelihood method. 4. Uji Pemilihan Model Terbaik Setelah mengestimasi nilai parameter model GARCH, akan dilakukan pemilihan model terbaik dengan melihat nilai AIC dan SIC terkecil. dilakukan uji pemilihan model terbaik. Pengujian yang dilakukan diantaranya adalah uji kelayakan model dan uji signifikansi. Pada uji
UNIVERSITAS SUMATERA UTARA
kelayakan model akan dilihat kenormalan residual model, sedangkan pada uji signifikansi akan dilihat apakah parameter hasil estimasi sudah baik atau mempunyai pengaruh yang nyata terhadap model. 5. Penggunaan Model untuk Peramalan Apabila model sudah memenuhi uji-uji yang dilakukan pada uji pemilihan model terbaik, maka model siap digunakan untuk peramalan.
2.6 Jaringan Saraf Tiruan
Jaringan saraf tiruan (JST) atau disebut juga dengan neural network (NN), adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan saraf manusia. Jaringan saraf tiruan merupakan sistem adaptif yang dapat merubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Secara sederhana, JST adalah sebuah alat pemodelan data statistik non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input dan output untuk menemukan pola-pola pada data.
Jaringan saraf merupakan salah satu sistem pemrosesan informasi yang didesain dengan menirukan cara kerja otak manusia dalam menyelesaikan suatu masalah dengan melakukan proses belajar melalui perubahan bobot sinapsisnya. Jaringan saraf tiruan mampu mengenali kegiatan dengan berbasis pada data masa lalu. Data masa lalu akan dipelajari oleh jaringan sehingga mempunyai kemampuan untuk memberi keputusan terhadap data yang belum pernah dipelajari (Hermawan, 2006).
Siang (2005) mengemukakan bahwa jaringan saraf tiruan adalah sistem informasi yang memiliki karakteristik mirip dengan jaringan saraf tiruan biologi. Jaringan saraf tiruan dibentuk sebagai generalisasi model matematika dari jaringan saraf biologi, dengan asumsi bahwa: a. Pemrosesan informasi terjadi pada banyak elemen sederhana (neuron).
UNIVERSITAS SUMATERA UTARA
b. Sinyal dikirimkan di antara neuron-neuron melalui penghubungpenghubung. c. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal. d. Untuk menemukan output, setiap neuron menggunakan fungsi aktivasi (biasanya bukan fungsi linier) yang dikenakan pada jumlah input yang diterima. Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang. Jaringan saraf tiruan ditentukan oleh 3 hal: a. Pola hubungan antar neuron (disebut arsitektur jaringan). b.
Metode untuk menentukan bobot penghubung (disebut metode training/ learning/ algoritma).
c. Fungsi aktivasi (fungsi transfer).
Setiap neuron tersebut berfungsi untuk menerima atau mengirim sinyal dari atau ke neuron-neuron lainnya. Pengiriman sinyal disampaikan melalui penghubung. Kekuatan hubungan yang terjadi antara setiap neuron yang saling terhubung dikenal dengan nama bobot.
Arsitektur jaringan dan algoritma pelatihan sangat menentukan modelmodel jaringan saraf tiruan. Arsitektur tersebut gunanya untuk menjelaskan arah perjalanan sinyal atau data di dalam jaringan. Algoritma belajar menjelaskan bagaimana bobot koneksi harus diubah agar pasangan masukan-keluaran yang diinginkan dapat tercapai. Dalam setiap perubahan harga bobot koneksi dapat dilakukan dengan berbagai cara, tergantung pada jenis algoritma pelatihan yang digunakan. Dengan mengatur besarnya nilai bobot ini diharapkan bahwa kinerja jaringan dalam mempelajari berbagai macam pola yang dinyatakan oleh setiap pasangan masukan-keluaran akan meningkat. Sebagai contoh, perhatikan neuron Y pada gambar berikut:
UNIVERSITAS SUMATERA UTARA
x1 W1
x2
W2
Y
W3
x3 Gambar 2.1. Sebuah Sel Saraf Tiruan
Y menerima input dari neuron x1, x2, dan x3 dengan bobot hubungan masing-masing adalah w1, w2 dan w3. Ketiga impuls neuron yang ada dijumlahkan net = x1w1+ x2w2+x3w3. Besarnya impuls yang diterima oleh Y mengikuti fungsi aktivasi y = f(net). Apabila nilai fungsi akivasi cukup kuat, maka sinyal akan diteruskan. Nilai fungsi aktivasi (keluaran model jaringan) juga dapat dipakai sebagai dasar untuk merubah bobot.
2.6.1 Arsitektur Jaringan
Arsitektur jaringan saraf tiruan digolongkan menjadi 3 model:
1. Jaringan Layar Tunggal
Dalam jaringan ini, sekumpulan input neuron dihubungkan langsung dengan sekumpulan outputnya, seperti gambar berikut ini :
UNIVERSITAS SUMATERA UTARA
W11
x1 W1m
W12
Y1
W21
Xi
Yj
W22 W2m Wn1
Xn
Wn2 Wnm
Ym
Gambar 2.2. Jaringan layar tunggal
Pada Gambar 2.2. diperlihatkan bahwa arsitektur jaringan layar tunggal dengan n buah masukan (x1, xi,..., xn) dan m buah keluaran (Y1, Yi,..., Ym). Dalam jaringan ini semua unit input dihubungkan dengan semua unit output. Tidak ada unit input yang dihubungkan dengan unit input lainnya dan unit output pun demikian.
2. Jaringan Layar Jamak
Jaringan ini merupakan perluasan dari layar tunggal. Dalam jaringan ini, selain unit input dan output, ada unit-unit lain yang sering disebut layar tersembunyi. Layar tersembunyi ini tersebut bisa saja lebih dari satu, sebagai contoh perhatikan Gambar 2.3 dibawah ini:
UNIVERSITAS SUMATERA UTARA
V11
X1
Z1 W11
V12
V1p V21 X2
V2p Vn1
Xn
Z2
V22
Y
W11
W11
Vn2 Vnp
Zp
Gambar 2.3. Jaringan layar jamak
Pada Gambar 2.3. diperlihatkan jaringan dengan n buah unit masukan (x1, x2,..., xn), sebuah layar tersembunyi yang terdiri dari p buah unit (z1, z2...,zp) dan 1 buah unit keluaran. Jaringan layar jamak dapat menyelesaikan masalah yang lebih kompleks dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama.
3. Jaringan Reccurent Model jaringan recurrent mirip dengan jaringan layar tunggal ataupun ganda. Hanya saja, ada neuron output yang memberikan sinyal pada unit input (sering disebut feedback loop). Dengan kata lain sinyal mengalir dua arah, yaitu maju dan mundur.
2.6.2 Fungsi Aktivasi
Siang (2004) menyebutkan bahwa fungsi aktivasi digunakan untuk menentukan keluaran suatu neuron. Dalam jaringan saraf tiruan, argumen fungsi aktivasi adalah net masukan (kombinasi linier masukan dan bobotnya). Jika net maka fungsi aktivasinya adalah
.
UNIVERSITAS SUMATERA UTARA
Beberapa fungsi aktivasi yang sering dipakai adalah sebagai berikut: a. Fungsi Treshold (batas ambang)
(2.43)
Dalam beberapa kasus, fungsi threshold yang dibuat tidak berharga 0 atau 1, tapi berharga -1 atau 1 (sering dibuat threshold bipolar).
(2.44)
b. Fungsi Sigmoid
(2.45) Fungsi sigmoid sering dipakai karena nilai fungsinya yang terletak antara 0 dan 1 dan dapat digunakan dengan mudah.
(2.46)
c. Fungsi Identitas (2.47)
Fungsi ini sering dipakai apabila diharapkan keluaran jaringan berupa sembarang bilangan riil (bukan hanya pada range [0,1] atau [1,-1]).
2.6.3 Algoritma Belajar dan Pelatihan
Dalam jaringan saraf tiruan terdapat konsep belajar atau pelatihan sehingga jaringan-jaringan yang dibentuk akan belajar melakukan generalisasi karakteristik tingkah laku objek. Menurut Kusumasewi (2004), pelatihan dilakukan dalam
UNIVERSITAS SUMATERA UTARA
rangka melakukan pengaturan bobot, sehingga pada akhir pelatihan akan diperoleh bobot-bobot yang baik.
Dalam
menyelesaikan
suatu
permasalahan,
jaringan
saraf
tiruan
memerlukan algoritma belajar atau pelatihan yaitu bagaimana sebuah konfigurasi jaringan dapat dilatih untuk mempelajari data historis yang ada. Dengan pelatihan ini, pengetahuan yang terdapat pada data dapat diserap dan direpresentasikan oleh nilai-nilai bobot koneksinya.
Berdasarkan cara modifikasi bobotnya, ada dua macam pelatihan yang dikenal, (Siang 2005) yaitu sebagai berikut:
1. Pelatihan Dengan Supervisi (Supervised Training) Dalam pelatihan dengan supervisi, terdapat sejumlah pasangan data (masukan, target, dan keluaran) yang dipakai untuk melatih jaringan hingga diperoleh bobot yang diinginkan. Pada setiap pelatihan, suatu masukan diberikan ke jaringan. Jaringan akan memproses dan mengeluarkan keluaran. Selisih antara keluaran jaringan dengan target (keluaran yang diinginkan) merupakan kesalahan yang terjadi. Jaringan akan memodifikasi bobot sesuai dengan kesalahan tersebut.
2. Pelatihan Tanpa Supervisi (unsupervised Training) Dalam pelatihannya, perubahan bobot jaringan dilakukan berdasarkan parameter tertentu dan jaringan dimodifikasi menurut ukuran parameter tersebut. Model yang menggunakan pelatihan ini adalah model jaringan kompetitif.
2.6.4 Backpropagation
Backpropagation adalah salah satu metode dari jaringan saraf tiruan yang dapat diaplikasikan
dengan
baik
dalam
bidang
peramalan
(forecasting).
UNIVERSITAS SUMATERA UTARA
Backpropagation melatih jaringan untuk mendapatkan keseimbangan antara kemampuan jaringan mengenali pola yang digunakan selama training serta kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa namun tidak sama dengan pola yang dipakai selama pelatihan (Siang, 2005).
Menurut Siang (2005) terdapat tiga fase dalam pelatihan Backpropagation yaitu :
1. Fase 1, yaitu propagasi maju Dalam propagasi maju, setiap sinyal masukan dipropagasi (dihitung maju)
ke
layar
tersembunyi
hingga
layar
keluaran
dengan
menggunakan fungsi aktivasi yang ditentukan.
2.
Fase 2, yaitu propagasi mundur Kesalahan (selisih antara keluaran jaringan dengan target yang diinginkan) yang terjadi dipropagasi mundur mulai dari garis yang berhubungan langsung dengan unit-unit di layar keluaran.
3. Fase 3, yaitu perubahan bobot Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan yang terjadi. Ketiga fase tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi.
Algoritma pelatihan untuk jaringan dengan satu layar tersembunyi (dengan fungsi aktivasi sigmoid biner) adalah sebagai berikut :
Langkah 1 : Inisialisasi semua bobot dengan bilangan acak kecil. Langkah 2 : Jika kondisi penghentian belum terpenuhi, lakukan langkah 2 sampai langkah 9. Langkah 3 : Untuk setiap pasang data pelatihan lakukan langkah 3 sampai langkah 8.
UNIVERSITAS SUMATERA UTARA
Fase I : Propagasi maju Langkah 4: Tiap unit masukan menerima sinyal dan meneruskannya ke unit tersembunyi di atasnya. Langkah 5 : Hitung semua keluaran di unit tersembunyi
. (2.48) (2.49)
Langkah 6 : Hitung semua keluaran jaringan di unit (2.50) (2.51) Fase II : Propagasi mundur Langkah 7: Hitung faktor
unit keluaran berdasarkan kesalahan disetiap
unit keluaran (2.52) merupakan unit kesalahan yang akan diperbaiki dalam perubahan bobot layar di bawahnya (langkah 7). Hitung suku perubahan bobot untuk merubah bobot
Langkah 8 : Hitung faktor unit
(yang akan dipakai nanti
dengan laju percepatan
tersembunyi berdasarkan kesalahan di
setiap unit tersembunyi (2.53) Faktor
unit tersembunyi : (2.54)
Hitung suku perubahan bobot untuk merubah bobot
(yang akan dipakai nanti
)
Fase III : Perubahan bobot Langkah 9 : Hitung semua perubahan Perubahan bobot garis yang menuju unit keluaran:
UNIVERSITAS SUMATERA UTARA
Perubahan bobot garis yang menuju unit tersembunyi :
Langkah 10 : Setelah diperoleh bobot yang baru dari hasil perubahan bobot,
fase
pertama
dilakukan
kembali
kemudian
dibandingkan hasil keluaran dengan target apabila hasil keluaran telah sama dengan target dan toleransi error maka proses dihentikan.
Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untuk pengenalan pola. Dalam hal ini, hanya propagasi maju (langkah 4 dan 5) saja yang dipakai untuk menentukan keluaran jaringan.
Dalam beberapa kasus pelatihan yang dilakukan memerlukan iterasi yang banyak sehingga membuat proses pelatihan menjadi lama. Untuk mempercepat iterasi dapat dilakukan dengan parameter α atau laju pemahaman. Nilai α terletak antara 0 dan 1 (0 ≤ α ≤ 1). Jika harga α semakin besar, maka iterasi yang dipakai semakin sedikit. Akan tetapi jika harga α terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat.
Proses pelatihan yang baik dipengaruhi pada pemilihan bobot awal, karena bobot awal sangat mempengaruhi apakah jaringan mencapai titik minimum lokal atau global, dan seberapa cepat konvergensinya. Oleh karena itu dalam standar Backpropagation, bobot dan bias diisi dengan bilangan acak kecil dan biasanya bobot awal diinisialisasi secara random dengan nilai antara -0,5 sampai 0,5 (atau -1 sampai 1 atau interval yang lainnya).
UNIVERSITAS SUMATERA UTARA
2.6.5 Momentum
Dalam backpropagation, standar perubahan bobot didasarkan atas gradien yang terjadi untuk pola yang dimasukkan saat itu. Modifikasi dilakukan dengan merubah bobot yang didasarkan atas arah gradien pola terakhir dan pola sebelumnya (momentum) yang dimasukkan. Jadi perhitungannya tidak hanya pola masukan terakhir saja. Momentum ditambahkan untuk menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan data yang lain. Jika beberapa data terakhir yang diberikan ke jaringan memiliki pola serupa (berarti arah gradien sudah benar), maka perubahan bobot dilakukan secara cepat. Namun jika data terakhir yang dimasukkan memiliki pola yang berbeda dengan pola sebelumnya, maka perubahan bobot dilakukan secara lambat. Dengan penambahan momentum, bobot baru pada waktu ke (t+1) didasarkan atas bobot pada waktu t dan (t-1). Disini harus ditambahkan dua variabel yang mencatat besarnya momentum untuk dua iterasi terakhir. Jika μ adalah konstanta (0 ≤ μ ≤ 1) yang menyatakan parameter momentum maka bobot baru dihitung berdasarkan persamaan berikut ini:
(2.55) dengan, bobot awal pola kedua (hasil itersai pola pertama) bobot awal pada iterasi pertama dan (2.56) dengan, bobot awal pola kedua (hasil iterasi pola pertama) bobot awal pada iterasi pertama
UNIVERSITAS SUMATERA UTARA
2.6.6 Aplikasi Backpropagation dalam Peramalan
Peramalan adalah salah satu bidang yang paling baik dalam mengaplikasikan metode Backpropagation. Secara umum, masalah peramalan dapat dinyatakan dengan sejumlah data runtun waktu (time series) x1, x2,..., xn. Masalahnya adalah memperkirakan berapa harga xn+1 berdasarkan x1, x2,..., xn. Jumlah data dalam satu periode (misalnya satu tahun) pada suatu kasus dipakai sebagai jumlah masukan dalam Backpropagation. Sebagai targetnya diambil data bulanan pertama setelah periode berakhir.
Langkah-langkah membangun struktur jaringan untuk peramalan sebagai berikut:
1. Transformasi Data
Dilakukan transformasi data agar kestabilan taburan data dicapai dan juga untuk menyesuaikan nilai data dengan range fungsi aktivasi yang digunakan dalam jaringan. Jika ingin menggunakan fungsi aktivasi sigmoid (biner), data harus ditransformasikan dulu karena interval keluaran
fungsi
aktivasi
sigmoid
adalah
[0.1].
Data
bisa
ditransformasikan ke interval [0.1]. Tapi akan lebih baik jika ditransformasikan ke interval yang lebih kecil, misalnya pada interval [0,1.0,9], karena mengingat fungsi sigmoid nilainya tidak pernah mencapai 0 ataupun 1. Untuk mentransformasikan data ke interval [0,1.0,9] dilakukan dengan transformasi linier sebagai berikut :
Transformasi Linier selang [a.b]
(2.57) dengan, nilai setelah transformasi linier nilai data aktual
UNIVERSITAS SUMATERA UTARA
nilai minimum data aktual keseluruhan nilai maksimum data aktual keseluruhan Dengan transformasi ini, maka data terkecil akan menjadi 0,1 dan data terbesar akan menjadi 0,9 (Siang, 2005).
2. Pembagian Data
Pembagian data dilakukan dengan membagi data penelitian menjadi data pelatihan dan pengujian. Komposisi data pelatihan dan pengujian bisa dilakukan dengan trial and error, namun komposisi data yang sering digunakan adalah sebagai berikut: a. 90% untuk data pelatihan dan 10% untuk data pengujian. b. 80% untuk data pelatihan dan 20% untuk data pengujian. c. 70% untuk data pelatihan dan 30% untuk data pengujian. d. Dan seterusnya
Proses pembagian data ini sangat penting, agar jaringan mendapat data pelatihan yang secukupnya. Jika data yang dibagi kurang dalam proses pelatihan maka akan menyebabkan jaringan mungkin tidak dapat mempelajari taburan data dengan baik. Sebaliknya, jika data yang dibagi terlalu banyak untuk proses pelatihan maka akan melambatkan proses pemusatan (konvergensi). Masalah overtraining (data pelatihan yang berlebihan) akan memyebabkan jaringan cenderung untuk menghafal data yang dimasukan daripada mengeneralisasi.
3. Perancang Arsitektur Jaringan Yang Optimum
Menentuan jumlah neuron input, neuron lapisan tersembunyi, simpul lapisan tersembunyi berikutnya dan simpul keluaran yang akan digunakan dalam jaringan. Penentuan ini dilakukan dengan trial and error.
UNIVERSITAS SUMATERA UTARA
4. Pemilihan Koefisien Pemahaman dan Momentum
Dalam hal ini pemilihan koefisien pemahaman dan momentum mempunyai peranan yang penting untuk struktur jaringan yang akan dibangun. Dalam membangun jaringan yang akan digunakan dalam peramalan, hasil keputusan yang kurang memuaskan dapat diperbaiki dengan penggunaan koefisien pemahaman dan momentum secara trial and error untuk mendapatkan nilai bobot yang paling optimum agar MSE dan MAD jaringan dapat diperbaiki.
5. Memilih dan Menggunakan Arsitektur Jaringan yang Optimum
Tingkat keakuratan ramalannya akan dinilai setelah jaringan dibangun. Jaringan yang optimum dinilai dengan melihat nilai MSE (Mean Square Error) terkecil. (2.58) di mana: bilangan ramalan nilai aktual pada waktu nilai ramalan pada waktu
6. Pemilihan jaringan optimum dan penggunaannya untuk peramalan
Jaringan dengan nilai MSE terkecil dipilih sebagai jaringan yang optimum untuk digunakan dalam peramalan.
2.7 Neuro-GARCH Model Neuro-GARCH merupakan model kombinasi dari jaringan saraf tiruan Backpropagation dan GARCH. Pada model Neuro-GARCH ini, nilai dari variabel
UNIVERSITAS SUMATERA UTARA
bebas pada model GARCH menjadi input pada jaringan saraf tiruan model Backpropagation dan variabel terikatnya menjadi target.
Dengan demikian untuk persamaan autoregresi dan
menjadi input dan
,
menjadi target. Begitu pula untuk persamaan variansi dan
menjadi input dan
menjadi target. Selanjutnya mengikut pada algoritma jaringan saraf tiruan Backpropagation. Karena pada penelitian ini hanya akan dilakukan peramalan pada IHSG tanpa meramalkan volatilitasnya, maka pada persamaan varians tidak dilakukan peramalan dengan algoritma jaringan saraf tiruan Backpropagation lagi.