APLIKASI WAVELET RECURRENT NEURAL NETWORK UNTUK PREDIKSI DATA TIME SERIES
Nama NRP Jurusan Dosen Pembimbing
: Agus Sumarno : 1206 100 706 : Matematika : Drs. Daryono Budi Utomo, M.Si
Abstrak Model time series adalah salah satu teknik peramalan yang digunakan untuk memprediksi data yang akan datang dengan menggunakan data historis, artinya bahwa apa yang terjadi di masa mendatang merupakan fungsi dari apa yang terjadi pada masa lalu. Pemilihan metode yang tepat dalam memprediksi data sehingga didapat suatu hasil ramalan yang akurat merupakan masalah utama dalam peramalan. Salah satu metode peramalan yang baik untuk prediksi data time series adalah dengan menggunakan Artificial Neural Network (ANN), khususnya Recurrent Neural Network (RNN). Keunggulan RNN mempunyai layer recurrent/loop feedback sehingga RNN lebih bagus daripada feedforward statis khususnya dalam menyelesaikan masalah yang berhubungan dengan data time series. Wavelet merupakan fungsi yang dapat mendekomposisi dan merekonstruksi data. Konsep ini digunakan untuk memprediksi data time series. Peran dari wavelet pada prediksi data time series yaitu untuk mendekomposisi data sebelum diinputkan pada ANN, setelah proses ANN data direkonstruksi untuk mendapatkan hasil prediksi/peramalan.
1
Pada tugas akhir ini dibahas bagaimana Wavelet Recurrent Neural Network (WRNN) digunakan untuk prediksi data time series. Ada empat wavelet yang digunakan yatiu wavelet Haar, db2, db3 dan db4. Untuk mengetahui hasil yang mendekati nilai sebenarnya diukur dengan menggunakan MSE, semakin kecil nilai MSE berarti data semakin mendekati nilai sebenarnya. Dari hasil uji coba perangkat lunak, model terbaik pada WRNN menggunakan wavelet db3 dengan arsitektur 2-3-1, nilai learning rate = 0.02 dan nilai alpha = 0.3. Kata Kunci:
Real time recurrent learning, Recurrent Neural Network, Time series, Wavelet
2
adalah metode yang sangat berguna, namun penelitian dengan menggabungkan antara analisis fourier dan jaringan syaraf tiruan untuk prediksi data time series telah dilakukan (Mahmudah, 2006). Keunggulan dari analisis wavelet adalah mampu menganalisis data menjadi komponen yang memiliki frekuensi berbeda melalui translasi (pergeseran) dan dilasi (penskalaan) dengan cara mendekomposisikan data, kemudian dianalisis sesuai dengan skala resolusi atau level dekomposisinya. Wavelet neural network telah banyak digunakan untuk meramalkan harga minyak (Youse, dkk, 2005), indeks saham (Aussem and Murtagh, 1998 ) dan yang lainya, tetapi tidak banyak aplikasi wavelet neural network untuk peramalan data time series. Oleh karena itu, pada tugas akhir ini analisis wavelet dan Recurrent Neural Network digunakan untuk prediksi data time series dengan Real-time recurrent learning sebagai algoritma trainingnya yang kemudian disebut Wavelet Recurrent Neural Network (WRNN).
1. Pendahuluan Peramalan merupakan suatu proses untuk memprediksi kejadian ataupun perubahan di masa yang akan datang. Dengan mendeteksi pola dan kecenderungan data time series, dan memformulasikannya dalam suatu model, maka dapat digunakan untuk memprediksi data yang akan datang. Model dengan akurasi yang tinggi menyebabkan nilai prediksi cukup valid untuk digunakan sebagai pendukung dalam proses pengambilan keputusan. Salah satu metode peramalan yang berkembang saat ini adalah menggunakan Artificial Neural Network (ANN) khususnya Multilayer Perceptron dengan algoritma training Backpropagation (Budi utomo, 2007), tetapi jaringan yang lebih baik adalah Recurrent Neural Network (RNN), karena RNN mempunyai loop feedback sehingga bagus untuk pencocokan data terurut. Recurrent Neural Network membutuhkan penghubung dan memori yang lebih besar dari pada jenis lainnya, sehingga perlu adanya modifikasi atau menggabungkan RNN dengan metode lainnya sesuai dengan masalah yang dihadapi, antara lain penggabungan RNN dengan EA dan PSO (Cai, dkk, 2004). Dalam analisis time series, analisis wavelet dan analisis fourier
2. Tinjauan Pustaka 2.1 Time Series Time Series adalah himpunan nilai-nilai hasil pengamatan X (t )
3
yang diamati berdasar periode waktu dan disusun untuk melihat pengaruh perubahan dalam rentang waktu tertentu. Sedangkan data time series merupakan data yang dikumpulkan, dicatat atau diobservasi secara berurutan. Ada 2 hal pokok yang perlu diperhatikan dalam proses menentukan data prediksi yang akurat dan bermanfaat. 1. Pengumpulan data yang relevan berupa informasi agar dapat menghasilkan prediksi yang akurat. 2. Pemilihan teknik prediksi yang tepat dengan memanfaatkan informasi data yang diperoleh seoptimal mungkin. Hal lain yang perlu diperhatikan pada prediksi data adalah bentuk data, apakah data tersebut sudah stasioner atau tidak. Suatu data time series disebut stasioner jika distribusi bersama dari sejumlah n observasi X (t1 ) ,
menggunakan Nilai tengah kesalahan kuadrat / mean squared error (MSE) dengan cara sebagai berikut : n
ei2 / n
MSE = i 1
2.2 Wavelet 2.2.1 Analisis Mulitresolusi Sebelum dibahas mengenai analisis multiresolusi dan fungsi wavelet terlebih dahulu dibahas tentang fungsi skala. Definisi 2.1 Fungsi skala dinyatakan dengan L2 (2.1) (t k ) k Z , k (t ) Dalam analisis wavelet terdapat dua fungsi utama yang berperan yaitu fungsi skala dan fungsi wavelet . Pasangan fungsi ini yang digunakan untuk mendekomposisi atau merekonstruksi data. Definisi 2.2 2 Analisis multiresolusi dari L adalah suatu barisan bersarang dari sub ruang tertutup V j , yaitu
X (t 2 ) ,.. X (t n ) adalah sama dengan distribusi bersama dari X (t1 k ) , X (t 2 k ) ,.... X (t n k ) , dimana n sebarang bilangan bulat positif, variabel lag ( k ) adalah perbedaan antara dua titik waktu, yaitu t 2 t1 (Kuncoro,2001). Pada tugas akhir ini untuk menghitung error dengan
........ V 2 V 1 V0 V1 V2 sedemikian hingga memenuhi : 1. V j V j 1
4
L2 ( R)
2.
Vj
3.
Vj = { 0 }
.......
4. Fungsi
f (t )
f (2t ) 5. Fungsi
f (t
Vj
Vj 1, j f (t )
V2
V0
J
V0
k) V0 , k Z (t k) , k Z }
J
(t )
(t )
(2.2)
jk
(t )
(2.6)
d k (2t k ) V1 k
Untuk k 0,1 maka persamaan (2.7) didapat wavelet Haar : (t ) (2t ) (2t 1) (2.9)
Maka (2.2) memenuhi jl
L2 ............
dengan d k ( 1) c1 k ............ (2.7) Secara umum fungsi wavelet didefinisikan sebagai berikut : j/2 (2 j t k ), j, k Z (2.8) j , k (t ) 2
ortogonal kesemua anggota W j ,
(t ),
(2.5)
k
berarti bahwa semua anggota V j
jk
Wj Vj 1
dengan V0 adalah ruang awal yang direntang oleh translasi – translasi fungsi skala (t k ), k Z . Fungsi wavelet didefinisikan sebagai :
ortogonal dari V j dalam V j 1 , itu
Z
Wj
j
Z
Wj , j
umum
(2.4) dapat
J
Wj
dan
Misalkan W j adalah komplemen
dinotasikan V j 1 =V j
W1 .
j 0
2.2.2 Fungsi Wavelet Dalam analisis multiresolusi
V j 1, j
W0
Sehingga secara dinyatakan
Z
6. { membentuk basis ortonormal untuk V0 .
Vj
V0
jl
(t )dt
2.2.3 Dekomposisi dan Rekonstruksi
=0 j , k , l Z dan k l untuk dengan adalah notasi fungsi wavelet. Berdasarkan (2.2) didapatkan V1 V0 W0 ............ (2.3) Karena dalam analisis multiresolusi V j V j 1 , maka (2.3) dapat
Dekomposisi Untuk mencari dekomposisi dari fungsi skala j j f j (t ) a k (2 t k ) V j , diperlukan relasi wavelet dengan fungsi skala. Relasi tersebut dinyatakan dengan : (2t ) ( (t ) (t )) / 2 (2.10) (2t 1) ( (t ) (t )) / 2 (2.11)
diperluas menjadi
5
Misalkan
Dengan mengganti t dengan 2 j 1 t pada persamaan (2.10) dan (2.11) didapat relasi : (2 j t ) ( (2 j 1 t ) (2 j 1 t )) / 2 (2.12)
fj
f 0 w1 w2 ...... w j 1, w j W j k Z
(2 j t 1) ( (2 j 1 t )
(2 j 1 t )) / 2 (2.13) Berlaku untuk semua t R .
f j (t )
a
fj
maka
sebagai f j
wj
j
(2 t
k Z
untuk
0
wj
f j 1 diamana:
bkj
1
(2 j 1 t k )
a kj
1
(2 j 1 t
1
k)
2 l
a =
1
a 2jk
a 2jk a 2jk
a2jk 2
a kj '
a genap
1
dengan bkj 1
k) V j secara
berurutan
menyatakan : j ' 1, j ' 2 dan seterusnya sampai dengan j' j , secara algoritma dapat dituliskan sebagai :
k Z
a kj
f j (t ) =
1
fj
Vj
maka
al j '
dimana
k Z
Wj
j
k Z
didekomposisi
1
j'
a kj (2 j t
k) V j
dapat 1
bkj ' (2 j ' t k ) W j
w j ' (t ) =
Teorema 2.1 Dekomposisi Haar Misalkan j k
a k (t k ) V0 ,
dengan f 0 (t ) =
1
,
j' k
bkj ' , jika l bkj ' , jika l
2k 2k 1
ganjil
dan
2.3 Artificial Neural Network (ANN) Artificial Neural Network (ANN) atau yang sering kita kenal dengan Jaringan Syaraf Tiruan (JST) pada dasarnya mengambil ide dari cara kerja jaringan syaraf biologis. Salah satu pengambilan ide dari jaringan syaraf biologis adalah adanya elemen – elemen pemrosesan pada jaringan syaraf
1
Rekonstruksi Dari hasil dekomposisi untuk mendapatkan fungsi semula dilakukan rekonstruksi dengan menggunakan Teorema 2.2 dibawah ini.
Teorema 2.2
6
tiruan yang saling terhubung dan beroperasi secara paralel. Seperti jaringan syaraf manusia, JST juga terdiri dari neuron dan keterhubungan diantara neuron-neuron. Pada JST istilah untuk menggantikan hubungan tersebut adalah bobot. Informasi berupa sinyal/data disimulasikan sebagai harga yang spesifik pada bobot. Dengan cara mengubah-ubah harga bobot artinya kita juga mengubah-mengubah struktur hubungan antar neuron. Pada Gambar 2.1 ditunjukkan struktur dasar dari jaringan syaraf tiruan ( JST ) satu neuron yang menganalogikan sel syaraf biologis dengan asumsi sebagai berikut : 1. cell body dinyatakan dengan node 2. Axon dinyatakan dengan path 3. Dendrit merupakan input 4. Axon yang menuju cell body yang lain sebagai output.
Model dari jaringan syaraf tiruan pada umumnya terdiri dari : 1. Masukan yang ( xn ) berfungsi sebagai penerima sinyal. 2. Bobot koneksi ( w j ) untuk menyimpan informasi. 3. Bias ( w0 ) yang berfungsi mengatur daerah nilai ambang. 4. Elemen pemroses ( J ) dan fungsi aktifasi ( F1 ) untuk memroses informasi. 5. Keluaran ( y1 ) sebagai keluaran yang akan menyampaikan hasil pemrosesan informasi ke sel berikutnya. Sistem JST disusun dengan menggunakan model matematis dari jaringan biologi manusia. Persamaan matematika satu neuron pada Gambar 2.1 adalah sebagai berikut : n
S j ( x)
w ji xi
w0 x0
i 1
y j ( x)
f ( s j ( x))
2.3.1 Fungsi aktifasi Fungsi aktifasi menentukan bagaimana suatu neuron menanggapi sinyal-sinyal masukan, sehingga terjadi aktivitas satu neuron. Jika aktivitas neuron kuat,
Gambar 2.1 Analogi sel biologis dengan satu neuron tiruan
7
1. Layer input terdiri dari n neuron 2. Layer hidden terdiri dari m neuron 3. Layer output terdiri dari k neuron dan loop feedback terjadi pada neuron hidden yaitu dari neuron hidden j ke neuron hidden j dan dari neuron output ke neuron hidden
maka neuron akan menghasilkan sinyal keluaran yang dapat dihubungkan ke neuron lain. Beberapa jenis fungsi aktifasi yang sering digunakan untuk mengaktifkan neuron diantaranya adalah sebagai berikut: 1. Fungsi sigmoid biner
f ( x)
1 1 e
x
2. Fungsi sigmoid bipolar
f ( x)
1 e 1 e
x x
2.3.2 Recurrent Neural Network (RNN) RNN adalah jaringan yang mengakomodasi output jaringan untuk menjadi input pada jaringan itu lagi dalam rangka menghasilkan output jaringan berikutnya. Karakteristik RNN dari jenis jaringan lainnya adalah adanya loop feedback yang memungkinkan untuk menggunakan informasi dari pola sebelumnya bersama dengan input saat ini sehingga dapat menangani serangkaian data terurut. Oleh karena itu RNN sering digunakan untuk prediksi time series. Salah satu contoh arsitektur dari Recurrent Neural Network dapat dilihat pada gambar 2.2 yang terdiri dari 3 layer dengan komposisi sebagai berikut yaitu:
Gambar 2.2 Recurrent Neural network
2.3.3 Real Time Recurrent Learning Algoritma RTRL (Real Time Recurrent Learning) secara detailnya adalah sebagai berikut : Langkah 0 : Inisialisasi bobot dari neuron input i ke neuron hidden j ( wij ), bobot dari neuron hidden
j ke neuron output k ( v jk ), 8
bobot recurrent yaitu dari bobot dari neuron hidden j ke
dengan fungsi aktifasi yang digunakan.
neuron hiden j ( u j ), output
y j (t ) f ( s j (t )) f (u j y j (t 1)
p
Selanjutnya output dari hidden layer dikirim ke neuron pada layer selanjutnya. Langkah 5 : Jika neuron selanjutnya adalah neuron output maka masingmasing neuron output akan menjumlahkan bobot sinyal masukan. Berdasarkan Fungsi aktifasi yang digunakan sehingga didapatkan output jaringannya adalah :
parameter yang digunakan yaitu learning rate ( ) dan momentum atau alpha( ). Serta setting
v jk
uj
wij
0
Langkah 1 : Mengulangi langkah 2 hingga langkah 7 sampai kondisi akhir iterasi dipenuhi. Langkah 2 : Melakukan langkah 3 hingga 8 untuk masing-masing pasangan data pelatihan Fase Feedforward Langkah 3 : Masing-masing neuron input ( xi , i 1,2,3,........ p )
N
z k (t )
v jk y j (t ) j 1
untuk k 1,2,3......M Langkah 6 : Masing-masing neuron output ( z k , k 1,2,3......M ) menghitung error jaringan yaitu membandingkan output jaringan dengan target yang diinginkan
menerima sinyal masukan xi dan sinyal tersebut disebarkan ke neuron pada layer selanjutnya (hidden layer). Langkah 4 : Pada langkah ini Masingmasing neuron hidden akan menjumlahkan sinyal inputnya :
Ek (t )
d k (t ) z k (t )
Kemudian function :
e(t )
p
s j (t ) u j y j (t 1)
wkj xk (t )) k 1
j ( y j ) dan
neuron hidden
wkj x k (t )
menghitung
1 M E k (t ) 2 2k1
Langkah 7 : Mengupdate bobot :
k 1
untuk j 1,2,3,............N Kemudian menghitung nilai output neuron hiden sesuai
vij (t 1)
9
vij (t )
vij (t )
cost
wij (t 1)
wij (t )
uij (t 1)
uij (t )
mulai
wij (t )
Input data
uij (t )
Dekomposisi
Jaringan Saraf Tiruan
Langkah 8 : Uji kondisi pemberhentian / stop condition, yaitu dengan cara: 1. Membatasi jumlah iterasi yang dilakukan, yaitu membatasi perulangan dari langkah 3 sampai dengan langkah ke 7 2. Dengan cara membatasi error.
Rekonstruksi
Output WRNN
mulai Input data Jaringan Saraf Tiruan Output RNN
Selesai
Selesai
Gambar 3.1 Perbedaan metode antara RNN dan WRNN
3. Metode Penelitian Metode penelitian pembuatan perangkat lunak untuk memprediksi data time series dengan WRNN dan RNN adalah sebagai berikut: 3.1 Sumber Data 3.2 Spesifikasi Hardware dan Software 3.3 Prediksi data time series a. Proses pada wavelet b. Model Prediksi c. Struktur Inputan d. menentukan Arsitektur Jaringan e. Simulasi. Perbedaan metode antara RNN dan WRNN dapat dilihat pada diagram alir Gambar 3.1
4. Perancangan dan Implementasi perangkat lunak 4.1 Desain sistem atau perancangan perangkat lunak a. Inputan data b. Koefisien wavelet c. Rancangan arsitektur jaringan d. Rancangan data inputoutput JST e. Rancangan metode training f. Rancangan metode testing 4.2 Implementasi perangkat lunak a. Implementasi form muka b. Implementasi wavelet c. Implementasi JST 5. Hasil Simulasi dan Perbandingan
10
5.1 Simulasi Pada tugas akhir ini dilakukan beberapa uji coba untuk mengetahui bagaimana pengaruh inisialisasi bobot awal, arsitektur jaringan serta nilai parameter
sehingga dapat ditentukan arsitektur dan nilai parameter terbaik untuk mendapatkan hasil ramalan yang optimal. Uji coba perangkat lunak dilakukan dengan nilai learning rate = 0.05, alpha = 0.02, maksimal iterasi = 200, dan error minimal = 0.0001. Pada wavelet Haar yang ditunjukkan di Tabel 5.1, arsitektur yang menghasilkan MSE paling kecil pada RNN adalah arsitektur yang terdiri atas 1 neuron input, 3 neuron hidden, 1 neuron output atau dituliskan dengan 1-3-1, sedangkan pada WRNN pada arsitektur 1-1-2. Dengan mengkombinasikan banyaknya neuron tiap layer, terlihat bahwa arsitektur berpengaruh terhadap hasil yang diperoleh dari proses training. Jika neuron output lebih dari satu, MSE yang dihasilkan cukup besar, sehingga pada tugas akhir ini hanya dituliskan beberapa kombinasi saja.
Pada wavelet db2 MSE paling kecil untuk RNN pada arsitektur 13-1, sedangkan untuk WRNN adalah arsitektur 1-1-1. hasil uji coba dapat dilihat pada Tabel 5.2.
Tabel 5.1 Wavelet haar
Tabel 5.3 wavelet db3
Tabel 5.2 Wavelet db2
11
Pada wavelet db3 MSE paling kecil untuk RNN pada arsitektur 1-3-1, sedangkan untuk WRNN arsitektur 2-3-1. hasil uji coba dapat dilihat pada Tabel 5.3.
Pada wavelet db4 MSE paling kecil untuk RNN maupun WRNN pada arsitektur 1-3-1. Hasil uji coba dapat dilihat pada Tabel 5.4. Tabel 5.4 Wavelet db4
selanjutnya dalam menentukan nilai parameter terbaik. Dari empat wavelet yang digunakan pada WRNN wavelet db3 menghasilkan MSE paling kecil dengan arsitektur 2-3-1, sehingga untuk WRNN arsitektur 2-3-1 inilah yang digunakan untuk uji coba selanjutnya dalam menetukan nilai parameter terbaik. Pemilihan learning rate yang sesuai akan dapat membantu mendapatkan hasil ramalan yang optimal, Oleh karena itu pada tugas akhir ini dilakukan uji coba terhadap beberapa nilai learning rate dan nilai alpha ( ). Nilai learning rate yang diuji coba pada tugas akhir ini berkisar antara 0.0001 sampai 0,9. Hasil dari uji coba dapat dilihat pada tabel 5.5.
Secara umum dari nilai error minimal yang diberikan (0,0001) MSE yang dihasilkan WRNN lebih kecil dari RNN sehingga model WRNN lebih baik dari pada model RNN kecuali pada beberapa kasus khusus terdapat nilai MSE RNN lebih kecil dari WRNN yaitu pada arsitektur dengan neuron output lebih dari satu diantaranya 1-3-2, 13-3, 3-3-2 dan 3-3-3 tetapi MSEnya cukup besar, jadi hasil prediksi dari arsitektur tersebut kurang optimal. Pada RNN arsitektur yang menghasilkan MSE paling kecil adalah arsitektur 1-3-1, sehingga untuk RNN arsitektur 1-3-1 yang digunakan untuk uji coba
Tabel 5.5
12
RNN
Hasil uji coba RNN dan WRNN dengan nilai nilai Alpha ( ) = 0.02, maximal iterasi = 200
WRNN
Dari hasil yang diperoleh, Learning rate yang menghasilkan MSE paling kecil pada RNN adalah 0.3 dimana nilai MSE RNN = 1273.619 dan pada dan WRNN adalah 0.02 dimana nilai MSE WRNN = 594.3098. Dari nilai learning rate ( ), kemudian dilakukan uji coba untuk mendapatkan nilai alpha. Hasil dari uji coba dapat dilihat pada Tabel 5.6. Tabel 5.6 Hasil uji coba RNN dan WRNN dengan nilai learning rate ( ) RNN = 0.3, WRNN = 0.02 maximal iterasi = 200.
dengan arsitektur 2-3-1, nilai learning rate = 0.02, dan nilai alpha = 0.3. Gambar 5.1 menunjukkan plot grafik validasi hasil training antara data aktual dengan data ramalan pada RNN dan WRNN untuk 70 % data awal, sedangkan pada Gambar 5.2 ditunjukkan plot grafik hasil testing antara data aktual dengan data ramalan pada RNN dan WRNN untuk 30 % data terakhir.
RNN
WRNN Plot grafik validasi hasil training antara data aktual dengan data ramalan untuk 70 % data awal.
Gambar 5.2
Plot grafik hasil testing antara data aktual dengan data ramalan
Dari hasil diperoleh nilai MSE terkecil untuk RNN adalah 0.9 dan untuk WRNN 0.3, sehingga pada model RNN hasil prediksi yang optimal didapatkan dengan arsitektur 1-3-1, nilai learning rate = 0.3, dan nilai alpha = 0.9 sedangkan pada model WRNN hasil prediksi yang optimal didapatkan
Gambar 5.1
13
untuk 30 % data terakhir.
Dari grafik dapat dilihat bahwa data hasil ramalan untuk WRNN lebih berhimpitan dengan data aktual dibandingkan dengan RNN, itu menunjukkan bahwa data hasil ramalan WRNN lebih baik dari RNN.
Tabel 5.8 Perbandingan MSE RNN dan WRNN untuk Arsitektur dan Parameter terbaik
5.2 Perbandingan Pada bagian ini dibandingkan beberapa hasil MSE yang didapat antara WRNN dan RNN. Pertama dibandingkan dengan ketentuan arsitektur dan parameter yang sama yaitu arsitektur 1-1-1, 1-2-1 dan 13-1 untuk nilai learning rate = 0.05, alpha = 0.02 dan toleransi error = 0.0001, sedangkan perbandingan yang kedua dengan ketentuan mengambil nilai terbaik dari tiap model. Hasil perbandingan MSE antara RNN dan WRNN dapat dilihat pada Tabel 5.7 dan Tabel 5.8
Dari Tabel 5.7 terlihat bahwa pada masing-masing wavelet yang digunakan hasil MSE Wavelet Recurrent Neural Network (WRNN) lebih kecil dari hasil MSE Recurrent Neural Network (RNN), selain itu pada Tabel 5.8 juga terlihat dengan mengambil nilai terbaik pada masing-masing model, MSE pada WRNN juga lebih kecil dari RNN, sehingga dapat dikatakan bahwa hasil prediksi WRNN lebih baik daripada hasil prediksi RNN. 6. Kesimpulan Dari hasil uji coba perangkat lunak diperoleh kesimpulan sebagai berikut : 1. Dengan menggunakan data harian kurs jual dolar terhadap rupiah dari tanggal 1 Januari 2009 sampai dengan 30 Oktober 2009, dari empat wavelet yang menghasilkan model terbaik pada WRNN adalah wavelet db3 dengan arsitektur 2-3-1, nilai learning rate = 0.02 dan alphanya = 0.3,
Tabel 5.7 Perbandingan MSE RNN dengan WRNN pada masing-masing wavelet
14
Burrus C, Sidney, Cs. 1998. ” Introduction to Wavelets and Wavelet Transform A primer”. Prentice Hall International, Inc. Houston, Texas. Cai, X., dkk. 2004. “Time Series Prediction with RNN using a Hibrid PSO-EA Algorithm”, University of missouri,Rolla. Doya, K. 2002. ”Recurrent Network : Learning Algorithms”. Kyoto Fathi, Jamal and Mamedov, Fakhraddin. 2004. ”Time series predictions using combinations of wavelets and neural networks”. Near East University, North Cyprus, Turkey. Haykin, Simon. 1994 . ”Neural Networks A Comprehensive Foundation”. Mc Master University Hamilton, Ontario, Canada. Kuncoro, M. 2001. “Metode Kuantitatif, Teori dan Aplikasi untuk Bisnis dan Ekonomi ”, Unit penerbit dan percetakan AMP YKPN, Yogyakarta. Loh Hwa, Ruey. 2003. ”Time Series Forecast with Neural network”. Department of Electrical and Computer Engineering, University of Queensland., Australia. Mahmudah,Wilda.2006. ”Fourier – recurrent neural network jenis elman untuk prediksi data time
sedangkan pada RNN arsitektur terbaik adalah 1-3-1 dengan Nilai learning rate = 0.3 dan alphanya = 0.9. 2. Dengan menggunakan model yang terbaik dari WRNN, hasil prediksi yang didapatkan sudah mendekati nilai sebenarnya. 3. Dari hasil MSE terbaik pada masing-masing model, MSE WRNN lebih kecil dari MSE RNN, jadi model prediksi WRNN lebih baik dibandingkan dengan model prediksi RNN.
DAFTAR PUSTAKA Anton, H., Rorres, C. 2004. “Aljabar Linear Elementer (versi aplikasi)”. Edisi kedelapan-jilid 1. Alih Bahas: Refina Indriasari, Irzam Harmein. Editor: Amalia Safitri. Erlangga, Jakarta. Aussem and Murtagh,F. 1998. ”Wavelet-based feature extraction and decomposition strategies for financial forecasting”, Journal of Computational Intelligence in Finance, 6:5-12. Budi utomo, Daryono. 2007. ”Wavelet-jaringan syaraf tiruan untuk prediksi data time series”. Matematika ITS.Surabaya.
15
series”. Matematika ITS, Surabaya. Makridakis. 1999. “Metode dan Aplikasi Peramalan”. Binarupa Aksara, Jakarta. Wang and Ding. 2003. “ Wavelet Network Model and Its Application to the Prediction of Hydrology”. Department of Hydrology and Water Resources, Hydraulic School of Sichuan University, Chengdu, Sichuan 610065, China. Youse, Shahriar., W .I, and Reinarz.D. 2005. ” Waveletbased prediction of oil prices ”, Chaos, Solitons and Fractals, 25:265-275. Yunus, Mahmud. 2005. “Pengantar Analisis Fungsional”. Jurusan Matematika FMIPA ITS. Surabaya.
16