Seminar Nasional Informatika 2014
ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK Yudhi Andrian1, M. Rhifky Wayahdi2 1
Dosen Teknik Informatika, STMIK Potensi Utama Mahasiswa Sistem Informasi, STMIK Potensi Utama 1,2 STMIK Potensi Utama, Jl. K.L. Yos Sudarso Km 6,5 No. 3A Tanjung Mulia-Medan 1
[email protected],
[email protected] 2
Abstrak Jaringan saraf tiruan (Artificial Neural Network) sebagian besar telah cukup handal dalam pemecahan masalah, salah satunya adalah prediksi curah hujan dengan metode backpropagation. Salah satu algoritma inisialisasi bobot yang dapat meningkatkan waktu eksekusi adalah nguyen-widrow. Pada penelitian ini penulis akan memprediksi curah hujan di Kota Medan dengan metode backpropagation neural network dengan memadukan algoritma inisialisasi nguyen-widrow pada proses inisialisasi bobotnya. Dari hasil penelitian diketahui bahwa : pada proses trainning JST, semakin kecil nilai target error maka nilai iterasinya akan semakin besar dan keakurasiannya juga semakin tinggi, pada kasus prediksi curah hujan di Kota Medan dengan metode backpropagation neural network, proses training dengan inisialisasi bobot nguyen-widrow tidak lebih baik dari bobot random, dan tingat keakurasian terbesar pada proses pengujian prediksi curah hujan di Kota Medan dengan metode backpropagation neural network adalah 43.1 %, dengan target error 0.007. Kata kunci : Prediksi curah hujan, nguyen-widrow, backpropagation, neural network 1.
Pendahuluan
Dari aspek meteorologis, Indonesia mempunyai kompleksitas dalam fenomena cuaca dan iklim. Atmosfer di atas Indonesia sangat kompleks dan pembentukan awannya sangat unik. Secara latitudinal dan longitudinal, Indonesia di bawah kekuasaan sirkulasi ekuatorial dan monsunal yang berbeda karakteristiknya. Beberapa kenyataan ini menunjukkan curah hujan di Indonesia sangat labil, kompleks, dan memiliki variabilitas yang sangat besar. Sehingga meskipun ketepatan prediksi sangat penting, namun saat ini sangat sulit diprediksi secara akurat dengan metode peramalan tradisional. Bahkan dalam bidang klimatologi, curah hujan di Indonesia menjadi salah satu faktor yang paling sulit diramalkan secara akurat. Perubahan iklim akibat pemanasan global, mengakibatkan pergantian musim di Indonesia menjadi tidak teratur [2]. Jaringan Saraf Tiruan (Artificial Neural Network) sebagian besar telah cukup handal selama beberapa tahun terakhir dalam pemecahan masalah. Jaringan saraf tiruan menyediakan metodologi yang sangat handal dalam pemecahan masalah non-linier. Jaringan saraf tiruan terinspirasi oleh otak manusia di mana neuron saling interkoneksi secara non-linier. Neuron saling terhubung satu sama lain melalui suatu jaringan. Jaringan ini yang dilatih menggunakan
algoritma backpropagation yang mengikuti Gradient Descent Method [5]. Kharola, Manisha dan Dinesh Kumar (2014) menggunakan metode backpropagation untuk memprediksi cuaca, dan menemukan bahwa proses pelatihan dapat dilakukan dengan cepat. Hasilnya lebih akurat untuk memprediksi cuaca di masa depan ketika jumlah iterasi meningkat [3]. Naik, Arti R. dan Prof. S.K.Pathan (2012) mengusulkan sebuah metode baru prakiraan cuaca menggunakan jaringan saraf tiruan feed-forward dan datanya dapat dilatih dengan menggunakan algoritma Levenberg Marquardt untuk memprediksi cuaca masa depan. Di antara beberapa algoritma backpropagation, backpropagation levenberg adalah yang tercepat [5]. Mishra, Khushboo, et al. (2014) dalam penelitiannya tentang kompresi citra mengatakan bahwa dalam nguyen-widrow semua bobot dalam jaringan disesuaikan dengan cara yang identik, sehingga mencegah dan mengurangi kesalahan fungsi. Bobot biasanya diinisialisasi dengan nilai kecil yang acak. Hasil menunjukkan bahwa algoritma yang digunakan (nguyen-widrow) dapat meningkatkan waktu eksekusi [4]. Metode backpropagation yang telah dijelaskan di atas dapat diterapkan dalam memprediksi suatu keadaan yang akan datang. Sedangkan inisialisasi nguyen-widrow dapat meningkatkan waktu eksekusi. Pada penelitian ini
57
Seminar Nasional Informatika 2014
penulis akan memprediksi curah hujan di Kota Medan dengan metode backpropagation neural network dengan memadukan algoritma inisialisasi nguyen-widrow pada proses inisialisasi bobotnya. Penulis akan menggunakan data curah hujan tahun 1997 – 2012. Tujuannya adalah untuk mengetahui apakah algoritma inisialisasi nguyenwidrow dapat mengurangi waktu pelatihan. 2.
Algoritma Nguyen-Widrow
Nguyen-Widrow adalah sebuah algoritma yang digunakan untuk inisialisasi bobot pada jaringan saraf tiruan untuk mengurangi waktu pelatihan. Algoritma inisialisasi nguyen-widrow adalah sebagai berikut [4]: a. Set: n = jumlah unit input p = jumlah unit tersembunyi β = faktor skala = 0.7(p)1/n = 0.7 b. Untuk setiap unit tersembunyi (j=1,…,p), lakukan tahap (c) – (f) c. Untuk i=1,…,n (semua unit input), vij(old)= bilangan acak antara -0.5 dan 0.5 d. Hitung nilai ||vj(old)|| e. Inisialisasi ulang bobot-bobot dari unit input (i=1,…,n) f. Bias yang dipakai sebagai inisialisasi: voj = bilangan acak antara –β dan β. 3.
Neural Network
Neural Network / Jaringan Saraf Tiruan (JST) adalah paradigma pengolahan informasi yang terinspirasi oleh sistem saraf secara biologis, seperti proses informasi pada otak manusia. Elemen kunci dari paradigma ini adalah struktur dari sistem pengolahan informasi yang terdiri dari sejumlah besar elemen pemrosesan yang saling berhubungan (neuron), bekerja serentak untuk menyelesaikan masalah tertentu. Cara kerja JST seperti cara kerja manusia, yaitu belajar melalui contoh. Lapisan-lapisan penyusun JST dibagi menjadi 3, yaitu lapisan input (input layer), lapisan tersembunyi (hidden layer), dan lapisan output (ouput layer) [7]. 4.
Metode Backpropagation
Salah satu algoritma JST adalah propagasi balik (backpropagation) yaitu JST multi layer yang mengubah bobot dengan cara mundur dari lapisan keluaran ke lapisan masukan. Tujuannya untuk melatih jaringan agar mendapatkan keseimbangan kemampuan untuk mengenali pola yang digunakan selama pelatihan serta kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan dengan pola yang dipakai selama pelatihan [1].
Arsitektur backpropagation merupakan salah satu arsitektur jaringan saraf tiruan yang dapat digunakan untuk mempelajari dan menganalisis pola data masa lalu lebih tepat sehingga diperoleh keluaran yang lebih akurat (dengan kesalahan atau error minimum) [6]. Langkah-langkah dalam membangun algoritma backpropagation adalah sebagai berikut [7]: a. Inisialisasi bobot (ambil nilai random yang cukup kecil). b. Tahap perambatan maju (forward propagation) 1) Setiap unit input (X1, i=1,2,3,…,n) menerima sinyal xi dan meneruskan sinyal tersebut ke semua unit pada lapisan tersembunyi. 2) Setiap unit tersembunyi (Z1, j=1,2,3,…,p) menjumlahkan bobot sinyal input, ditunjukkan dengan persamaan (1). (1) Dan menerapkan fungsi aktivasi untuk menghitung sinyal output-nya, ditunjukkan dengan persamaan (2). (2) Fungsi aktivasi yang digunakan adalah fungsi sigmoid, kemudian mengirimkan sinyal tersebut ke semua unit output. 3) Setiap unit output (Yk, k=1,2,3,…,m) menjumlahkan bobot sinyal input, ditunjukkan dengan persamaan (3). (3) Dan menerapkan fungsi aktivasi untuk menghitung sinyal output-nya, ditunjukkan dengan persamaan (4). (4) c. Tahap perambatan balik (backpropagation) 1) Setiap unit output (Yk, k=1,2,3,…,m) menerima pola target yang sesuai dengan pola input pelatihan, kemudian hitung error, ditunjukkan dengan persamaan (5). (5) f’ adalah turunan dari fungsi aktivasi. Kemudian hitung korelasi bobot, ditunjukkan dengan persamaan (6). (6) Dan menghitung koreksi bias, ditunjukkan dengan persamaan (7). (7) Sekaligus mengirimkan δk ke unit-unit yang ada di lapisan paling kanan. 2) Setiap unit tersembunyi (Zj, j=1,2,3,…,p) menjumlahkan delta input-nya (dari unitunit yang berada pada lapisan di (8)
58
Seminar Nasional Informatika 2014
kanannya), ditunjukkan dengan persamaan (8).
Untuk menghitung informasi error, kalikan nilai ini dengan turunan dari fungsi aktivasinya, ditunjukkan dengan persamaan (9). (9) Kemudian hitung koreksi bobot, ditunjukkan dengan persamaan (10). (10) Setelah itu, hitung juga koreksi bias, ditunjukkan dengan persamaan (11). (11) d. Tahap perubahan bobot dan bias 1) Setiap unit output (Yk, k=1,2,3,…,m) dilakukan perubahan bobot dan bias (j=0,1,2,…,p), ditunjukkan dengan persamaan (12). (12) Setiap unit tersembunyi (Zj, j=1,2,3,…,p) dilakukan perubahan bobot dan bias (i=0,1,2,…,n), ditunjukkan dengan persamaan (13). (13) 2) Tes kondisi berhenti. 5.
banyaknya layar tersembunyi (hidden layer) yang digunakan, dan banyaknya keluaran yang diinginkan. Data yang digunakan sebagai masukan sebanyak 8 data (8 tahun) dan data keluaran atau target adalah data pada tahun ke-9 (data input 1997 – 2004 dengan target 2005). Untuk mengetahui curah hujan pada tahun ke-10 maka data masukannya merupakan data pada tahun ke-2 sampai tahun ke-9 (data input 1998 – 2005 dengan target 2006), demikian seterusnya. Gambar 1 menggambarkan desain jaringan saraf tiruan backpropagation dengan input layer(xi)=8, hidden layer(vi)=6, dan output layer(yi)=1. Input Layer
Hidden Layer
Output Layer
x1
x2
v1
x3
v2
x4
v3 y1
x5
v4
x6
v5
x7
v6
Metode Penelitian
Penelitian ini bertujuan untuk menganalisa inisialisasi algoritma nguyen-widrow pada proses prediksi curah hujan di Kota Medan dengan jaringan saraf tiruan metode backpropagation. Penulis ingin mengetahui apakah ada perbedaan antara inisialisasi bobot menggunakan algoritma nguyen-widrow dengan inisialisasi bobot secara random. Apakah pengenalan pola/pelatihan dengan algoritma nguyen-widrow dapat mengurangi waktu pelatihan. Untuk mencapai tujuan tersebut, penulis akan melakukan perbandingan dengan menggunakan data sekunder curah hujan bulanan Kota Medan tahun 1997 – 2012. Data bersumber dari BMKG Stasiun Polonia, Kota Medan. Prediksi curah hujan dengan backpropagation neural network digunakan langkah-langkah sebagai berikut: a. Memisahkan data yang akan digunakan sebagai data pelatihan dan data uji. Data curah hujan tahun 1997 – 2008 akan digunakan sebagai data pelatihan selama perancangan JST sedangkan data tahun 2009 – 2012 digunakan sebagi data pengujian. b. Desain JST Desain JST dilakukan untuk prediksi curah hujan bulanan dimulai dengan menentukan banyaknya data masukan yang digunakan,
x8
Gambar 1. Desain backpropagation neural network c. Pengenalan pola (pelatihan) Pengenalan pola dilakukan dengan cara penyesuaian nilai bobot (dalam penelitian ini nilai bobot ditentukan secara random dan menggunakan algoritma nguyen-widrow). Penghentian penyesuaian bobot dalam pengenalan pola apabila kuadrat error mencapai target error. Error dihitung setelah tahapan forward propagation. Apabila error lebih besar dari target error maka pelatihan akan dilanjutkan ke tahap backward propagation sampai error mencapai atau lebih kecil target error. d. Pengujian dan prediksi Pengujian dilakukan bertujuan untuk mengetahui tingkat keakuratan sistem JST
59
Seminar Nasional Informatika 2014
yang telah dibuat dalam memprediksi data curah hujan pada tahun tertentu. Sedangkan prediksi bertujuan untuk memprediksi data curah hujan yang akan datang. 6.
Hasil dan Analisa
Prediksi curah hujan menggunakan metode backpropagation neural network dilakukan dengan membagi data menjadi tiga bagian, yaitu : data untuk training/ pelatihan, data untuk testing/ pengujian, dan data untuk prediksi. Data yang digunakan adalah data curah hujan Kota Medan tahun 1997 – 2012 (dapat dilihat di Lampiran Tabel 1). Di mana data tahun 1997 – 2008 digunakan sebagai pelatihan, data tahun 2009 – 2012 digunakan sebagai pengujian, dan tahun 2013 – 2017 data yang akan diprediksi. Pembagian data untuk pelatihan dapat dilihat pada Tabel 2. Tabel 2(a). Data input tahun 1997 – 2004 dengan target tahun 2005 1997 106.2 96.6 134.4 109.8 80.9 175.3 225.8 95.7 290.6 391.1 265.4 182.4
1998 181 50.2 29.4 35.3 133.5 144.6 213 381 170.8 340.3 275.8 394.2
1999 315 268.8 196.9 322 302.6 256.2 29.9 78.6 407.2 204.1 126.4 456.3
2000 59 86.7 182.2 115 60.3 191.1 121.9 342.6 451.1 367.5 108 173.6
2001 216.5 15.1 158 164.8 252.8 306.7 121.3 417.6 395.7 733 467.6 342.5
2002 90.8 78.5 96.5 73.4 195.2 191.7 139.2 156.3 382.5 363.8 164.3 102.2
2003 169.4 85.7 162.6 285.3 245.7 196.3 312.1 282 561.5 471.9 125.4 187.7
2004 138.8 200.8 237.9 88.5 68 200.5 206.8 204.3 475.3 377.5 141.2 166.4
2005 189.1 43.9 62.5 168.2 229.5 174 210.8 145.7 290.5 175.5 206.4 311.4
Tabel 2(b). Data input tahun 1998 – 2005 dengan target tahun 2006 1998 181 50.2 29.4 35.3 133.5 144.6 213 381 170.8 340.3 275.8 394.2
1999 315 268.8 196.9 322 302.6 256.2 29.9 78.6 407.2 204.1 126.4 456.3
2000 59 86.7 182.2 115 60.3 191.1 121.9 342.6 451.1 367.5 108 173.6
2001 216.5 15.1 158 164.8 252.8 306.7 121.3 417.6 395.7 733 467.6 342.5
2002 90.8 78.5 96.5 73.4 195.2 191.7 139.2 156.3 382.5 363.8 164.3 102.2
2003 169.4 85.7 162.6 285.3 245.7 196.3 312.1 282 561.5 471.9 125.4 187.7
2004 138.8 200.8 237.9 88.5 68 200.5 206.8 204.3 475.3 377.5 141.2 166.4
2005 189.1 43.9 62.5 168.2 229.5 174 210.8 145.7 290.5 175.5 206.4 311.4
2006 103.9 130.5 121.2 222.5 300.5 251.4 109.1 148.3 385.6 271.4 148.4 346.6
Tabel 2(c). Data input tahun 1999 – 2006 dengan target tahun 2007 1999 315 268.8 196.9 322 302.6 256.2 29.9 78.6 407.2 204.1 126.4 456.3
2000 59 86.7 182.2 115 60.3 191.1 121.9 342.6 451.1 367.5 108 173.6
2001 216.5 15.1 158 164.8 252.8 306.7 121.3 417.6 395.7 733 467.6 342.5
2002 90.8 78.5 96.5 73.4 195.2 191.7 139.2 156.3 382.5 363.8 164.3 102.2
2003 169.4 85.7 162.6 285.3 245.7 196.3 312.1 282 561.5 471.9 125.4 187.7
2004 138.8 200.8 237.9 88.5 68 200.5 206.8 204.3 475.3 377.5 141.2 166.4
2005 189.1 43.9 62.5 168.2 229.5 174 210.8 145.7 290.5 175.5 206.4 311.4
2006 103.9 130.5 121.2 222.5 300.5 251.4 109.1 148.3 385.6 271.4 148.4 346.6
2007 169.6 8.6 62.3 277.2 330.2 99.4 261.6 153.4 256.5 303.3 374.1 218.4
Tabel 2(d). Data input tahun 2000 – 2007 dengan target tahun 2008 2000 59 86.7 182.2 115 60.3
60
2001 216.5 15.1 158 164.8 252.8
2002 90.8 78.5 96.5 73.4 195.2
2003 169.4 85.7 162.6 285.3 245.7
2004 138.8 200.8 237.9 88.5 68
2005 189.1 43.9 62.5 168.2 229.5
2006 103.9 130.5 121.2 222.5 300.5
2007 169.6 8.6 62.3 277.2 330.2
2008 126.7 16.2 126.8 146 172.5
191.1 121.9 342.6 451.1 367.5 108 173.6
306.7 121.3 417.6 395.7 733 467.6 342.5
191.7 139.2 156.3 382.5 363.8 164.3 102.2
196.3 312.1 282 561.5 471.9 125.4 187.7
200.5 206.8 204.3 475.3 377.5 141.2 166.4
174 210.8 145.7 290.5 175.5 206.4 311.4
251.4 109.1 148.3 385.6 271.4 148.4 346.6
99.4 261.6 153.4 256.5 303.3 374.1 218.4
62 276.8 195.7 294.8 342.2 412.5 245.7
Sebelum diproses data dinormalisasi terlebih dahulu. Normalisasi terhadap data dilakukan agar keluaran jaringan sesuai dengan fungsi aktivasi yang digunakan. Data-data tersebut dinormalisasi dalam interval [0, 1] karena dalam prediksi curah hujan, nilai curah hujan pasti bernilai positif atau 0. Selain itu juga terkait fungsi aktivasi yang diberikan yaitu sigmoid biner. Fungsi sigmoid adalah fungsi asimtotik (tidak pernah mencapai 0 ataupun 1) maka transformasi data dilakukan pada interval yang lebih kecil yaitu [0.1, 0.8], ditunjukkan dengan persamaan (14). (14) a adalah data minimum, b adalah data maksimum, x adalah data yang akan dinormalisasi, dan x’ adalah data yang telah ditransformasi. Sehingga dihasilkan data hasil normalisasi yang ditunjukkan pada Tabel 3. Tabel 3(a). Data hasil normalisasi tahun 1997 – 2004 dengan target tahun 2005 1997 0.208 0.197 0.239 0.212 0.18 0.284 0.34 0.196 0.411 0.522 0.384 0.292
1998 0.29 0.146 0.123 0.129 0.238 0.25 0.326 0.511 0.279 0.466 0.395 0.526
1999 0.438 0.387 0.308 0.446 0.425 0.373 0.124 0.177 0.54 0.316 0.23 0.594
2000 0.156 0.186 0.292 0.218 0.157 0.302 0.225 0.469 0.589 0.496 0.21 0.282
2001 0.33 0.107 0.265 0.273 0.37 0.429 0.224 0.552 0.527 0.9 0.607 0.469
2002 0.191 0.177 0.197 0.172 0.306 0.302 0.244 0.263 0.513 0.492 0.272 0.203
2003 0.278 0.185 0.27 0.406 0.362 0.307 0.435 0.402 0.711 0.12 0.229 0.298
2004 0.244 0.312 0.353 0.188 0.166 0.312 0.319 0.316 0.615 0.507 0.246 0.274
2005 0.299 0.139 0.16 0.276 0.344 0.283 0.323 0.251 0.411 0.284 0.318 0.434
Tabel 3(b). Data hasil normalisasi tahun 1998 – 2005 dengan target tahun 2006 1998 0.29 0.146 0.123 0.129 0.238 0.25 0.326 0.511 0.279 0.466 0.395 0.526
1999 0.438 0.387 0.308 0.446 0.425 0.373 0.124 0.177 0.54 0.316 0.23 0.594
2000 0.156 0.186 0.292 0.218 0.157 0.302 0.225 0.469 0.589 0.496 0.21 0.282
2001 0.33 0.107 0.265 0.273 0.37 0.429 0.224 0.552 0.527 0.9 0.607 0.469
2002 0.191 0.177 0.197 0.172 0.306 0.302 0.244 0.263 0.513 0.492 0.272 0.203
2003 0.278 0.185 0.27 0.406 0.362 0.307 0.435 0.402 0.711 0.12 0.229 0.298
2004 0.244 0.312 0.353 0.188 0.166 0.312 0.319 0.316 0.615 0.507 0.246 0.274
2005 0.299 0.139 0.16 0.276 0.344 0.283 0.323 0.251 0.411 0.284 0.318 0.434
2006 0.205 0.235 0.224 0.336 0.422 0.368 0.211 0.254 0.516 0.39 0.254 0.473
Tabel 3(c). Data hasil normalisasi tahun 1999 – 2006 dengan target tahun 2007 1999 0.438 0.387 0.308 0.446 0.425 0.373 0.124 0.177 0.54 0.316 0.23 0.594
2000 0.156 0.186 0.292 0.218 0.157 0.302 0.225 0.469 0.589 0.496 0.21 0.282
2001 0.33 0.107 0.265 0.273 0.37 0.429 0.224 0.552 0.527 0.9 0.607 0.469
2002 0.191 0.177 0.197 0.172 0.306 0.302 0.244 0.263 0.513 0.492 0.272 0.203
2003 0.278 0.185 0.27 0.406 0.362 0.307 0.435 0.402 0.711 0.12 0.229 0.298
2004 0.244 0.312 0.353 0.188 0.166 0.312 0.319 0.316 0.615 0.507 0.246 0.274
2005 0.299 0.139 0.16 0.276 0.344 0.283 0.323 0.251 0.411 0.284 0.318 0.434
2006 0.205 0.235 0.224 0.336 0.422 0.368 0.211 0.254 0.516 0.39 0.254 0.473
2007 0.278 0.1 0.159 0.397 0.455 0.2 0.379 0.26 0.374 0.425 0.504 0.332
Seminar Nasional Informatika 2014
Tabel 3(d). Data hasil normalisasi tahun 2000 – 2007 dengan target tahun 2008 2000 0.156 0.186 0.292 0.218 0.157 0.302 0.225 0.469 0.589 0.496 0.21 0.282
2001 0.33 0.107 0.265 0.273 0.37 0.429 0.224 0.552 0.527 0.9 0.607 0.469
2002 0.191 0.177 0.197 0.172 0.306 0.302 0.244 0.263 0.513 0.492 0.272 0.203
2003 0.278 0.185 0.27 0.406 0.362 0.307 0.435 0.402 0.711 0.12 0.229 0.298
2004 0.244 0.312 0.353 0.188 0.166 0.312 0.319 0.316 0.615 0.507 0.246 0.274
2005 0.299 0.139 0.16 0.276 0.344 0.283 0.323 0.251 0.411 0.284 0.318 0.434
2006 0.205 0.235 0.224 0.336 0.422 0.368 0.211 0.254 0.516 0.39 0.254 0.473
2007 0.278 0.1 0.159 0.397 0.455 0.2 0.379 0.26 0.374 0.425 0.504 0.332
2008 0.23 0.108 0.231 0.252 0.281 0.159 0.396 0.307 0.416 0.468 0.546 0.362
Setelah proses normalisasi dilakukan, selanjutnya dilakukan proses inisialisasi bobot. Proses inisialisasi bobot dikelompokkan menjadi dua bagian, yaitu inisialisasi bobot random dan inisialisasi bobot menggunakan algoritma nguyenwidrow. Langkah pertama akan dilakukan uji coba dengan menggunakan bobot yang digenerate secara random dengan hidden layer=6. Bobot random yang telah digenerate dapat dilihat pada Tabel 4. Tabel 4. Generate bobot random Bobot input ke hidden awal 0.3528 0.2667 0.2898 0.007 0.3804 0.4072 0.4313 0.3952 0.1868 0.4748 0.182 0.2624 0.2344 0.1491 0.3113 0.4149 0.4123 0.2946 0.3476 0.49 0.122 0.3381 0.0079 0.2876 Bias input ke hidden 0.1422 0.0228 0.1479 Bobot hidden ke output 0.4899 0.2007 0.1391 Bias hidden ke output
0.1448 0.3545 0.481 0.3836 0.3239 0.493 0.2669 0.05
0.151 0.0227 0.4357 0.0268 0.1319 0.4555 0.0532 0.0515
0.3874 0.207 0.0281 0.2962 0.1397 0.1134 0.4997 0.3394
0.191
0.1505
0.4743
0.0802
0.0814
0.3233 0.367
Proses training dengan menggunakan bobot random pada tabel 4 menghasilkan kuadrat error=0.01 pada iterasi ke-66. Penurunan kuadrat error dapat dilihat pada Gambar 2.
0.378 0.3781 0.2884 0.4162 0.1741 0.2884 0.2054 0.1427 0.3421 0.3637 0.3945 0.3238 0.3047 0.4689 0.1341 0.2963 0.0076 0.3161 Bias input ke hidden 0.1422 0.0228 0.1479 Bobot hidden ke output 0.4899 0.2007 0.1391 Bias hidden ke output
Tabel 5. Inisialisasi bobot nguyen-widrow Bobot input ke hidden awal 0.3092 0.2552 0.3185 0.0061 0.364 0.4475
0.1303 0.319
0.1984 0.0298
0.399 0.2132
0.0352 0.0352 0.1733 0.5985 0.0699 0.0677
0.305 0.305 0.1439 0.1168 0.5146 0.4113
0.191
0.1505
0.4743
0.0802
0.0814
0.3233 0.367
Proses training dengan menggunakan bobot nguyen-widrow pada tabel 5 menghasilkan kuadrat error=0.01 pada iterasi ke-74. Penurunan kuadrat error dapat dilihat pada Gambar 3.
Gambar 3. Penurunan kuadrat error iterasi ke-74 Pada pengujian awal ini didapatkan hasil bahwa jumlah iterasi pada proses tranning dengan menggunakan bobot random lebih cepat dibandingkan dengan penggunaan bobot nguyenwidrow. Selanjutnya dilakukan bebepara kali proses trainning dan pengujian/testing dengan menggunakan bobot random dan bobot nguyenwidrow, dimana jumlah hidden layer tetap yaitu 6 dan nilai target error yang bervariasi. Hasil dari pengujian ini dapat dilihat pada tabel 6. Tabel 6. Perbandingan hasil pengujian bobot random dengan bobot nguyen-widrow Target error 0.09 0.06 0.03 0.01 0.009 0.008 0.007 Ratarata
Gambar 2. Penurunan kuadrat error dari training dengan menggunakan bobot random Selanjutnya sebagai perbandingan dilakukan uji coba dengan menggunakan bobot nguyenwidrow dengan hidden layer=6. Bobot yang dihasilkan dari algoritma inisialisasi nguyenwidrow ditunjukkan pada Tabel 5.
0.3452 0.3452 0.2915 0.4437 0.2402 0.045
Bobot random Iterasi Keakurasian 2 3.12 % 2 3.12 % 3 3.37 % 66 25 % 87 33.08 % 186 41.65 % 4691 42.75 %
Bobot nguyen-widrow Iterasi keakurasian 2 2.96 % 2 2.96 % 3 3.33 % 74 24.9 % 96 33.06 % 194 41.92 % 5155 43.1 %
719.57
789.43
21.73 %
21.75 %
Dari hasil pengujian pada tabel 6 didapatkan bahwa pada inisialisasi bobot random jumlah iterasi paling kecil ada pada target error 0.09 dan 0.06 dengan jumlah iterasi=2 dengan tingkat keakurasian=3.12% dan jumlah iterasi paling besar ada pada target error 0.007 dengan jumlah iterasi=4691 dengan tingkat keakurasian=42.75%. Sedangkan pada inisialisasi bobot nguyen-widrow jumlah iterasi paling kecil sama seperti inisialisasi bobot random yaitu iterasi ke-2 namun dengan tingkat keakurasian=2.96% dan jumlah iterasi paling
61
Seminar Nasional Informatika 2014
besar ada pada target error 0.007 dengan tingkat keakurasian=43.1%. Ini berarti semakin kecil nilai target error maka nilai iterasinya akan semakin besar dan keakurasiannya juga semakin tinggi. Dari hasil pengujian pada tabel 6 juga dapat dilihat bahwa proses training dengan bobot nguyen-widrow lebih lama dibandingkan dengan bobot random. Hal ini berarti bahwa pada kasus prediksi curah hujan di Kota Medan dengan metode backpropagation neural network, proses training dengan inisialisasi bobot nguyen-widrow tidak lebih baik dari bobot random. Proses terakhir yaitu melakukan prediksi curah hujan untuk beberapa tahun berikutnya dengan mengambil nilai bobot hasil inisialisasi nguyen-widrow dengan keakurasian 43.1 %. Hasil prediksi dapat dilihat pada Tabel 7.
baik dari bobot random, hal ini dapat dilihat dari proses training dengan bobot nguyenwidrow lebih lama dibandingkan proses training dengan bobot random. c. Tingat keakurasian terbesar pada proses pengujian prediksi curah hujan di Kota Medan dengan metode backpropagation neural network adalah 43.1 %, dengan target error 0.007. Daftar Pustaka: [1]
[2]
Tabel 7. Hasil prediksi curah hujan 2013-2017 Tahun Bulan
2013
2014
2015
2016
2017
1 2 3 4 5 6 7 8 9 10 11 12 Rata-rata
116 107.9 149.9 214.2 314.2 133.7 189.3 150.1 258.1 293.5 248.5 241 201.367
136.4 89.6 134.4 196 285.6 104.1 230 154 229.9 268.8 298.7 197.6 193.758
147.5 101 173.8 160.5 232.2 112.3 198 197 245.5 250.1 233.3 159 184.183
165.6 108.8 203 153.6 238.2 129.3 175.6 252.2 210.4 219.9 175.7 122 179.525
150.3 102.4 178.1 137 174 139.5 169.9 255.7 162 218 199 154.4 170.025
Dari tabel 7 hasil prediksi curah hujan tahun 2013-2017, diperkirakan bahwa curah hujan ratarata pertahun akan semakin turun dari tahun 2013 sampai tahun 2017. Tahun 2013 rata-rata curah hujan adalah 201.367, sedangkan pada tahun 2017 rata-rata curah hujan adalah 170.025. 7.
[4]
[5]
Kesimpulan
Dari hasil penelitian dapat diambil beberapa kesimpulan antara lain: a. Pada proses trainning JST, semakin kecil nilai target error maka nilai iterasinya akan semakin besar dan keakurasiannya juga semakin tinggi b. Pada kasus prediksi curah hujan di Kota Medan dengan metode backpropagation neural network, proses training dengan inisialisasi bobot nguyen-widrow tidak lebih
62
[3]
[6]
[7]
Ihwan, Andi, 2013, Metode Jaringan Saraf Tiruan Propagasi Balik untuk Estimasi Curah Hujan Bulanan di Ketapang Kalimantan Barat, Prosiding Semirata FMIPA Universitas Lampung. Indrabayu, et al., 2011, Prediksi Curah Hujan di Wilayah Makasar Menggunakan Metode Wavelet-Neural Network, Jurnal Ilmiah “Elektrikal Enjiniring” UNHAS, Vol. 09, No. 02, Agustus. Kharola, Manisha and Dinesh Kumar, 2014, Efficient Weather Prediction By BackPropagation Algorithm, IOSR Journal of Computer Engineering (IOSR-JCE), Volume 16, Issue 3, Ver. IV, June. Mishra, Khushboo, et al, 2014, Image Compression Using Multilayer Feed Forward Artificial Neural Network with Nguyen Widrow Weight Initialization Method, International Journal of Emerging Technology and Advanced Engineering, Volume 4, Issue 4, April. Naik, Arti R. and S.K.Pathan, 2012, Weather Classification and Forecasting using Back Propagation Feed-forward Neural Network, International Journal of Scientific and Research Publications, Volume 2, Issue 12, December. Oktaviani, Cici dan Afdal, 2013, Prediksi Curah Hujan Bulanan Menggunakan Jaringan Syaraf Tiruan dengan Beberapa Fungsi Pelatihan Backpropagation, Jurnal Fisika Unand, Vol. 2, No. 4, Oktober. Sutojo, T., et al, 2010, Kecerdasan Buatan, Yogyakarta: Andi Offset.
Lampiran: Data curah hujan Kota Medan tahun 1997 – 2012
Seminar Nasional Informatika 2014
Tabel 1. Data curah hujan Kota Medan tahun 1997 – 2012 Bln
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
2012
1 2 3 4 5 6 7 8 9 10 11
106.2 96.6 134.4 109.8 80.9 175.3 225.8 95.7 290.6 391.1 265.4
181 50.2 29.4 35.3 133.5 144.6 213 381 170.8 340.3 275.8
315 268.8 196.9 322 302.6 256.2 29.9 78.6 407.2 204.1 126.4
59 86.7 182.2 115 60.3 191.1 121.9 342.6 451.1 367.5 108
216.5 15.1 158 164.8 252.8 306.7 121.3 417.6 395.7 733 467.6
90.8 78.5 96.5 73.4 195.2 191.7 139.2 156.3 382.5 363.8 164.3
169.4 85.7 162.6 285.3 245.7 196.3 312.1 282 561.5 471.9 125.4
138.8 200.8 237.9 88.5 68 200.5 206.8 204.3 475.3 377.5 141.2
189.1 43.9 62.5 168.2 229.5 174 210.8 145.7 290.5 175.5 206.4
103.9 130.5 121.2 222.5 300.5 251.4 109.1 148.3 385.6 271.4 148.4
169.6 8.6 62.3 277.2 330.2 99.4 261.6 153.4 256.5 303.3 374.1
126.7 16.2 126.8 146 172.5 62 276.8 195.7 294.8 342.2 412.5
196 95.4 342.6 223.8 466.7 77.7 191.5 306 386 340.2 130.6
166.1 30.2 142.8 65.4 129 156.4 219.5 382.3 89.4 161.3 246.4
155.9 81.1 289.2 215.1 217.3 128 138.5 283.3 262.7 417.7 232.9
62 93 202 206 515 57 279 160 242 339 300
12
182.4
394.2
456.3
173.6
342.5
102.2
187.7
166.4
311.4
346.6
218.4
245.7
46.1
159.2
169.3
270
63