perpustakaan.uns.ac.id
digilib.uns.ac.id
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON MENGGUNAKAN GENETIC ALGORITHM LEVENBERG MARQUARDT
SKRIPSI Diajukan untuk memenuhi sebagian persyaratan mendapatkan gelar Strata Satu Jurusan Informatika
Disusun Oleh:
ANISA ATILIANI NIM. M0508005
JURUSAN INFORMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SEBELAS MARET SURAKARTA Februari, 2013
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON MENGGUNAKAN GENETIC ALGORITHM LEVENBERG MARQUARDT
SKRIPSI Diajukan untuk memenuhi sebagian persyaratan mendapatkan gelar Strata Satu Jurusan Informatika
Disusun Oleh:
ANISA ATILIANI NIM. M0508005
JURUSAN INFORMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SEBELAS MARET SURAKARTA Februari, 2013
commiti to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
SKRIPSI
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON MENGGUNAKAN GENETIC ALGORITHM LEVENBERG MARQUARDT
Disusun Oleh:
ANISA ATILIANI NIM. M0508005
Skripsi ini telah disetujui untuk dipertahankan di hadapan Dewan Penguji pada tanggal: 11 Februari 2013
commitii to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
SKRIPSI
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON MENGGUNAKAN GENETIC ALGORITHM LEVENBERG MARQUARDT HALAMAN PENGESAHAN Disusun oleh : ANISA ATILIANI M0508005 Telah dipertahankan di hadapan Dewan Penguji Pada tanggal : 11 Februari 2013 Susunan Dewan Penguji
iii to user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
MOTTO “Karena sesungguhnya sesudah kesulitan itu ada kemudahan, sesungguhnya sesudah kesulitan itu ada kemudahan, Maka apabila kamu telah selesai (dari sesuatu urusan), kerjakanlah dengan sungguh-sungguh (urusan) yang lain” (Q.S Alam Nasyrah : 5-7)
Apa sulitnya bagi yang Maha Mulia dengan keikhlasan doa Dia akan melimpahkan keridhaan dan kasih sayang-Nya (Muhammad Zakariya Al Kandahlawi)
"Sesungguhnya kebaikan itu menyebabkan cahaya di dalam hati, sinar di wajah, kekuatan pada tubuh, bertambahnya rezeki dan kecintaan di dalam hati orang lain. Sementara keburukan menyebabkan hitam (suram) di wajah, kegelapan di hati, kelemahan pada tubuh, berkurangnya rezeki dan kebencian di hati orang lain." (Ibnu Abbas RA)
iv to user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
PERSEMBAHAN
Kupersembahkan karya ini kepada : Ibu, Bapak, serta adik tercinta Isna Semua teman Informatika UNS khususnya angkatan 2008 Teman dekatku Diah, Upi, Ery
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON MENGGUNAKAN GENETIC ALGORITHM LEVENBERG MARQUARDT
commitv to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
ANISA ATILIANI Jurusan Informatika. Fakultas MIPA. Universitas Sebelas Maret.
ABSTRAK Optimasi proses pelatihan jaringan syaraf tiruan (JST) multilayer perceptron (MLP) dapat dilakukan dengan beberapa cara, salah satunya adalah dengan menggunakan Genetic Algorithm (GA). Penelitian ini membahas mengenai kinerja GA yang diinjeksikan terhadap algoritma pelatihan JST Levenberg Marquardt (LM) yang kemudian disebut dengan Genetic Algoritm Levenberg Marquardt (GALM) terhadap kinerja algoritma LM untuk kasus prediksi kekuatan tekan beton mutu tinggi. Proses pelatihan JST MLP GALM dilakukan dengan menggunakan GA sebagai optimasi bobot awal sebelum dilakukan pelatihan jaringan dengan LM . Pelatihan kedua dengan menggunakan algoritma LM saja. Proses pelatihan dilakukan sampai nilai Mean Square Error (MSE) mencapai konvergen. Algoritma GALM mampu memperbaiki proses training dengan menghilangkan kegaga lan proses training pada arsitektur dengan 16 dan 24 hidden neuron. Pengukuran kinerja pelatihan algoritma GALM dan LM menunjukkan bahwa arsitektur 8-5-1 merupakan arsitektur terbaik untuk kedua algoritma. Hasil pengujian terhadap arsite ktur 8-5-1 menggunaka n kedua algoritma mendapatkan nilai MAPE rata-rata 9.73% untuk LM dan 10.99% untuk GALM. Kata Kunci: Pelatihan Jaringan Syaraf Tiruan, Algoritma Genetika, Levenberg Marquardt, Prediksi Kuat Tekan Beton
MULTILAYER PERCEPTRON ARTIFICIAL NEURAL NETWORK TRAINING USING GENETIC ALGORITHM LEVENBERG MARQUARDT
vi to user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
ANISA ATILIANI Department of Informatics. M athematic and Natural Science Faculty. Sebelas Maret University
ABSTRACT Multilayer perceptron artificial neural network (M LP ANN) training process optimization can be done by several wa ys, one of them is using Genetic Algorithm. This study discusses the performance of the GA that is injected to the Levenberg M arquardt (LM ) ANN training algorithm, which is then called the Genetic Algoritm Levenberg Marquardt (GALM) on the performance of the LM algorithm, for concrete compressive strength prediction. GALM M LP ANN training process is done by using GA as the optimization of initial weight before this weight is used to train the network with LM. The second training process is using the LM algorithm. The training process carried out until the value of M ean Square Error (MSE) achieved convergent. GALM algorithm can improve the LM training process by eliminating the training process failure on architectures with 16 and 24 hidden neurons. Measuring the performance of GALM and LM training algorithm showed that the architecture 8-5-1 is the best compared to the other architectures. This research showed that 8-5-1 architecture with GALM training method have a good prediction where MAPE 10.99%, in the other hand LM training method shows 9.37% of MAPE.
Keywords: Artificial Neural Network Training, Genetic Algorithm, Levenberg Marquardt, Concrete Compressive Strength Prediction
KATA PENGANTAR
viito user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
Bismillahirrahmaanirrahiim Puji syukur penulis panjatkan kehadirat Allah Subhanahu Wa Ta’ala yang senantiasa memberikan nikmat dan karunia-Nya sehingga penulis dapat menyelesaikan skripsi dengan judul Pelatihan Jaringan Syaraf Tiruan Multi Layer Perceptron Menggunakan Genetic Algorithm Levenberg Marquardt, yang menjadi salah satu syarat wajib untuk memperoleh gelar Sarjana Informatika di Universitas Sebelas Maret (UNS) Surakarta. Penulis menyadari akan keterbatasan yang dimiliki, begitu banya k bimbingan, bantuan, serta motivasi yang diberikan dalam proses penyusunan skripsi ini. Oleh karena itu, ucapan terima kasih penulis sampaikan kepada : 1. Bapak Wiharto, S.T., M .Kom. selaku Dosen Pembimbing I yang pe nuh kesabaran membimbing, mengarahkan, dan memberi motivasi kepada penulis selama proses penyusunan skripsi ini, 2. Ristu Saptono, S.Si., M.T. selaku Dosen Pembimbing II yang penuh kesabaran membimbing, mengarahkan, dan memberi motivasi kepada penulis selama proses penyusunan skripsi ini, 3. Ibu Umi Salamah,S.Si.,M.Kom. selaku Ketua Jurusan S1 Informatika, 4. Ibu Umi Salamah,S.Si.,M.Kom. selaku Pembimbing Akademik yang tela h banyak memberi bimbingan dan pengarahan selama penulis menempuh studi di Jurusan Informatika FMIPA UNS, 5. Bapak dan Ibu dosen serta karyawan di Jurusan Informatika FMIPA UNS yang telah mengajar penulis selama masa studi dan membantu dalam proses penyusunan skripsi ini, 6. Ibu, Bapak, dan adikku, serta teman-teman yang telah memberikan bantuan sehingga penyusunan skripsi ini dapat terselesaikan. Penulis berharap semoga skripsi ini dapat bermanfaat bagi semua piha k yang berkepentingan.
Surakarta, Februari 2013
Penulis
DAFTAR ISI
viiito user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
HALAM AN PENGESAHAN ............................................................................. iii MOTTO.............................................................................................................. iv PERSEM BAHAN ................................................................................................ v ABSTRAK ......................................................................................................... vi ABSTRACT ...................................................................................................... vii KATA PENGANTAR ....................................................................................... vii DAFTAR ISI .................................................................................................... viii DAFTAR GAM BAR ........................................................................................... x DAFTAR TABEL .............................................................................................. xi DAFTAR LAMPIRAN ...................................................................................... xii BAB 1 PENDAHULUAN ................................................................................... 1 1. 1.
Latar Belaka ng ..................................................................................... 1
1. 2.
Rumusan M asalah ................................................................................ 3
1. 3.
Batasan Masalah .................................................................................. 3
1. 4.
Tujuan Penelitian ................................................................................. 3
1. 5.
M anfaat Penelitian ............................................................................... 3
1. 6.
Sistematika Penulisan .......................................................................... 4
BAB 2 TINJAUAN PUSTAKA ........................................................................... 5 2. 1.
Dasar Teori .......................................................................................... 5
2. 1. 1
Jaringan Syaraf Tiruan................................................................... 5
2. 1. 2
Algoritma Genetika ..................................................................... 10
2. 1. 3
Beton ........................................................................................... 15
2. 2.
Penelitian Terkait ............................................................................... 16
2. 3.
Rencana Penelitian ............................................................................. 20
BAB 3 METODOLOGI PENELITIAN ............................................................. 21 3. 1. 3. 1. 1
Pengumpulan Data ............................................................................. 21 Studi Literatur ............................................................................. 21 ix to user commit
perpustakaan.uns.ac.id
3. 1. 2 3. 2.
digilib.uns.ac.id
Dataset ........................................................................................ 21 Analisa dan Perancangan ................................................................... 22
3. 2. 1
Proses Normalisasi ...................................................................... 22
3. 2. 2
Arsite ktur Jaringan Syaraf Tiruan ................................................ 22
3. 2. 3
Pre Computing dengan GA .......................................................... 22
3. 2. 4
Pelatihan dengan Algoritma LM .................................................. 25
3. 2. 5
Skenario Proses Pelatihan ............................................................ 28
3. 3.
Implementasi ..................................................................................... 28
3. 4.
Analisa Hasil Pelatihan dan Pengujian ............................................... 29
BAB 4 PEMBAHASAN .................................................................................... 31 4. 1.
Hasil Pelatihan Awal GALM dan LM ................................................ 31
4. 1. 1
Pelatihan Tiga Hidden Neuron ..................................................... 31
4. 1. 2
Pelatihan Lima Hidden Neuron .................................................... 32
4. 1. 3
Pelatihan Enam Hidden Neuron ................................................... 32
4. 1. 4
Pelatihan Enam Belas Hidden Neuron ......................................... 33
4. 1. 5
Pelatihan Tujuh Belas Hidden Neuron ......................................... 33
4. 1. 6
Pelatihan Dua Puluh Empat Hidden Neuron ................................ 34
4. 2.
Analisa Hasil Pelatihan Awal GALM dan LM ................................... 35
4. 3.
Analisa Hasil Pelatihan Lanjut ........................................................... 35
4. 4.
Hasil Pengujian Arsitektur 8-5-1 ........................................................ 39
BAB 5 PENUTUP ............................................................................................. 42 5. 1.
Kesimpulan ........................................................................................ 42
5. 2.
Saran ................................................................................................. 42
DAFTAR PUSTAKA ........................................................................................ 43 LAMPIRAN ...................................................................................................... 45
DAFTAR GAMBAR
commitx to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
Gambar 2. 1 Pembentukan Kromosom GA berisi Bobot dan Bias JST .............. 11 Gambar 2.2 Proses Seleksi Roda Roulette ......................................................... 12 Gambar 2.3 Kemungkinan Anak Crossover Menengah ...................................... 14 Gambar 2.4 Proses Otomatisasi GA - JST .......................................................... 19 Gambar 3.1 Arsitektur JST ................................................................................. 23 Gambar 3.2 Pengkodean Kromosom .................................................................. 23 Gambar 3.3 Proses Pre Computing dengan GA .................................................. 24 Gambar 3. 4 Proses Pelatiha n GALM ................................................................. 27 Gambar 3.5 Proses Pelatihan LM ....................................................................... 29 Gambar 4.1 Hasil Pelatihan 3 Hidden Neuron .................................................... 31 Gambar 4.2 Hasil Pelatihan 5 Hidden Neuron .................................................... 32 Gambar 4.3 Hasil Pelatihan 6 Hidden Neuron .................................................... 32 Gambar 4.4 Hasil Pelatihan 16 Hidden Neuron .................................................. 33 Gambar 4.5 Hasil Pelatihan 17 Hidden Neuron .................................................. 34 Gambar 4.6 Hasil Pelatihan 10 Hidden Neuron .................................................. 34 Gambar 4.8 Perbandingan Runtime GALM dan LM Pelatihan Lanjut ................ 37 Gambar 4.9 Grafik Perbandingan Rata-rata Runtime Keseluruhan GALM dan LM Pelatihan Lanjut ................................................................................................. 38 Gambar 4.10 Kesesuaian Target Data Testing dan Hasil Peramalan (Output) GALM dengan MAPE 6.43% ............................................................................ 41 Gambar 4.11 Kesesuaian Target Data Testing dan Hasil Peramalan (Output) LM dengan MAPE 6.31% ......................................................................................... 41
DAFTAR TABEL
xi to user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
Tabel 3.1 Parameter Dataset Beton Mutu Tinggi ................................................ 21 Tabel 3.2 Rumus Empiris Penentuan Hidden Neuron (Fahmi, 2011) .................. 22 Tabel 4.1 Perbandingan Nilai MSE Pelatihan Awal............................................ 35 Tabel 4.2 Perbandingan Iterasi GALM dan LM Pelatihan Lanjut ....................... 35 Tabel 4. 3 Perbandingan Runtime GALM dan LM Pelatihan Lanjut ................... 36 Tabel 4.4 Runtime GA pada Proses GALM ....................................................... 37 Tabel 4.5 Prosentase Kegagalan Proses Pelatihan .............................................. 38 Tabel 4.6 Nilai MAPE Hasil Pengujian Arsitektur 8-5-1 .................................... 40
DAFTAR LAMPIRAN
xiito user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
LAMPIRAN A ...............................................................................................
46
LAMPIRAN B................................................................................................
56
LAMPIRAN C................................................................................................
57
xiiito user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
BAB 1 PENDAHULUAN
1. 1.
Latar Belakang Genetic algorithm (GA) adalah algoritma pencarian heuristik yang
didasarkan pada mekanisme evolusi biologis. Individu yang lebih kuat (fit) akan memiliki tingkat kehidupan lebih tinggi jika dibandingkan dengan individu yang kurang fit. Algoritma ini pertama kali dikembangkan oleh John Holland tahun 1975 (Kusumadewi, 2005). GA banyak digunakan dalam kasus optimasi, sala h satunya adalah optimasi proses pelatihan jaringan syaraf tiruan (Ahmed, 2009). Jaringan pembelajaran
s yaraf otak
tiruan
manusia,
(JST)
dikembangkan
disebut tiruan
karena
berdasarkan jaringan
proses
syara f ini
diimplementasikan dengan program komputer yang mampu menyelesaikan sejumlah proses perhitungan selama pembelajaran. Ada beberapa teknik pembelajaran
JST,
salah
satu
yang
paling
sering
digunakan
adalah
backpropagation (BP). Inti dari BP adalah melakukan perhitungan maju untuk mengetahui output dan kinerja jaringan, perhitungan mundur untuk mengetahui error jaringan yang kemudian digunakan sebagai perubahan bobot. Seiring dengan kebutuhan
mendapatkan
dikembangkan
beberapa
proses
pembelajaran
algoritma
yang
pembelajaran
lebih
baru
cepat,
dengan
maka prinsip
BP,diantaranya: gradient descent, resillent backpropagation, quasi newton, dan Levenberg Marquardt (LM) (Kusumadewi, 2004). Beberapa penelitian dilakukan untuk memperbaiki kinerja jaringan s yaraf tiruan, seperti mengguna kan GA untuk optimasi pelatihan. Moghadassi, et al., melakukan penelitian menggabungkan GA dengan LM, kemudian dilakukan perbandingan dengan metode BP lain. Hasil penelitian menunjukkan bahwa GALM memberikan hasil yang lebih baik untuk kasus pencampuran gas CH4+CF4 (Moghadassi, 2011).
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
2
Ahmed, et al., melakukan penelitian serupa dengan menggunakan tiga dataset berbeda. Penelitia n ini menekankan otomatisasi proses optimalisasi jaringan syaraf tiruan dengan menggunakan algoritma genetika, sehingga meminimalisasi peran manusia dalam mengoperasikannya. Hasil penelitian juga menunjukkan bahwa algoritma GALM memberikan hasil yang lebih baik dilihat dari korelasi output dan target yang tinggi (Ahmed, 2009). Penerapan GA dalam proses pelatihan jaringan syaraf tiruan selalu memberikan hasil yang lebih baik dibanding dengan menggunakan algoritma pelatihan JST lain. Namun proses pelatihan tidak memperhatikan tambahan waktu yang digunakan untuk menjalankan algoritma genetika. Seyed Hakim, et al., melakukan penelitian terhadap prediksi kekuatan tekan beton mutu tinggi dengan menggunakan jaringan s yaraf tiruan BP. Penelitian ini berfokus pada pengujia n arsitektur yang digunakan (Se yed Hakim, 2011). Penelitian ini menerapkan GA dan algoritma pembelajaran JST LM untuk kasus prediksi kekuatan beton mutu tinggi usia 3, 14, 28, 56, dan 100 hari. GA digunakan untuk optimalisasi bobot JST pada proses precomputing sebelum bobot tersebut digunakan untuk pelatihan JST dengan menggunakan algoritma LM. Algoritma ini selanjutnya disebut dengan GALM . Algoritma LM dipilih karena pembelajaran yang singkat dengan hasil ya ng lebih baik dibandingkan algoritma BP yang lainnya (Moghadassil, 2011). Hasil pelatiha n dari GALM kemudian dibandingkan dengan hasil pelatihan M LP LM dengan melihat jumlah iterasi dan runtime yang dibutukan proses pelatihan untuk konvergen. Prediksi kekuatan beton mutu tinggi dilakukan dengan menggunaka n arsitektur dan metode yang memiliki kinerja terbaik pada proses pelatihan. Analisa kinerja hasil prediksi berdasarkan nilai mean absolut percentage error (MAPE) ya ng dihasilkan. Apabila nilai MAPE kurang dari 10% maka hasil prediksi dikatakan sangat baik, jika nilai M APE antara 10 – 20% maka hasil prediksi dikatakan baik (Yasm in, 2010).
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
3
1. 2.
Rumusan Masalah Rumusan masalah dari latar belakang masalah yang telah diuraikan di atas
adalah apakah penerapan algoritma genetika memberikan perbaikan terhadap proses pelatihan multi layer perceptron dengan kasus prediksi kekuatan tekan beton mutu tinggi.
1. 3.
Batasan Masalah Batasan masalah dari penelitian ini adalah sebagai berikut:
1. Dataset yang digunakan adalah Concrete Compressive Strenght bersumber dari UCI Machine Learning Repository(California) 2. Operator Genetic Algorithm yang digunakan adalah proses minimasi, skem a pengkodean bilangan real, fungsi fitness =
mse,
jumlah populasi = 50,
jumlah generasi = 20, seleksi roda roulette dengan peluang = 0.6, rekombinasi menengah dengan nilai d = 0.25, mutasi random dengan peluang = 0.05, pelestarian kromosom (elitism) = 3 kromosom, dan penggantian populasi dengan teknik generational replacement. 3. Proses pelatihan jaringan syaraf tiruan menggunakan algoritma Levenberg M arquardt dengan inisialisai parameter LM ( ) = 0.1 dan faktor
= 10.
Pengukuran kinerja dengan menggunakan MSE.
1. 4.
Tujuan Penelitian Tujuan dari penelitian ini adalah untuk mengetahui bahwa penerapan
algoritma genetika memberikan perbaikan pada proses training multi layer perceptron untuk kasus prediksi kekuatan tekan beton mutu tinggi .
1. 5.
Manfaat Penelitian Penelitian ini diharapkan dapat menghasilkan suatu metode training
multilayer perceptron dengan memanfaatkan algoritma genetika untuk kasus prediksi kekuatan tekan beton.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
4
1. 6.
Sistematika Penulisan
BAB 1 PENDAHULUAN Pendahuluan berisi mengenai latar masalah, rumusan masalah, pembatasan masalah, tujuan, manfaat, dan sistematika penulisan. BAB 2 TINJAUAN PUSTAKA Tinjauan pustakan berisi mengenai penelitian terdahulu dan rencana penelitian yang akan dilakukan oleh Penulis. Selain itu juga berisi teori jaringan syaraf tiruan dengan algoritma Levenberg-M arquardt dan algoritma genetika. BAB 3 METODOLOGI PENELITIAN M etodologi berisi mengenai metodologi atau langkah-langkah dalam pemecahan masalah, meliputi penyusuan formula setta algoritma yang digunakan dalam penelitian. BAB 4 HASIL DAN PEMBAHASAN Hasil dan pembahasan berisi tentang eksperimen pengujian dari formula dan algoritma yang telah diimplementa sikan dan diterapkan dengan menggunakan sample data yang ada dan kemudian dilakukan analisa terhadap hasil dari eksperimen yang telah dilakukan. BAB 5 PENUTUP Penutup
berisi
kesimpulan
penelitian
pertimbangan untuk penelitian selanjutnya.
commit to user
dan
saran
sebagai
bahan
perpustakaan.uns.ac.id
digilib.uns.ac.id
BAB 2 TINJAUAN PUSTAKA
2. 1.
Dasar Teori
2. 1. 1 Jaringan Syaraf Tiruan Jaringan pembelajaran
s yaraf otak
tiruan
(JST)
manusia,
dikembangkan
disebut tiruan
karena
berdasarkan jaringan
proses
syaraf
ini
diimplementasikan dengan program komputer yang mampu menyelesaikan sejumlah proses perhitungan selama pembelajaran. Ada beberapa teknik pembelajaran
JST,
salah
satu
yang
paling
sering
digunakan
adalah
backpropagation (BP). Inti dari BP adalah melakukan perhitungan maju untuk mengetahui output dan kinerja jaringan, selanjutnya dilakukan perhitungan mundur untuk mengetahui error jaringan yang kemudian digunakan sebagai perubahan bobot. Seiring dengan kebutuhan mendapatkan proses pembelajaran yang lebih cepat, maka dikembangkan beberapa algoritma pembelajaran baru dengan prinsip BP,diantaranya: gradient descent, resillent backpropagation, quasi newton, dan Levenberg Marquardt (Kusumadewi, 2004).
2. 1. 1. 1
Proses Normalisasi Data
Proses normalisasi dilakukan agar data input dan target yang digunaka n dalam proses pelatihan dan pengujian JST berada pada suatu range tertentu. Normalisasi minmax menskalakan suatu nilai yang diberikan kedalam nilai baru antara 0 sampai dengan 1 berdasarkan nilai maksimum dan minimum dataset tersebut. Diberikan nilai yang bersesuaian {Sk} dimana k = 0,1,...n, maka nilai normalisa sinya adalah
=
min { } max{ } min{
(2.1) }
commit5 to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
6
2. 1. 1. 2
Fungsi Aktivasi
Fungsi sigmoid biner mem iliki nilai pada range 0 sampai 1. Oleh karena itu fungsi ini sering digunakan untuk JST yang membutuhkan nilai output pada interval 0 sampai 1. Fungsi sigmoid biner dirumuskan sebagai(Kusumadewi, 2004): =
( )=
( )=
dengan
2. 1. 1. 3
(2.2) ( ) [1
( )]
(2.3)
Algoritma Levenberg Marquardt
Algoritma
Levenberg-M arquardt
dirancang
dengan
me nggunakan
pendekatan turunan kedua tanpa harus menghitung matrik Hessian. Apabila jaringan syaraf tiruan feed forward menggunakan fungsi kinerja sum of square, maka matrik Hessian dapat didekati sebagai: =
(2.4)
Dengan gradien dapat dihitung sebagai: =
(2.5)
Dengan j adalah matrik Jacobian yang berisi turunan pertama dari error jaringan terhadap bobot, dan e adalah suatu vektor yang berisi error jaringan. Matrik Jacobian dapat dihitung dengan teknik backpropagation standar, yang tentu saja lebih sederhana dibanding dengan menghitung matrik Hessian. Algoritma
Levenberg-M arquardt
menggunakan
pendekatan
untuk
menghitung matrik Hessian, melalui perbaikan metode Newton: =
[
+
]
(2.6)
Apabila m bernilai 0, maka pendekatan ini akan sama seperti metode Newton. Namun apabila m terlalu besar, maka pendekatan ini akan sama halnya dengan gradient descent dengan learning rate yang sa ngat kecil. Metode Newton sangat cepat dan akurat untuk mendapatkan error minimum, oleh karena itu diharapkan algoritma sesegera mungkin dapat mengubah nilai m menjadi sama dengan 0. Untuk itu, setelah beberapa iterasi, algoritma ini akan menurunkan nilai m, kenaikan nilai m hanya dilakukan apabila dibutuhkan suatu langkah (sementara) untuk menurunkan fungsi kinerja. (Kusumadewi, 2004)
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
7
Algoritma LM merupakan salah satu jenis dari algoritma pelatihan JST BP dengan dua jenis perhitungan, yakni perhitungan maju dan perhitungan mundur. Secara singkat perhitungan LM dapat dijelaskan sebagai berikut: 1. Inisialisasi bobot dan bias dengan bilangan acak, epoch maksimum, dan target minimal (target biasanya dihitung dengan menggunakan mean square error/ M SE). 2. Menentukan parameter yang dibutuhkan, antara lain: -
Inisialisasi epoch = 0
-
Parameter LM ( ) yang nilainya harus lebih besar dari nol
-
Parameter dikalikan atau dibagi dengan parameter LM. Penjelasan ada pada step berikutnya
3. Tiap-tiap unit input (xi, i = 1, 2, 3, ..., n) menerima sinyal input dan meneruskan sinyal tersebut ke semua unit pada lapisan tersembunyi Tiap-tiap unit lapisan tersembunyi (zj, j = 1, 2, 3, ... p) menjumlahkan sinyal-sinyal input berbobot _
=
+
(2.7)
Gunakan fungsi aktivasi untuk menghitung sinyal output =
( _
)
(2.8)
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya. 4. Tiap-tiap unit lapisan output (Yk, k = 1, 2, 3, ... , m) menjumlahkan sinyalsinyal input berbobot (2.9) _
=
+
Gunakan fungsi aktivasi untuk menghitung sinyal output =
( _
)
(2.10)
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya. 5. Menghitung error, MSE dan total error jaringan
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
8
Rumus untuk error: =
(2.11)
r = input ke-r Rumus untuk menghitung MSE: =
(2.12)
1
Rumus untuk menghitung total error: = [
]
…
(2.13)
e = vektor kesalahan berukuran Nx1 yang terdiri dari er, r= 1, 2,3, ..., N 6. Hitung error neuron untuk tiap unit lapisan output (Yk, k = 1, 2, 3, ... , m) 2 =
( _
2 =
2
2
=
)1
2
(2.14) (2.15) (2.16)
7. Hitung error neuron untuk tiap unit lapisan tersembunyi (zj, j = 1, 2, 3, ... p) _
1 =
1 =
1 =
=
(2.17)
2
(2.18)
1
(2.19)
1
(2.20)
8. Membentuk matrik jacobian =
1
… 1
1 … 1
2
… 2
2 … 2
(2.21)
9. Menghitung bobot baru =
10. Menghitung MSE
(
+
)
(2.22)
Jika MSEbaru <= MSElama, maka -
=
(2.23)
epoch = epoch + 1
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
9
-
Kembali ke langkah 3
Jika MSEbaru>M SElama, maka -
=
(2.24)
Kembali ke langkah 9
11. Proses pelatihan berhenti jika epoch = epoch maksimal atau error = target error.
2. 1. 1. 4
Pengukuran Kinerja JST
Kinerja pelatihan JST diukur dengan menggunakan mean square error rumus 2.12, dimana sebelum pelatihan ditetapkan suatu target error yang harus dicapai pada saat pelatihan. Pengukuran kinerja juga dapat dilakukan dengan melihat jumlah epoch yang diperlukan untuk mencapai error tertentu.
2. 1. 1. 5
Pengujian JST
Setela h proses pelatihan dilakukan proses pengujian jaringan. Pada proses pengujian, tahap yang dilakukan hanya tahap maju saja, tidak ada tahap mundur sehingga tidak ada tahapan modifikasi bobot. Seluruh bobot input diambil dari nilai bobot terakhir yang diperoleh dari proses pelatihan. Pada tahap pengujian ini, jaringan diharapkan dapat mengenali pola berdasarkan data baru yang diberikan (generalisasi). Pengukuran kinerja prediksi dengan menggunakan MAPE. Suatu model mempunyai kinerja yang sangat bagus jika nilai M APE dibawah 10% dan mempunyai kinerja bagus apabila nila i MAPE antara 10% s.d. 20%. (Yasmin, Rahman, & Eftekhari, 2010) a. MSE (Mean Square Error): masing-masing nilai sisa dikuadratkan kemudian dijumlahkan dan dibagi jumlah data observasi. MSE dihitung dengan rumus 2.12 b. Percentage error (PE) merupakan perhitungan perbedaan data asli (T) dengan data hasil peramala n (P), perbedaan tersebut kemudian dipersentasikan terhadap data asli.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
10
=
× 100
(2.25)
Apabila nilai percentage error tersebut diabsolutkan kemudian diratarata dari suatu kumpulan data, maka disebut dengan mean absolut percentage error (MAPE) (Armstrong, 1992). =
1
|
|
(2.26)
2. 1. 2 Algoritma Genetika Algoritma genetika adalah algoritma pencarian heuristik yang didasarka n atas mekanisme evolusi biologis. Individu yang lebih kuat (fit) akan memiliki tingkat hidup dan reproduksi lebih tinggi dibandingkan dengan individu yang kurang fit. Pada kurun waktu tertentu (disebut dengan istilah generasi), populasi secara keseluruhan akan lebih banyak memuat organisme yang fit. Algoritma genetika pertama kali dikembangkan oleh John Holland dari Universitas M ichigan (1975). Dia mengatakan bahwa setiap masalah yang berbentuk adaptasi dapat diformulasikan dalam terminologi genetika. Algoritma genetika adalah simulasi dari proses evolusi Darwin dan operasi genetika atas kromosom. Teknik pencarian algoritma genetika dilakukan seka ligus atas sejumlah solusi yang mungkin yang disebut dengan populasi. Individu yang terdapat dalamsatu populasi disebut dengan kromosom. Kromosom merupakan suatu solusi yang masih berbentuk simbol. Populasi awal dibangun secara acak, populasi berikutnya merupakan hasil evolusi kromosom melalui iterasi yang biasa disebut dengan generasi. Pada setiap generasi terjadi proses evaluasi kromosom dengan menggunakan suatu alat ukur yang disebut dengan fungsi fitness. Fungsi fitness menujukkan kualitas kromosom dalam populasi tersebut. Generasi berikutnya dikenal dengan istilah anak (offspring) yang merupakan hasil gabungan dua kromosom generasi sekarang yang bertindak sebagai orangtua (parent) dengan menggunakan operator penyilangan (crossover). Selain operator penyilangan, suatu kromosom juga dapat dimodifikasi dengan operator mutasi.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
11
Populasi generasi baru dibentuk dengan cara menyeleksi nilai fitness dari kromosom induk (parent) dan nilai fitness dari kromosom anak (offspring), serta menolak kromosom-kromosom yang lainnya sehingga ukuran populasi (jumlah kromosom dalam populasi) konstan. Setelah melalui beberapa generasi, maka algoritma ini akan konvergen ke kromosom terbaik. (Kusumadewi, 2005)
2. 1. 2. 1
Skema Pengkodean
Skema pengkodean menggunakan tipe bilangan real. Proses GALM merepresentasikan bias dan bobot JST ke dalam bentuk kromosom GA (Moghadassi & al, 2011). Apabila terdapat suatu model JST seperti gambar 2.1 a), maka pembentukan kromosom sesuai dengan gambar 2.1 b).
Gambar 2. 1 Pembentukan Kromosom GA berisi Bobot dan Bias JST
2. 1. 2. 2
Fungsi Evaluasi
Ada dua hal yang harus dilakukukan dalam melakukan evaluasi kromosom, yaitu: evaluasi fungsi obyektif (fungsi tujuan) dan konversi fungsi obyektif ke dalam fungsi fitness. Secara umum, fungsi fitness diturunkan dari fungsi obyektif dengan nilai yang tidak negatif. Apabila ternyata fungsi obyektif memeiliki nilai negatif, maka perlu ditambahkan suatu konstanta C agar nilai fitness yang terbentuk menjadi tidak negatif(Kusumadewi, 2005).
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
12
Fungsi evaluasi dalam GALM menggunakan nilai M SE sebagai fungsi obyektif dan fungsi fitness dengan kasus minimasi (Moghadassi, 2011).
2. 1. 2. 3
Seleksi
Seleksi akan menentukan individu- individu mana saja yang dipilih untuk melakukan rekombinasi dan bagaimana offspring terbentuk dari individu-individu yang terpilih tersebut. Langka h pertama yang dilakukan dalam proses seleksi ini adalah perhitungan fitness. M asing-masing individu akan menerima probabilitas reproduksi yang tergantung pada nilai obyektif dirinya sendiri terhadap nilai obyektif dari semua individu dalam wadah tersebut. Nilai fitness inilah yang nantinya akan digunakan pada tahap-tahap seleksi berikutnya. (Kusumadewi, 2005).
Gambar 2.2 Proses Seleksi Roda Roulette
M etode seleksi roda roulette merupakan metode seleksi yang paling sederhana, dan sering dikenal dengan nama stochastic sampling with replacement. Pada metode ini, individu- indovidu dipetakan dalam suatu segmen garis secara berurutan sedemikian hingga tiap-tiap segmen individu memiliki ukuran yang sama dengan fitnessnya. Sebuah bilangan random dibangkitkan dan individu yang memiliki segmen dalam kawasan bilangan random tersebut akan terseleksi. Proses ini diulang hingga diperoleh sejumlah individu yang diharapkan. Gambar 2.2 menunjukkan probabilitas seleksi dari 11 individu. Individu pertama memiliki fitness terbesar, dengan demikian juga memiliki interval
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
13
terbesar. Individu ke-11 memiliki fitness terkecil = 0, interval terkecil sehingga tidak memiliki kesempatan untuk melakukan reproduksi. Setela h dilakukan seleksi maka individu yang terpilih adalah 1
2. 1. 2. 4
2
3
5
6
9
Rekombinasi
Rekombinasi disebut juga dengan istilah pindah silang adalah proses terjadinya pertukaran gen antar dua induk untuk menghasilkan individu baru. (Kusumadewi, 2005) Rekombinasi menengah merupakan metode rekombinasi yang hanya dapat digunakan untuk variabel real (dan variabel yang bukan biner). Nilai variabel anak dipilih di sekitar dan antara nilai-nilai variabel induk. Anak dihasilkan menurut aturan sebagai berikut: Anak= induk1 + alpha (induk2 – induk 1)
(2.27)
Dengan alpha adalah faktor skala yang dipilih secara random pada interval [-d, 1+d], biasanya d = 0.25. Tiap- tiap variabel pada anak merupakan hasil kombinasi variabel-variabel menurut aturan diatas dengan nilai alpha dipilih ulang untuk tiap variabel. Gambar menunjukkan area induk dan anak yang mungkin. M isalkan ada dua individu dengan 3 variabel yaitu:
M isalkan nilai alpha yang terpilih adalah:
Setela h rekombinasi, kromosom-kromosom baru yang terbentuk:
Gambar 2.3 menunjukkan posisi yang mungkin dari anak setelah rekombinasi menengah.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
14
Gambar 2.3 Kemungkinan Anak Crossover Menengah
2. 1. 2. 5
Mutasi
Setela h mengalami proses rekombinasi pada offspring dapat dilakukan mutasi. Variabel offspring dimutasi dengan menambahkan nilai random yang sangat kecil (ukuran langkah mutasi), dengan probabilitas yang rendah. Peluang mutasi (pm) didefinisikan sebagai persentasi dari jumlah total gen pada populasi yang mengalami mutasi. Peluang mutasi mengendalikan banyak gen baru yang akan dimunculkan untuk dievaluasi. Jika peluang mutasi kecil, banyak gen yang mungkin berguan tidak pernah dievaluasi. Tetapi jika peluang mutasi terlalu besar, maka akan terlalu banyak gangguan acak, sehingga anak akan kehilangan kemiripan dengan induknya, dan juga algoritma akan kehilangan kemampuan untuk belajar dari histori pencarian. Ada yang berpendapat bahwa peluang mutasi sebesai 1/n akan memberikan hasil yang cukup baik. Ada juga yang beranggapan bahwa laju mutasi tidak tergantung ukuran populasi. Kromosom hasil mutasi harus diperiksa, apakah hasil m asih berada pada domain solusi dan bila perlu bisa dilakukan perbaikan. Mutasi berperan untuk menggantikan gen yang hilang dari populasi akibat proses seleksi yang memungkinkan munculnya kembali gen yang tidak muncul pada inisialisasi populasi. (Kusumadewi, Penyelesaian 2005). Mutasi random adalah salah satu jenis mutasi bilangan real, dikataka n apabila C= (c 1, c2, ... , ci, ... , cn ) adalah kromosom, ci
commit to user
[ , ] sebuah gen yang
perpustakaan.uns.ac.id
digilib.uns.ac.id
15
akan dimutasi, dan c i’ adalah kromosom hasil mutasi, maka c i’ merupakan bilangan random yang dibangkitkan dari domain [ , ] (Herrera, 1998) . 2. 1. 2. 6
Pelestarian Kromosom
Konsep elitisme muncul untuk mengatasi kelemahan proses seleksi yang dilakukan secara random dimana tidak ada jaminan bahwa individu yang mempunyai nilai fitness tinggi akan selalu terpilih. Kalaupun individu tersebut terpilih, maka dimungkinkan individu tersebuta akan rusak (nilai fitnessnya menurun) dikarena kan proses pindah silang. Elitisme adalah suatu prosedur untuk membuat salina n dari individu yang memiliki nilai fitness tinggi, sehingga tidak hilang selama proses evolusi (Suyanto, 2005).
2. 1. 2. 7
Penggantian Populasi
Generational replacement adalah proses penggantian semua individu (misal ada N individu dalam populasi) dari suatu generasi akan digantikan sekaligus oleh N individu baru dari hasil pindah silang dan mutasi. Skema penggantian ini tidak realistis dari sudut pandang biologi. Secara umum skema penggantian populasi dapat dirumuskan berdasarkan ukuran yang disebut dengan generational gap G. Ukuran ini menunjukkan persentase populasi yang digantika n dalam setiap generasi. Pada skema ini G=1(Suyanto, 2005).
2. 1. 3 Beton Beton merupakan campuran antara semen portland atau semen hidraulik yang lain, agregat halus, agregat kasar dan air, dengan atau tanpa bahan tambahan yang membentuk masa padat (Anonim, 2002).
2. 1. 3. 1
Komponen Beton Mutu Tinggi
Ada 7 komponen utama penyusun beton mutu tinggi, yakni: 1. Semen 2. Air
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
16
3. Agregat kasar: kerikil sebagai hasil disintegrasi 'alami' dari batuan atau berupa batu pecah yang diperoleh dari industri pemecah batu dan mempunyai ukuran butir antara 5 mm sampai 40 mm (Anonim, 2002) 4. Agregat halus: pasir alam sebagai hasil disintegrasi 'alami' batuan atau pasir yang dihasilkan oleh industri pemecah batu dan mempunya i ukuran butir terbesar 5 mm (Anonim, 2002) 5. Superplasticizer:
bahan
tambahan
yang
sering
digunakan
dalam
pembuatan beton mutu tinggi. Superplasticizer menghasilkan beton yang memiliki kuat tekan tinggi dengan campuran air dan semen yang rendah (Seyed Hakim, 2011) 6. Blast Furnace Slag 7. Abu terbang: bahan tambahan yang digunakan dalam pembuatan beton mutu tinggi, biasa digunakan bersamaan dengan superplasticizer. Tanpa bahan tambahan, maka akan sulit untuk menghasilkan beton mutu tinggi.
2. 1. 3. 2
Kuat Tekan Beton
Kuat tekan beton adalah besarnya beban persatuan luas yang menyebabkan benda uji beton hancur bila dibebani dengan ga ya tekan tertentu, yang diha silkan oleh mesin tekan (Anonim, 1990). =
(
P = beban maksimum (kg)
)
(2.28)
A = luas penampang benda uji (cm 2)
2. 2.
Penelitian Terkait
1. A New Approach to Train Multilayer Perceptron ANN Using Error Back-propagation and Genetic Algorithms Hybrid: A Case Study of PVTx Estimation of CH4+CF4 Gas Mixture (Moghadassi, 2011) Moghadassi dkk melakukan penelitian untuk menguji sebuah algoritma pembelajaran jaringan syaraf tiruan multi layer perceptron dengan menggunakan algoritma genetika dan algoritma error backpropagation. Studi kasus yang digunakan adalah pencampuran gas CH 4+CF 4 . Model
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
17
penelitian adalah dengan menggunakan algoritma genetika (GA) sebagai alat untuk melakukan optimasi bias dan bobot JST. Bias dan bobot JST dipetakan menjadi kromosom yang dikodekan dalam bentuk string. Panjang string tergantung dari jumlah bit yang diterapkan untuk masing-masing parameter, semakin panjang bit maka akan menambah waktu eksekusi. Namun apabila bit yang digunakan semakin pendek, maka aka n berpengaruh terhadap akurasi. Gambar 2.1 menunjukkan bagaimana bobot dan bias dipetakan dalam algoritma genetika. GA melakukan pencarian kombinasi bobot dan bias yang paling optimal untuk diterapkan dalam JST. Algoritma pembelajaran jaringa n syaraf tiruan yang dipilih untuk digabungkan dengan GA adalah Algoritma Levenberg-Marquardt,
dikarenakan
dibandingkan
dengan
ya ng
lain
algoritma ini memiliki waktu pembelajaran paling cepat, sehingga diharapkan perpaduan dari kedua algoritma ini mampu meningkatkan akurasi dan kecepatan waktu eksekusi. Algoritma hybrid ini kemudian dibandingkan dengan beberapa algoritma pembelajaran yang lain, diantaranya Levenberg-M arquardt, BFGS Quasi-Newton, Resilient Backpropagation, Scalled Conjugate Gradient, Conjugate Gradient with Powell-Beale Restarts, Fletcher-Power Conjugate Gradient, Polak-Ribiere Conjugate Gradient,dan
One-Step Secant. Hasil
penelitian ini menjukkan bahwa algoritma hybrid antara algoritma ge netika dan Levenberg-M arquardt (GA-LM) jauh lebih baik dibandingka n denga n algoritma pembelajaran yang lain, dilihat dari sisi waktu pembelajaran yang lebih singkat dan jumlah iterasi yang lebih sedikit untuk mencapai nilai MSE 0.01 (Moghadassi, 2011).
2. Application of Artificial Neural Network to Predict Compressive Strength of High Strength Concrete. (Seyed Hakim, 2011) Seyed Hakim dkk melakukan penelitian untuk prediksi kekuatan tekan beton mutu tinggi usia 28 hari. Penelitian dilakukan dengan menguji 30 arsitektur MFNNs untuk mendapatkan
commit to user
arsitektur yang terbaik.
perpustakaan.uns.ac.id
digilib.uns.ac.id
18
Selanjutnya adalah melakukan training terhadap arsitektur JST yang terpilih dengan menggunakan 256 data dan batasan RMSE sebesar 0.001. Selain itu dilakukan pula pengujian terhadap arsitektur ini dengan menggunakan 112 dataset yang berbeda. Hasil penelitian tersebut menunjukkan bahwa arsitektur JST 8-10-6-1 dengan fungsi a ktivasi sigmoid merupakan arsitektur terbaik. Rata-rata error relatif untuk data training dan testing dalam memprediksi kekuatan tekan HSC sebesar 7.02% dan 12.64% masih dapat diterima dalam teknologi beton. Selain itu, penelitian ini menunjukkan bahwa JST dapat digunakan untuk melakukan prediksi kekuatan tekan HSC dan
lebih akurat
dibandingkan dengan analisa regresi ataupun metode konvensional lain (Seyed Hakim, 2011).
3. Study of Genetic Algorithm to Fully-automate the Design and Training of Artificial Neural Network. (Ahmed, 2009) Ahmed dkk melakukan penelitian mengenai penerapan algoritma genetika (GA) dalam proses optimalisasi bobot jaringan syaraf tiruan. Penelitian ini lebih menekankan kepada otomatisasi proses sehingga meminimalisasi peran manusia dalam mengoperasikannya. Dia gram alir dari proses otomatisasi yang dimaksud terlihat pada gambar 2.4. Penelitian ini menggunakan 3 dataset untuk menguji pengaruh algoritma genetika dalam proses optimalisasi jaringan syaraf tiruan FFNN dengan algoritma Levenberg M arquardt, denga n fungsi aktivasi sigmoid dan linear. Masing- masing data menggunakan arsitektur jaringan syaraf yang berbeda dengan jumlah lapisan tersembunyi yang sama yakni satu lapisan tersembunyi dan enam neuron di lapisan tersembunyi. Data set yang digunakan adalah data prediksi isolate pentene dan normal pentene pada CRU debutanizer, prediksi net power dan turbine inlet temperature, dan prediksi flank wear proses penggilingan. Sebelum digunakan dilakukan normalisasi data dalam skala 0-1 dengan menggunakan fungsi premnmx dan tramnmx M ATLAB. Kemudian
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
19
denormalisasi dengan fungsi postmnx. Parameter algoritma genetika yang digunakan adalah peluang pindah silang = 0.6, peluang mutasi = 0.05, jumlah populasi = 50, dan jumlah generasi = 20. Fungsi obyektif yang digunakan adalah mean square error (MSE). Performansi dari metode GA-ANN ini ditentukan oleh M SE, RM SE, 2
dan R , ditandai dengan semakin kecil MSE, RM SE dan apabila R 2 mendekati 1 maka performansi semakin bagus. Hasil dari penelitia n menyebutkan algoritma genetika dapat digunakan sebagai cara untuk mengoptimasi variabel input. Hal ini terlihat pada R2 untuk ketiga data set tersebut masing-masing menunjukkan nilai 0.9984, 0.9983; 0.9958, 0.9983; dan 0.9997 (Ahmed, 2009).
Gambar 2.4 Proses Otomatisasi GA - JST
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
20
2. 3.
Rencana Penelitian Penelitian kali ini akan melakukan analisa terhadap pengaruh penggunaan
algoritma genetika terhadap proses training multilayer perceptron dengan menggunakan algoritma Levenbergh Marquardt. Data yang digunakan berasal dari machine learning repository berupa data set kekuatan tekan beton mutu tinggi yang terdiri dari 8 parameter input dan 1 parameter output. Arsitektur jaringan dengan single hidden layer, 8 neuron input dan 1 neuron output. Jumlah neuron pada hidden layer divariasikan 3, 5, 6, 16, 17, dan 24 sesuai dengan rumus empiris penentuan hidden neuron, seperti tertera pada tabel 3.2. Algoritma genetika digunakan untuk melakukan optimasi terhadap bobot awal jaringan syaraf tiruan, sehingga dilakuka n pemetaan terhadap bias dan bobot JST ke dalam algoritma genetika (Moghadassi, 2011). Prediksi kekuatan tekan beton menjadi studi kasus yang digunakan dalam penelitian ini. Penelitian yang dilakukan terdiri dari dua skenario, yakni: 1. Menggunakan algoritma genetika (GA) untuk proses inisialisasi bobot dan bias jaringan syaraf tiruan, kemudian hasilnya digunakan untuk training JST (GALM ) 2. Melakukan training dengan algoritma LM menggunakan bobot dan bias yang dibangkitkan secara random. Hasil dari kedua skenario diatas kemudian dibandingkan sehingga diperoleh suatu kesimpulan mengenai pengaruh GA terhadap proses training multilayer perceptron.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
BAB 3 METODOLOGI PENELITIAN
3. 1.
Pengumpulan Data
3. 1. 1 Studi Literatur Tahapan studi literatur meliputi: 1. Mempelajari jurnal penelitian yang membahas mengenai penerapan algoritma genetika dan algoritma levenberg-marquardt dalam proses training jaringan syaraf tiruan. 2. Mempelajari algoritma genetika dan jaringan syaraf tiruan secara umum
3. 1. 2 Dataset Database kekuatan beton mutu tinggi diperoleh dari UCI Machine Learning Repository. Total data sebanyak 1030 data yang kemudian dila kukan seleksi berdasarkan umur beton 3, 14, 28, 56, dan 100 hari denga n komposisi yang sama menjadi sebanyak 260 data. Data dibagi menjadi 2 bagian, 250 data training dan 10 data testing. Sebelum digunaka n, dataset dinormalisasikan dengan normalisasi minmax.
Tabel 3.1 Parameter Dataset Beton M utu Tinggi Parameter Semen
kg/m 3
Blast Furnace Slag
kg/m 3
Abu terbang
kg/m 3
Air
kg/m 3
Superplasticizer
kg/m 3
Agregat Kasar
kg/m 3
Agregat Halus
kg/m 3
Umur
Hari Mpa (M egapascal)
Kekuatan Tekan Beton
Satuan
21to user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
22
3. 2.
Analisa dan Perancangan
3. 2. 1 Proses Normalisasi Proses normalisasi data dilakukan sebelum data dibagi menjadi data training dan data testing. Normalisasi menggunakan normalisasi min max dengan memisahkan antara data input dan data target. =
{
}
{
}
{
(3.1)
}
3. 2. 2 Arsitektur Jaringan Syaraf Tiruan Arsite ktur jaringa n syaraf tiruan single hidden layer denga n 8 neuron input dan 1 neuron output. Wu Zhang dalam Fahmi menentukan rumus empiris penentuan hidden neuron sesuai tabel 3.2. Fungsi aktifasi input layer ke hidden la yer menggunakan sigmoid, hidden layer ke output layer juga menggunakan sigmoid. Tabel 3.2 Rumus Empiris Penentuan Hidden Neuron (Fahmi, 2011) No
2
1 2 2+
3 4 5 6
Jumlah neuron hidden layer 17 24
Rumus Empiris + 1
3
+ 0.5 (2
+
)/3
+
3
5
6 3 2 16 Ni adalah neuron input sejumlah 8 neuron, N o adalah neuron output
sejumlah 1 neuron
3. 2. 3 Pre Computing dengan GA 3. 2. 3. 1
Operator Algoritma Genetika
Proses GA dilakukan sebelum proses JST (pre computing). Diharapkan proses GA dapat melakukan optimalisasi initial weight sebelum bobot tersebut digunakan dalam proses JST. Gambar 3.3 menunjukkan diagram alir GA sebagai proses pre computing.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
23
Operator GA yang digunakan adalah sebagai berikut: 1. Skema Pengkodean dan Inisialisasi Populasi Skema pengkodean bilangan real dengan memetakan bias dan bobot JST ke dalam kromosom GA. Arsitektur JST gambar 3.1 dipetakan ke dalam kromosom GA seperti gambar 3.2. Inisia lisasi populasi dilakukan dengan membangkitkan bilangan random sebanyak bobot dan bias JST yang dipetakan ke dalam kromosom dikalikan dengan jumlah anggota populasi. Penelitian ini menggunaka n 50 individu dalam satu populasi. Nilai random berkisar antara 0 sampai 1. v21
1
v11
1
w11 1
v01 v02
0
w22
V12 w01 2
v22
2 0
Gambar 3.1 Arsitektur JST v11
v12
v21
v22
v01
v02
w11
w21
w01
Gambar 3.2 Pengkodean Kromosom
2. Fungsi Evaluasi Fungsi evaluasi menggunakan mean square error yang dihasilkan oleh JST. (Moghadassi & a l, 2011). 3. Seleksi Proses seleksi menggunakan seleksi roda roulette. 4. Rekombinasi
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
24
Proses rekombinasi atau disebut juga dengan pindah silang menggunakan rekombinasi menengah, dengan perhitungan gen anak sebagai berikut: Anak= induk1 + alpha (induk2 – induk 1)
(3.2)
Alpha adalah faktor skala yang dipilih secara random pada interval [-0.25, 1.25]
Gambar 3.3 Proses Pre Computing dengan GA
5. Mutasi
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
25
Mutasi random (Herrera, Lozano, & Verdegay, 1998) apabila C= (c1, c2, ... , ci, ... , cn ) adalah kromosom, ci
[ , ] sebuah gen yang akan
dimutasi, dan ci’ adalah kromosom hasil mutasi, maka ci’ merupakan bilangan random yang dibangkitkan dari domain [ , ].
6. Pelestarian Populasi (Elitism)
Pelestarian populasi sebanyak 5% dari total populasi = 3 kromosom. Kromosom yang dilestarikan adalah tiga kromosom terbaik dari populasi tersebut sebelum dilakukan proses seleksi, rekombinasi, dan mutasi. 7. Penggantian Populasi Skema penggantian populasi adalah generational replacement, dengan nilai G =1. Dari populasi baru yang tercipta, 3 kromosom terburuk digantikan dengan kromosom hasil proses elitism.
3. 2. 4 Pelatihan dengan Algoritma LM Proses pelatihan dengan algoritma LM dilakukan sebagai berikut: 1. Inisialisasi bobot dan bias dengan bilangan aca k antara 0 - 1, epoch maksimum = 1500. 2. Menentukan parameter yang dibutuhkan, antara lain: -
Inisialisasi epoch = 0
-
Parameter LM ( ) = 0.1
-
Parameter
= 10
3. Tiap-tiap unit input (xi, i = 1, 2, 3, ..., 8) menerima sinyal input dan meneruskan sinyal tersebut ke semua unit pada lapisan tersembunyi Tiap-tiap unit lapisan tersembunyi (zj, j = 1, 2, 3, ... p), menjumlahkan sinyal-sinyal input berbobot, _
=
+
(3.3)
Gunakan fungsi aktivasi untuk menghitung sinyal output =
=
(3.4)
_
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
26
4. Tiap-tiap unit lapisan output (Yk, k = 1) menjumlahkan sinyal-sinyal input berbobot _
=
+
(3.5)
Gunakan fungsi aktivasi untuk menghitung sinyal output =
=
(3.6)
_
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya. 5. Menghitung error , MSE dan total error jaringan Rumus untuk error: =
(3.7)
r = input ke-r Rumus untuk menghitung M SE (3.8)
1
=
Rumus untuk menghitung total error: = [
]
…
(3.9)
e = vektor kesalahan berukuran Nx1 yang terdiri dari er, r= 1, 2,3, ..., N 6. Hitung error neuron untuk tiap unit lapisan output (Yk, k = 1, 2, 3, ... , m) 2 = 2
=
=
2
2 =
(1
)
(3.10) (3.11)
2
(3.12)
7. Hitung error neuron untuk tiap unit lapisan tersembunyi (zj, j = 1, 2, 3, ... p) _
1 =
=
1 =
1 =
2 1
(3.13) =
(1
)
(3.14) (3.15)
1
(3.16)
8. Membentuk matrik jacobian =
1
… 1
1 … 1
9. Menghitung bobot baru
2
… 2
commit to user
2 … 2
(3.17)
perpustakaan.uns.ac.id
digilib.uns.ac.id
27
=
10. Menghitung MSE
(
+
)
(3.18)
Jika MSEbaru <= MSElama, maka -
= /10,
(3.19)
-
epoch = epoch + 1
-
Kembali ke langkah 3
Jika MSEbaru>M SElama, maka -
=
* 10
(3.20)
Kembali ke langkah 9
Proses pelatihan berhenti jika epoch = epoch maksimal atau error = target error.
Gambar 3. 4 Proses Pelatihan GALM
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
28
3. 2. 5 Skenario Proses Pelatihan 3. 2. 5. 1
GALM
Proses GA 3.2.3.2 dilakukan sebelum proses JST, proses ini disebut dengan proses pre computing. Input dari proses ini adalah bobot JST yang dibangkitkan secara random. Output berupa bobot JST yang telah dioptimasi menggunakan proses GA. Bobot JST keluaran GA digunakan sebagai bobot awal proses JST menggunakan algoritma LM. Proses JST dilakukan sampai mendapatkan nilai MSE konvergen, dimana nilai MSE tidak mengalami kenaikan maupun penurunan la gi, proses ini disebut dengan proses training JST. Proses pelatihan algoritma ini terlihat pada gambar 3.4.
3. 2. 5. 2
LM
Algoritma LM 3.2.4 dijalankan sesuai dengan bobot awal bilangan random yang dibangkitkan dari nilai 0 sampai 1. Proses pelatihan dilakukan sampai mendapatkan nilai MSE yang konvergen, dimana nilai MSE tidak mengalami kenaikan maupun penurunan lagi. Proses pelatihan algoritma ini terlihat pada gambar 3.5
3. 3.
Implementasi Proses pelatihan dilakukan sebanya k 10 kali simulasi untuk masing-masing
arsitektur dengan menggunakan data training. Data hasil pelatihan kemudian dibagi menjadi 2, satu untuk analisa hasil pelatihan awal, 9 untuk analisa hasil pelatihan la njut. Proses analisa hasil dijelaska n pada poin 3.4. Proses pengujian dilakukan
setelah didapatkan arsitektur terbaik dan
batasan MSE yang diperlukan. Data yang digunakan adalah data testing. Simulasi pengujian dilakukan sebanyak 20 kali. Setelah proses pengujian selesai, kemudian dilakukan proses analisa hasil pengujian.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
29
Data Kekuatan Tekan Beton
Normalisasi
Membagi data menjadi data training dan data testing
Pelatihan JST dengan Algoritma LM
Analisa Kinerja berdasar runtime dan iterasi
selesai
Gambar 3.5 Proses Pelatihan LM
3. 4.
Analisa Hasil Pelatihan dan Pengujian Proses pelatihan dilakukan dengan 10 kali simulasi untuk masing-masing
arsitektur. Kemudian hasil pelatihan ini dibagi menjadi dua bagian, bagian pertama terdiri dari 1 simulasi sebagai proses pelatihan awal untuk penentuan batas MSE. Bagian kedua terdiri dari 9 simulasi digunakan untuk analisa lanjutan. Proses analisa dijelaskan sebagai berikut: 1. Analisa proses pelatihan awal dilakukan dengan melihat nilai MSE yang dihasilkan suatu arsitektur agar konvergen. MSE maksimum dari semua arsitektur akan digunakan sebagai target error analisa hasil simulasi selanjutnya. 2. Analisa lanjutan dilakukan dengan mencari jumlah iterasi yang dibutuhkan masing-masing simulasi untuk mencapai target MSE yang didapatkan dari poin 1. Jumlah iterasi ini kemudian dikonversikan kedalam runtime untuk
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
30
masing-masing simulasi. Perbandingan GALM dan LM dilihat dari ratarata iterasi dan runtime. Dari proses ana lisa ini dapat diketahui arsitektur paling baik untuk kedua algoritma dan letak perbaikan yang dilakukan GA pada algoritma GALM. Arsitektur terbaik terlihat dari runtime singkat. Setela h didapatkan batas M SE dan arsitektur terbaik utnuk masing-masing algoritma, proses pengujian dilakukan untuk kedua algoritma. Simulasi dilakukan sebanyak 20 kali dengan nilai mean absolut percentage error (MAPE) sebagai analisa kinerja proses pengujian. Apabila nilai M APE kurang dari 10% maka hasil prediksi dikatakan sangat baik, apabila nilai MAPE antara 10% sampai dengan 20% maka hasil prediksi dikatakan baik (Yasm in, 2010).
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
BAB 4 PEMBAHASAN
4. 1.
Hasil Pelatihan Awal GALM dan LM Pelatihan awal dilakukan sebanyak satu kali simulasi untuk masing-masing
variasi hidden neuron. Tujuan dari pelatihan awal ini adalah untuk menentukan nilai batas maksimum mean square error yang diperlukan suatu arsitektur untuk mencapai konvergen. M aksimum MSE ini nantinya akan digunakan untuk menghitung iterasi yang diperlukan suatu arsitektur untuk mencapai nilai MSE tersebut.
4. 1. 1 Pelatihan Tiga Hidden Neuron
Gambar 4.1 Hasil Pelatihan 3 Hidden Neuron
Hasil simulasi arsitektur 3 hidden neuron terlihat pada gambar 4.1. Arsitektur dengan 3 hidden neuron menunjukkan bahwa GALM mengalami konvergensi pada MSE 0.003925, LM menga lam i konvergensi pada MSE 0.003925.
31to user commit
perpustakaan.uns.ac.id
digilib.uns.ac.id
32
4. 1. 2 Pelatihan Lima Hidden Neuron
Gambar 4.2 Hasil Pelatihan 5 Hidden Neuron Hasil simulasi dengan arsitektur 5 hidden neuron terlihat pada gambar 4.2. Arsitektur 5 hidden neuron menunjukkan bahwa GALM konvergen pada nilai MSE 0.001696 dan LM konvergen pada nilai MSE 0.001764.
4. 1. 3 Pelatihan Enam Hidden Neuron
Gambar 4.3 Hasil Pelatihan 6 Hidden Neuron
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
33
Hasil simulasi dengan arsitektur 6 hidden neuron terlihat pada gambar 4.3. Arsitektur 6 hidden neuron menunjukkan bahwa GALM konvergen pada nilai MSE 0.001754 dan LM konvergen pada nilai MSE 0.001782.
4. 1. 4 Pelatihan Enam Belas Hidden Neuron
Gambar 4.4 Hasil Pelatihan 16 Hidden Neuron
Hasil simulasi dengan arsitektur 16 hidden neuron terlihat pada gambar 4.4. Arsitektur 16 hidden neuron menunjukkan bahwa GALM konvergen pada nilai M SE 0.000331 dan LM konvergen pada nilai MSE 0.000312.
4. 1. 5 Pelatihan Tujuh Belas Hidden Neuron Hasil simulasi dengan arsitektur 17 hidden neuron terlihat pada gambar 4.5. Arsitektur 17 hidden neuron menunjukkan bahwa GALM konvergen pada nilai M SE 0.000302 dan LM konvergen pada nilai MSE 0.000274.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
34
Gambar 4.5 Hasil Pelatihan 17 Hidden Neuron
4. 1. 6 Pelatihan Dua Puluh Empat Hidden Neuron Hasil simulasi dengan arsitektur 24 hidden neuron terlihat pada gambar 4.6. Arsitektur 24 hidden neuron menunjukkan bahwa GALM konvergen pada nilai M SE 0.000165 dan LM konvergen pada nilai MSE 0.000179.
Gambar 4.6 Hasil Pelatihan 10 Hidden Neuron
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
35
4. 2.
Analisa Hasil Pelatihan Awal GALM dan LM Tabel 4.1 merupakan rangkuman MSE GALM dan LM hasil pelatihan
awal. Hasil pelatihan menunjukkan bahwa nilai MSE terbesar adalah 0.003925 untuk JST mencapai konvergen dari arsitektur 3 hidden neuron. Selanjutnya nilai MSE 0.003925 digunakan sebagai batasan nilai MSE simulasi selanjutnya.
Tabel 4.1 Perbandingan Nilai MSE Pelatihan Awal Hidden Neuron 3 5 6 16 17 24 4. 3.
GALM
LM
0.003925 0.001696 0.001754 0.000332 0.000303 0.000165
0.003925 0.001764 0.001782 0.000312 0.000275 0.000179
Analisa Hasil Pelatihan Lanjut Tabel 4.2 Perbandingan Iterasi GALM dan LM Pelatihan Lanjut GALM LM Max Mean Min Max Mean Hidden Min Neuron iterasi iterasi iterasi iterasi iterasi iterasi 3 57 600 341 44 937 447 5 50 138 89 50 162 91 6 45 105 77 45 155 95 16 3 87 57 44 92 64 17 54 80 64 45 101 67 24 12 112 60 44 79 66 Simulasi dilakukan sebanyak 9 kali simulasi untuk masing-masing variasi
hidden neuron. Tabel 4.2 menunjukkan rangkuman hasil dari 9 percobaan. Jumlah iterasi yang disajikan adalah jumlah iterasi yang diperlukan suatu simulasi untuk mencapai nilai MSE 0.003925. Hasil simulasi selengkapnya terdapat pada lampiran B. Jumlah iterasi maksimal untuk kedua algoritma < 200 iterasi, kecuali untuk arsitektur dengan 3 hidden neuron dengan jumlah iterasi maksimal GALM
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
36
sebesar 600 iterasi dan LM sebesar 937 iterasi. Gambar 4.10 menunjukkan grafik iterasi rata-rata GALM dan LM .
Tabel 4. 3 Perbandingan Runtime GALM dan LM Pelatihan Lanjut Hidden Min Neuron Time 3 1.053 5 1.828 6 2.121 16 3.278 17 18.319 24 15.478
GALM Max Time 13.232 5.068 5.209 25.807 27.739 84.944
Mean Time 6.559 3.248 3.767 16.914 21.775 46.667
Min Time 0.812 1.866 2.283 12.502 15.618 34.059
LM Max Time 19.812 6.030 7.844 27.489 35.167 60.518
Mean Time 8.701 3.420 4.744 18.504 23.041 50.571
500 450 400 E p o c h
350 300 250 GALM
200
LM
150 100 50 0 3
5
6
16
17
24
Hidden Neuron
Gambar 4.7 Perbandingan Iterasi GALM dan LM Pelatihan Lanjut
Tabel 4.3 merupakan rangkuman runtime untuk mencapai jumlah iterasi tabel 4.2. Runtime dihitung dari proses menjalankan LM pada algoritma GALM maupun LM saja. Gambar 4.8 menunjukkan perbandingan rata- rata runtime GALM dan LM. Gambar memperlihatkan bahwa proses runtime LM algoritma GALM lebih cepat dibanding LM pada semua hidden neuron. Hasil demikian
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
37
menunjukkan bahwa proses GA mampu memperbaiki kinerja LM dengan mempersingkat waktu pelatihan.
60.000 W a 50.000 k t 40.000 u 30.000 GALM
( d e t i k
20.000
LM
10.000
)
0.000 3
5
6
16
17
24
Hidden Neuron
Gambar 4.8 Perbandingan Runtime GALM dan LM Pelatihan Lanjut
Tabel 4.4 Runtime GA pada Proses GALM Hidden Neuron 3 5 6 16 17 24
Min Time (detik) 1.662 2.883 3.569 11.648 12.803 16.261
Max Time (detik) 1.885 3.227 5.856 12.117 12.986 39.825
Mean Time (detik) 1.764 3.000 3.890 11.934 12.900 25.103
Pelatihan dengan algoritma GALM memerlukan waktu tambahan untuk menjalankan GA sebagai proses optimasi sebelum menja lankan LM . Runtime GA tersaji dalam tabel 4.4. Runtime bertambah seiring dengan pertambahan jumla h hidden neuron, dikarenakan semakin kompleksnya pengkodean kromosom yang berakibat kepada semakin kompleksnya proses GA. Apabila rata-rata waktu untuk menjalankan GA ini ditambahkan kepada waktu runtime LM algoritma GALM
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
38
tabel 4.3 maka akan didapatkan grafik seperti gambar 4.9. Rata-rata runtime keseluruhan algoritma GALM menjadi lebih besar dibandingkan runtime algoritma LM , kecuali pada arsitektur dengan 3 hidden neuron memilliki runtime yang hampir sama.
W a k t u ( d e t i k
80.000 70.000 60.000 50.000 40.000 GALM
30.000
LM
20.000 10.000 0.000
)
3
5
6
16
17
24
Hidden Neuron
Gambar 4.9 Grafik Perbandingan Rata-rata Runtime Keseluruhan GALM dan LM Pelatihan Lanjut
Hasil simulasi me nunjukkan beberapa arsitektur melakukan kegagalan proses training, kegagalan diperlihatkan dengan tidak konvergennya nilai MSE ketika proses training dilakukan. Frekuensi kegagalan training dari 9 simulasi masing-masing arsitektur terlihat pada tabel 4.5.
Tabel 4.5 Prosentase Kegagalan Proses Pelatiha n Hidden GALM Neuron 3 5 6 16 17 24
0 0 0 0 0 0
LM 0 0 0 2/9 0 4/9
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
39
Proses pelatihan dengan algoritma GALM tidak menunjukkan kegagalan proses training pada setiap arsitektur yang digunakan, sedangkan algoritma LM menunjukkan kegagalan proses training pada hidden neuron 16 dan 24. Kegagalan proses training terjadi karena nilai µ terlalu cepat mencapai minimal yakni 10 -20, ketika µ mencapai nilai minimal, maka tidak terjadi perubahan nilai MSE. Algoritma LM dengan arsitektur 5 hidden neuron memerlukan waktu 3.420 detik untuk menjalankan 91 iterasi. GALM dengan arsitektur 5 hidden neuron memiliki rata- rata waktu runtime paling rendah dibanding arsitektur yang la in sesuai tabel 4.3 untuk menjalankan 89 iterasi. Jika dilihat dari jumlah iterasi dan runtime yang diperlukan untuk mencapai nilai M SE yang ditargetkan, maka arsitektur dengan 5 hidden neuron terbaik untuk kedua algoritma. Proses GA pada algoritma GALM mampu meningkatkan kinerja LM dalam segi runtime yang lebih kecil dibandingkan LM dengan starting poin yang sama. Starting poin pengukuran runtime berdasarkan waktu mulai menjalankan algoritma LM untuk kedua algoritma. Selain itu, proses GA juga memperbaiki LM dengan menghilangkan kegagalan proses training dengan LM. Namun, tidak dapat dipungkiri bahwa algoritma GALM memerlukan waktu untuk menjalanka n proses GA, sehingga
runtime keseluruhan lebih lama dibandingkan algoritma
LM. Keseluruhan hasil pengukuran kinerja pelatiha n menunjukkan bahwa pelatihan JST dengan algoritma LM lebih bagus dibandingkan algoritma GALM dilihat dari rata-rata runtime keseluruhan.
4. 4.
Hasil Pengujian Arsitektur 8-5-1 Proses pengujian dilakukan setelah didapatkan arsite ktur terbaik sesuai
hasil pelatihan. Arsitektur 8-5-1 merupakan arsitektur terbaik untuk kedua algoritma. Simulasi dilakukan sebanyak 20 kali untuk masing-masing algoritma. Rangkuman hasil simulasi tersaji pada tabel 4.6, hasil selengkapnya terdapat pada lampiran C.
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
40
Tabel 4.6 Nilai MAPE Hasil Pengujian Arsitektur 8-5-1 MAPE Pengujian GALM (%) ke1 8.40 2 10.68 3 13.44 4 10.61 5 12.48 6 17.13 7 10.42 8 8.25 9 10.36 10 6.43 11 8.47 12 10.48 13 14.68 14 16.18 15 15.28 16 10.35 17 8.77 18 8.50 19 10.03 20 8.86 Rata-rata 10.99
MAPE LM (%) 9.88 8.93 9.54 8.67 10.56 9.69 8.41 8.29 8.69 14.81 8.85 11.73 15.00 8.96 6.31 9.25 9.78 9.85 8.83 8.60 9.73
Nilai MAPE terendah untuk algoritma GALM diperoleh pada simulasi ke10 dengan nilai 6.43%, sedangkan MAPE terendah untuk LM diperoleh pada simulasi ke-15 dengan nilai 6.31%. Gambar 4.12 menunjukkan kesesuian antara target dan output (hasil peramalan) algoritma GALM dengan M APE 6.43%. Gambar 4.13 menunjukkan kesesuaian antara target dan output algoritma LM dengan MAPE 6.31%. Hasil keseluruhan terlihat pada tabel C.1 dan C.2 lampiran C. Rata-rata M APE algoritma LM dari 20 simulasi adalah 9.73%, sedangkan pengujian dengan algoritma GALM memiliki rata-rata MAPE 10.99%. dengan demikian dapat dikatakan bahwa hasil prediksi dari kedua algoritma tidak jauh
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
41
berbeda. Nilai MAPE yang dihasilkan oleh kedua algoritma masih bisa diterima dalam industry beton.
K e k u a t a n (
50.00 40.00 30.00 Target 20.00
Output
10.00 0.00 0
)
M P a
60.00
2
4
6
8
10
12
Data ke-
Gambar 4.10 Kesesuaian Target Data Testing dan Hasil Peramalan (Output) GALM dengan MAPE 6.43%
60
(
50 K e 40 k M u p 30 a a t 20 a 10 n
Target
)
Output
0 0
1
2
3
4
5
6
7
8
9
10
Data ke-
Gambar 4.11 Kesesuaian Target Data Testing dan Hasil Peramalan (Output) LM dengan MAPE 6.31%
commit to user
perpustakaan.uns.ac.id
digilib.uns.ac.id
BAB 5 PENUTUP
5. 1.
Kesimpulan Pelatihan jaringan s yaraf tiruan (JST) multilayer perceptron dengan
menggunakan Genetic Algorithm Levenberg Marquardt mampu memperbaiki proses pelatihan dengan menghilangkan kegagalan proses training LM yang terjadi pada arsitektur dengan 16 dan 24 hidden neuron. Pengukuran kinerja pelatihan arsitektur JST menunjukkan bahwa arsitektur 8-5-1, terdiri dari 8 input neuron, 5 hidden neuron, dan 1 output neuron merupakan arsitektur terbaik untuk kedua algoritma. Arsitektur ini mencapai MSE 0.003925 dengan 89 iterasi GALM dan 91 iterasi LM dengan runtime masingmasing 3.248 detik dan 3.420 detik. Proses pengujian arsitektur 8-5-1 dengan algoritma pelatihan GALM mendapatkan nilai rata-rata MAPE 10.99% dan pengujian dengan algoritma LM mendapatkan rata-rata nilai MAPE sebesar 9.73%.
5. 2.
Saran Saran untuk penelitian selanjutnya adalah
1. Melakukan pelatiha n jaringan syaraf tiruan dengan menggunakan fungsi aktifasi yang la in, misalnya identitas, sigmoid bipolar atau tangent hyperbolic 2. Menggunakan proses normalisasi data yang lain, misalnya Z-score, sigmoid, atau Euclidean. 3. Melakukan proses pengujian korelasi antar variabel data yang digunakan.
42to user commit