APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PRESTASI SISWA SMU DENGAN METODE BACKPROPAGATION SKRIPSI Diajukan Kepada Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta Untuk Memenuhi Syarat Memperoleh Gelar Sarjana
Disusun Oleh: FITRIA YUNANTI NIM : 04610018
PROGRAM STUDI MATEMATIKA FAKULTAS SAINS DAN TEKNOLOGI UNIVERSITAS ISLAM NEGERI SUNAN KALIJAGA YOGYAKARTA 2010
0
ii
iii
iv
!" # $ %% &
'
(
%)
1
%
*
+( , # ,
+ 23
.
, %% /-$ +
01
%
2
%
KATA PENGANTAR Puji syukur kehadirat Allah SWT yang telah memberikan rahmatNya kepada penulis, sehingga penulis dapat menyelesaikan skripsi yang berjudul : Aplikasi Jaringan Syaraf Tiruan Untuk Memprediksi Prestasi Siswa SMU Dengan Metode Backpropagation. Penulis sadar tanpa bantuan dari berbagai pihak, skripsi ini tidak akan terlaksana dengan baik. Oleh karena itu, pada kesempatan ini penulis dengan ketulusan hati mengucapkan terimakasih atas dukungan, bimbingan, dan bantuannya baik secara moral maupun spiritual kepada: 1. Prof. Dr. HM. Amin Abdullah selaku Rektor Universitas Islam Negeri Sunan Kalijaga Yogyakarta. 2. Ibu Dra. Maizer Said Nahdi, M.Si. selaku Dekan Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan kalijaga Yogyakarta yang telah memberikan ijin penelitian. 3. Ibu Sri Utami Zuliana,S.Si, M.Sc. selaku Kaprodi Matematika Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta sekaligus sebagai Pembimbing yang dengan sabar memberi pengarahan, bimbingan dan petunjuk selama melakukan penelitian. 4. Bapak Akhmad Fauzy, Ph.D. selaku Pembimbing yang telah memberikan pengarahan selama melakukan penelitian. 5. Para Staf Pengajar Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta, yang telah banyak memberilkan ilmu pengetahuan dan wawasan yang tak ternilai harganya. 3
6. Bapak Kepala Sekolah SMU N 1 WERU SUKOHARJO yang telah memberikan ijin untuk melakukan penelitian di sekolah yang dipimpinnya. 7. Kedua orang tuaku dan semua keluargaku tercinta yang tak henti-hentinya mendo’akan dan memberikan dorongan kepada penulis. 8. Mas Heri Pramono yang sudah memberikan nasehat, motivasi, semangat dan selalu meluangkan waktu untuk penulis sehingga penulis bisa menyalesaikan skripsi ini dengan sebaik-baiknya. 9. Teman-temanku Prodi Matematika, teman-teman kos Az-Zahrah, dan semua pihak yang tidak dapat disebutkan satu per satu, yang telah ikut memberikan bantuan dan sumbangan dalam pelaksanaan penelitian dan penulisan skripsi ini. Harapan penulis semoga segala arahan, dorongan pengorbanan dan nasehat yang telah diberikan kapada penulis menjadi amal yang shaleh dan diridhoi Allah SWT. Penulis menyadari bahwa penelitian ini masih banyak kekurangannya. Oleh sebab itu, segala bentuk saran dan kritik yang sifatnya membangun demi lebih baiknya penelitian sangat diharapkan. Akhirnya penulis berharap dan berdo’a semoga skripsi ini bermanfaat bagi diri paneliti dan pembaca semuanya. Amin.
Yogyakarta, 4 Januari 2010 Penulis
Fitria yunanti NIM :04610018
4
DAFTAR ISI
HALAMAN JUDUL ………………………………………………………… i HALAMAM PENGESAHAN ………………………………………………. ii HALAMAN PERNYATAAN ………………………………………………. iii HALAMAN MOTTO………………………………………………………… iv PERSEMBAHAN ……………………………………………………………. v KATA PENGANTAR ……………………………………………………….. vi DAFTAR ISI…………………………………………………………………. viii DAFTAR GAMBAR…………………………………………………………. x DAFTAR LAMPIRAN ……………………………………………………… xi ABSTRAK …………………………………………………………………… xii BAB I.
PENDAHULUAN ………………………………………………… 1 A. Latar belakang Masalah ………………………………………… 1 B. Perumusan Masalah …………………………………………….. 3 C. Batasan masalah ………………………………………………… 3 D. Tujuan Penelitian ……………………………………………….. 4 E. Manfaat Penelitian ……………………………………………... 4 F. Sistematika Pembahasan ……………………………………….. 5
BABII.
TINJAUAN PUSTAKA…………………………………………… 6 A. TINJAUAN PUSTAKA ………………………………………. 6 1.
Dasar-Dasar Matematika …………………………………… 7 1.1. Vektor …………………………………………………. 7
5
1.2. Matriks ……………………………………………..... 10 2.
Dasar-dasar Statistika …………………………………….. 13
BAB III. METODE PENELITIAN ……………………………………….. 15 BAB IV. HASIL PENELITIAN DAN PEMBAHASAN ………………… 17 A. HASIL PENELITIAN ……………………………………….. 17 1. Backpropagation …………………………………………. 19 2. Istilah-istilah yang digunakan pada jaringan syaraf tiruan backpropagation …………………………………. 21 3. Arsitektur jaringan syaraf tiruan backpropagation ….. 23 4. Langkah-langkah algoritma backpropagation ………... 24 5. Proses pelatihan …………………………………………. 26 6. Matlab ……………………………………………………. 26 7. Fungsi aktivasi …………………………………………… 29 BAB V.
KESIMPULAN DAN SARAN …………………………………. 31 A. KESIMPULAN ……………………………………………… 31 B. SARAN ……………………………………………………….. 34
DAFTAR PUSTAKA ………………………………………………………… 35 LAMPIRAN…………………………………………………………………… 36
6
DAFTAR GAMBAR
Halaman Gambar 1. Arsitektur Jaringan Backpropagation …………………………
18
Gambar 2. Struktur Neuron Jaringan Syaraf……………………………….
20
Gambar 3. Jaringan Syaraf dengan Banyak Lapisan……………………….
23
Gambar 4. Fungsi Aktivasi …………………………………………………
30
Gambar 5. Pembelajaran dengan Trainingdm……………………………….
51
Gambar 6. Perbandingan antara Data Training dan Target atau Output dari input pertama dan input kedua……………………………..
50
Gambar 7. Perbandingan antara Data Testing dan Target atau Output……...
51
7
DAFTAR LAMPIRAN
Lampiran 1. Data Keseluruhan Penelitian ………………………………….. 37 Lampiran 2. Source Code …………………………………………………… 38 Lampiran 3. Format Pembentukan Jaringan dengan Matlab ………………… 39 Lampiran 4. Output Program ………………………………………………… 40 Lampiran 5. Grafik Output Program …………………………………………. 50
8
APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PRESTASI SISWA SMU DENGAN METODE BACKPROPAGATION Penulis
: Fitria Yunanti / NIM: 04610018
Pembimbing
:
1. Akhmad Fauzy, Ph.D. 2. Sri Utami Zuliana, S.Si, M.Sc
ABSTRAKSI Tujuan dari penelitian ini adalah 1) Mempelajari teori jaringan syaraf tiruan backpropagation; dan 2) Menerapkan perangkat lunak berbasis jaringan syaraf tiruan backpropagation untuk melakukan prediksi dengan program yang digunakan adalah MATLAB. Penelitian ini menggunakan metode literature dan analisis data. Pengambilan data dilakukan dengan melakukan penelitian secara langsung ke obyek yang dijadikan acuan dalam penganalisisan data. Obyek penelitian ini adalah nilai UAN suatu bidang studi ketika masih berada di bangku SMP dan nilai rata-rata ujian semester suatu bidang studi ketika berada di SMA. Penelitian dilaksanakan pada bulan maret 2009 dengan mengambil lokasi di SMA N 1 WERU SUKOHARJO, Jawa Tengah, Indonesia. Hasil analisis penelitian menunjukkan bahwa; 1) Jaringan syaraf backpropagation adalah sistem pemrosesan informasi yang bertujuan untuk melatih jaringan agar mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan dan kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama) dengan pola yang digunakan selama pelatihan. 2) pada saat pengujian terjadi kesalahan yang paling besar adalah 76,62 dan terdapat nilai Mean Square Error (MSE) pada akhir pelatihan sebesar 0,126, sehingga dapat diperkirakan bahwa dari 50 data yang dilatihkan ada 29 data yang tidak sesuai dengan output yang diinginkan, sedangkan ada 21 data yang sesuai dengan output yang diinginkan, artinya banyak peserta didik yang kurang berprestasi saat di Sekolah Menengah Umum (SMU) walaupun ketika di Sekolah Menengah Pertama (SMP) mereka berprestasi. 3) Dari output program MATLAB dapat dibuat model matematika, yaitu y = 3,4287x1+ 0,0699x2 + 0,7494. Kata kunci: Aplikasi Jaringan Syaraf Tiruan dengan metode Backpropagation
9
BAB I PENDAHULUAN
A. Latar Belakang Masalah Setelah melalui beberapa fase perkembangannya, komputer modern berperan besar dalam memberikan dukungan kepada manusia untuk menyelesaikan berbagai macam persoalan. Seiring dengan kemajuan teknologi komputer, pekerjaan yang sebelumnya tidak dapat atau sulit dilakukan oleh komputer, kini dapat diselesaikan dengan cukup baik. Dewasa ini, komputer digunakan secara luas pada hampir segala aspek kehidupan manusia dan memegang peranan yang sangat penting dalam bidang industri, matematika, perdagangan, dan hampir seluruh bidang dalam kehidupan manusia lainnya. Jaringan Syaraf Tiruan (Artificial Neural Network) atau disingkat JST, adalah sistem komputasi dimana arsitektur dan operasi diilhami dari pengetahuan tentang sel syaraf biologis dalam otak, yang merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba menstimulasi proses pembelajaran pada otak manusia tersebut. Saat ini, komputer tidak lagi hanya digunakan untuk sekedar membantu pekerjaan manusia, tetapi juga untuk mengganti hampir sebagian besar pekerjaan manusia yang tidak memerlukan pemikiran dan bersifat rutin. Perkembangan selanjutnya, para ahli mencoba untuk mengadaptasi sistem otak manusia ke dalam sistem komputer, sehingga diharapkan dimasa yang akan datang, jaringan syaraf tiruan bekerja mendekati sistem kerja otak manusia yaitu dapat menyimpulkan dan mengambil keputusan berdasarkan
10
data yang dimasukkan. Jadi, jaringan syaraf tiruan merupakan salah satu dari sistem informasi yang didesain dengan menirukan kerja otak manusia dalam menyelesaikan suatu masalah dengan melakukan proses belajar melalui perubahan bobot sinapsisnya. Jaringan syaraf tiruan yang digunakan dalam skripsi ini adalah jaringan syaraf tiruan dengan metode backpropagation yang pemrogramannya menggunakan toolbox matlab. Toolbox MATLAB merupakan salah satu alat pemrograman dalam komputer yang bisa digunakan untuk memprediksi data prestasi siswa SMU dengan jaringan syaraf tiruan. Toolbox MATLAB adalah perangkat lunak yang cocok dipakai karena banyak model jaringan syaraf tiruan yang menggunakan manipulasi matriks/vektor dalam iterasinya. Toolbox
MATLAB
telah
menyediakan
fungsi-fungsi
khusus
untuk
menyelesaikan model jaringan syaraf tiruan. Jaringan syaraf tiruan terdiri dari beberapa metode, yaitu metode hebb, metode perceptron, metode backpropagation, metode adaline. Dari sekian banyak metode jaringan syaraf tiruan yang paling terkenal adalah metode backpropagation. Menurut Andreson, metode backpropogation paling banyak dipakai untuk melakukan prediksi nilai berdasarkan data time series. Data time series diperoleh dari penelitian prestasi siswa di SMU Negeri 1 Weru Sukoharjo. SMU Negeri 1 Weru Sukoharjo merupakan salah satu SMU negeri yang berstandar nasional di kabupaten Sukoharjo. Seiring dengan perkembangan dunia pendidikan, prestasi SMU Negeri 1 Weru Sukoharjo dapat dibanggakan. Seleksi penerimaan siswa baru menjadi
11
pengaruh berkembang atau tidaknya pendidikan di sekolah tersebut. Pada dasarnya tidak ada penolakan dalam seleksi penerimaan siswa baru, namun karena disesuaikan dengan daya tampung di setiap sekolah, maka dilakukan seleksi terhadap para calon peserta didik berdasarkan peringkat nilai Ujian Akhir Nasional (UAN) ketika para peserta didik masih duduk di bangku Sekolah Menengah Pertama (SMP). Seleksi penerimaan siswa baru bertujuan untuk meningkatkan kualitas dan kuantitas SMU Negeri 1 Weru Sukoharjo dalam hal prestasi. Oleh sebab itu, jaringan syaraf tiruan akan mencoba memprediksi nilai Ujian Akhir Semester ketika peserta didik masih duduk di bangku Sekolah Menengah Pertama (SMP) dan nilai awal semester ketika para peserta didik sudah belajar di SMU Negeri 1 Weru berkaitan dengan prestasi yang diperoleh.
B. Perumusan Masalah Masalah pada skripsi ini adalah mempelajari alur dan teori-teori yang digunakan pada pemrograman jaringan syaraf tiruan backpropagation dengan menggunakan bantuan program MATLAB untuk melakukan prediksi.
C. Batasan Masalah Dari latar belakang masalah di atas, maka dapat diambil batasan masalah sebagai berikut: 1. Jaringan Syaraf Tiruan backpropagation terdiri dari satu layer input, satu layer tersembunyi, dan satu variabel output.
12
2. Pengaplikasian program jaringan syaraf tiruan backpropagation untuk memprediksi data prestasi siswa SMU dengan bantuan program MATLAB sebagai software utamanya.
D. Tujuan Penelitian Sesuai dengan pokok permasalahan yang telah dirumuskan di atas, maka tujuan penelitian ini adalah: 1. Mempelajari teori jaringan syaraf tiruan backpropagation. 2. Menerapkan
perangkat
lunak
berbasis
jaringan
syaraf
tiruan
backpropagation untuk melakukan prediksi data prestasi siswa SMU dengan bantuan program yang digunakan adalah MATLAB.
E. Manfaat Penelitian Manfaat dari penelitian ini adalah: 1. Memberikan alternatif lain untuk memprediksi data yang sudah ada. 2. Memberikan hasil analisis dan evaluasi tentang struktur Jaringan Syaraf Tiruan yang optimal yang dipakai untuk pengembangan aplikasi lebih lanjut. 3. Sebagai sumbangan informasi bagi mereka yang berminat mengkaji metode jaringan syaraf tiruan ini. 4. Untuk memperkaya ilmu pengetahuan jaringan syaraf tiruan dalam hal memprediksi.
13
F. Sistematika Pembahasan Sistematika penulisan skripsi meliputi hal-hal berikut: Bab I
Pendahuluan Bab ini akan menjadi dasar pijakan bagi pembahasan pada beberapa bab berikutnya. Bab yang pertama ini terdiri dari latar belakang masalah, perumusan masalah, batasan masalah, tujuan penelitian, manfaat penelitian, dan sistematika pembahasan.
Bab II
Tinjauan Pustaka A. Tinjauan Pustaka B. Landasan Teori
Bab III
Metode Penelitian A. Jenis Penelitian B. Pendekatan Penelitian C. Metode Pengumpulan Data
Bab IV
Hasil Penelitian dan Pembahasan A. Hasil Penelitian B. Pembahasan
Bab V
Kesimpulan A. Kesimpulan B. Saran
14
BAB V KESIMPULAN DAN SARAN
A. KESIMPULAN Jaringan syaraf tiruan adalah suatu sistem pemrosesan informasi yang mempunyai karakteristik menyerupai jaringan syaraf manusia. Model jaringan syaraf tiruan terdiri atas beberapa elemen penghitung tak linier yang masingmasing dihubungkan melalui suatu pembobot dan tersusun secara paralel. Pembobot inilah yang nantinya akan berubah (beradaptasi) selama jaringan syaraf tiruan ini mengalami pelatihan. Pelatiham perlu dilakukan pada suatu jaringan syaraf tiruan sebelum digunakan untuk menyelesaikan suatu masalah. Jaringan syaraf tiruan terdiri dari berbagai model, antara lain: hebb, perceptron, adaline/madalaine, backpropagation, dan hopfield. Model yang digunakan
pada
skripsi
ini
yaitu
model
jaringan
syaraf
tiruan
backpropagation. Jaringan syaraf backpropagation adalah sistem pemrosesan informasi yang bertujuan untuk melatih jaringan agar mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan dan kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama) dengan pola yang digunakan selama pelatihan. Jaringan
syaraf
tiruan
backpropagation
merupakan
algoritma
pembelajaran yang terawasi. Metode backpropagation dibagi menjadi 3 fase, yaitu propagasi maju, propagasi mundur dan perubahan bobot. Fase pertama
40
adalah propagasi maju, tujuannya mencari keluaran network dan error. Pola masukan dihitung maju mulai dari layer input menuju layer output melewati hidden layer menggunakan fungsi aktivasi yang telah ditentukan. Selisih antara target dan keluaran output menghasilkan error. Pada fase kedua, error yang
dihasilkan
dipropagasikan
mundur,
dimulai
dari
bobot
yang
menghubungkan output dan hidden layer dan layer output. Dan fase ketiga adalah memodifikasi bobot untuk menurunkan nilai error yang terjadi. Dalam pelatihan, pengujian, dan prediksi nilai, sistem jaringan syaraf tiruan mempunyai beberapa kelebihan, antara lain proses yang akurat, cepat, serta dapat meminimalisasi kesalahan. Adapun kelemahan jaringan syaraf tiruan ini antara lain sistem jaringan syaraf tiruan merupakan sistem baru, sehingga hanya dapat berfungsi sebagai alat bantú saja. Oleh sebab itu, di dalam pengambilan keputusan masih digunakan faktor-faktor pendukung atau kebijakan-kabijakan yang lain. Untuk lebih mengetahui kemampuan prediksi, semakin banyak jumlah data yang dilatihkan, maka akan semakin baik. Namun akan berdampak dengan lambatnya proses palatihan. Pada perolehan data ini, hasilnya menunjukkan bahwa siswa dengan nilai UAN ketika di SMP yang bagus, tidak selalu menunjukkan prestasi yang baik pada saat di SMU. Hasil data-data yang dilatih dan di uji juga menunjukkan bahwa nilai UAN mata pelajaran matematika dan IPA ketika di SMP yang baik tidak selalu menunjukkan prestasi yang baik juga saat di SMU. Penerapan toolbox MATLAB dapat dilihat di lampiran.
41
Dalam output program MATLAB dapat dibuat model matematika secara sederhana yaitu sebagai berikut: y = v1H1+v2H2+…+vnHn+b1+b2 dimana: H1 = w11x1 + w12x2 H2 = w21x1 + w22x2 . . .
Hn =wm1x1 + wm2x2 y=v1(w11x1+w12x2)+v2(w21x1+w22x2)+…+vn(wm1x1+wm2x2)b1+b2 y= v1 v2 … vn w11 w12 w21 w22 .
.
.
.
x1 x2 b1 +b2
wm1 wm2
y= 0,3698 0,4987 -0,8935 -1,2929 0,667
y = 3,4287 0,0699 0,4802
x1 x2 1
+
y = 3,4287x1+ 0,0699x2 + 0,7494
42
0,2027 -0,2925 0,0715 x1 0,3332 -0,4884 0,0590 x2 -0,9428 -0,5056 -0,1369 +b2 -1,4021 0,0279 -0,3999 b1 0,5485 0,0090 -0,3218
0,2692
1
B. SARAN Ada beberapa saran yang diajukan penulis dengan selesainya penelitian ini, yaitu: a. Perlu dilakukan pembelajaran dan pelatihan dengan data yang lebih banyak, sehingga pola jaringan syaraf tiruan yang dikenali lebih mendekati target. b. Penelitian lebih lanjut diharapkan mampu mengaplikasikan jaringan syaraf tiruan kedalam metode-metode yang lainnya dengan data yang berbeda dan dengan program yang berbeda juga, sehingga hasilnya dapat dibandingkan dengan penelitian penulis. c. Jaringan syaraf tiruan masih membutuhkan campur tangan pakar untuk memasukkan pengetahuan dan menguji data, karena diharapkan hasil yang diperoleh selama pembelajaran bisa sesuai dengan target yang diinginkan.
43
DAFTAR PUSTAKA
Anggarani, D, 2006, Jaringan Saraf Tiruan Untuk Prediksi Kelulusan Dan Penjurusan Ke Sekolah Lanjutan Pada Siswa Sekolah Menengah Pertama (SMP) Dengan Metode Backpropagation, Skripsi Jurusan Matematika dan Ilmu Pengetahuan Alam UGM. Anton, H., 1995, Aljabar Linier Elementer, Erlangga. Jakarta. Fausett, L., 1994, Fundamentals of Neural Network, Architecture, Algoritms, And Applications, Printice-Hall, Inc, London. Furchan, A., Agus M., 2005, Studi Tokoh: Metode penelitian mengenai tokoh, Pustaka Pelajar, Yogyakarta. Hermawan, Arief, 2006, Jaringan Saraf Tiruan (Teori dan Aplikasi), C.V Andi Offset, Yogyakarta. Jong, J.S, 2005, Jaringan Saraf Tiruan dan Pemrogramannya Menggunakan Matlab, C.V Andi Offset, Yogyakarta. Kusumadewi, S., 2004, Membangun Jaringan Saraf Tiruan Menggunakan Matlab Dan Excel Link, Graha Ilmu, Yogyakarta. Nursantika, D, 2008, Identifikasi Sidik Bibir Menggunakan Jaringan Saraf Tiruan Backpropagation, Skripsi Jurusan Matematika dan Ilmu Pengetahuan Alam UGM. Puspitaningrum, 2006, Pengantar Jaringan Saraf Tiruan, C.V Andi Offset, Yogyakarta. Supranto, J., 1993, Statistik (Teori dan Aplikasi), Erlangga, Jakarta.
44
45
Lampiran 1. Data Keseluruhan Penelitian SAMPEL DATA NILAI UAN DAN NILAI RATA-RATA SEMESTER 1 SMU NEGERI 1 WERU SUKOHARJO 2008/2009 No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
INPUT X1 X2 8 6.25 8 6.75 6 6 6.75 7 6.25 8 6.5 8 7.25 8.25 6.5 5 8.25 6.25 5 6.75 4.5 5.5 5 6.25 5.75 6.25 6.25 8 4.75 6.25 5.25 6.75 5.25 7.5 7 6.5 4.5 6 4.5 6.75 4.5 7.5 4.5 6.5 5.5 5.25 7.25 6.25 7.75 7.75 5.5 6.25 8 7 4.5 6 5.75 5 4.25 6.75
TARGET
No
60 72.5 67.5 70 60 70 67.5 62.5 70 47.5 45 45 60 67.5 45 57.5 45 80 40 45 47.5 65 47.5 80 75 47.5 72.5 55 50 50
31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
46
INPUT X1 X2 4.5 6.75 5.75 7.75 8.5 8.5 5 6.5 6.5 6.25 5.5 6 4.25 5.5 5.5 6.5 5 8.25 5.75 6.5 5 6.5 4.75 5.75 5.25 8 6.75 8.25 5.5 6.25 4.25 7.75 6 5.5 5.75 6.25 5.5 6.25 5.75 8 7.75 6.5 6.5 6 7.5 7.25 4.75 8.25 7.5 4.5 8.5 8.25 5.5 4.5 4.75 5.75 5 5 6.75 8
TARGET 57.5 52.5 72.5 52.5 82.5 47.5 40 52.5 45 45 50 62.5 50 70 45 50 60 65 67.5 52.5 67.5 65 70 77.5 72.5 67.5 75 47.5 72.5 70
Lampiran 2. Source Code » %data input dan target » %prepocessing » [pn,minp,maxp,tn,mint,maxt]=premnmx (p,t) » %membangun jaringan syaraf feedforward » net=newff(minmax(pn),[5 1],{'logsig' 'purelin'},'traingdm'); » %set bobot » %set max epoch, goal, learning rate, show step » %melakukan pembelajaran » net=train(net,pn,tn); » %melihat bobot-bobot awal input, lapisan dan bias » bobotAkhir_input=net.IW{1,1} » bobotAkhir_bias_input=net.b{1,1} » bobotAkhir_lapisan=net.LW{2,1} » bobotAkhir_bias_lapisan=net.b{2,1} » %melakukan simulasi » an=sim (net , pn) » %input baru Q akan di tes, dengan target TQ » %normalisasi input baru » Qn = tramnmx(Q,minp,maxp); » bn = sim(net,Qn) » %menggambar grafik » pause; » subplot(211) plot(p(1,:),t,'bo',p(1,:),a,'g*'); » title ('Data Training: Perbandingan antara Target (o) dan Output Jaringan (*)'); xlabel('input pertama'); » ylabel('Target atau Output'); » grid; » subplot(212) » plot(p(2,:), t ,'mo',p(2,:),a,'r+'); » title ('Data Training: Perbandingan antara Target (o) dan Output Jaringan (+)'); » xlabel ('input kedua'); » ylabel('Target atau Output'); » grid;pause; » subplot (211) » plot(Q(1,:), TQ, 'bo', Q(1,:),b,'r*'); » title('Data Testing: Perbandingan antara Target (o) dan Output Jaringan (*)'); xlabel ('input pertama'); » ylabel ('Target atau Output'); » Grid; subplot (212) » plot(Q(2,:),TQ,'bo',Q(2,:),b,'rs'); » title ('Data Testing: Perbandingan antara Target (o) dan Output Jaringan (s)'); » xlabel ('input kedua'); » ylabel ('Target atau Output'); » Grid;
47
Lampiran 3. Format Pembentukan Jaringan dengan MATLAB Net
=
newff
(PR,[S1,S2,.
.
.
,SN],{TF1,TF2,.
.
.TFN},BTF,BLF,PF) Dengan
net
=
jaringan
backpropagation
yang
terdiri
dari
n
layar PR = matriks ordo Rx2 yang berisi nilai minimum dan maksimum R buah elemen masukannya Si
(i=1,2,…,n)=
jumlah
nilai
pada
layer
ke-I
(i=1,2,…,n) Tfi (i=1,2,…,n)= fungsi aktivasi yang digunakan pada layer ke-i (i=1,2,…,n). Default
=
tansig
(sigmoid
bipolar),
namun
dalam
penulisan ini digunakan fungsi logsig (sigmoid biner) BTF = fungsi pelatihan jaringan. Defaultnya = traingdx BLF
=
fungsi
perubahan
bobot/bias.
Defaultnya
learngdm PF = fungsi perhitungan error. Default = mse.
48
=
Lampiran 4. Output Program %data input dan target » p=[8 8 6 6.75 6.25 6.5 7.25 6.5 8.25 5 4.5 5 5.75 6.25 4.75 5.25 5.25 7 4.5 4.5 4.5 4.5 5.5 7.25 7.75 5.5 8 4.5 5.75 4.25 4.5 5.75 8.5 5 6.5 5.5 4.25 5.5 5 5.75 5 4.75 5.25 6.75 5.5 4.25 6 5.75 5.5 5.75; 6.25 6.75 6 7 8 8 8.25 5 6.25 6.75 5.5 6.25 6.25 8 6.25 6.75 7.5 6.5 6 6.75 7.5 6.5 5.25 6.25 7.75 6.25 7 6 5 6.75 6.75 7.75 8.5 6.5 6.25 6 5.5 6.5 8.25 6.5 6.5 5.75 8 8.25 6.25 7.75 5.5 6.25 6.25 8]; » t=[60 72.5 67.5 70 60 70 67.5 62.5 70 47.5 45 45 60 67.5 45 57.5 45 80 40 45 47.5 65 47.5 80 75 47.5 72.5 55 50 50 57.5 52.5 72.5 52.5 82.5 47.5 40 52.5 45 45 50 62.5 50 70 45 50 60 65 67.5 52.5]; » %prepocessing » [pn,minp,maxp,tn,mint,maxt]=premnmx (p,t) pn = Columns 1 through 7 0.7647 0.4118 -0.2857 0.8571
0.7647
-0.1765
0.1765
-0.0588
0.0588
0
-0.4286
0.1429
0.7143
0.7143
0.8824
-0.6471
-0.8824
-0.6471
-0.2941
-0.2857
0
-0.7143
-0.2857
-0.2857
-0.5294
-0.5294
0.2941
-0.8824
-0.8824
0
0.4286
-0.1429
-0.4286
0
-0.4118
0.4118
0.6471
-0.4118
0.7647
-
-0.8571
-0.2857
0.5714
-0.2857
0.1429
-
-1.0000
-0.8824
-0.2941
1.0000
-0.6471
0
0
0.5714
1.0000
-0.1429
Columns 8 through 14 0.0588 0.0588 -1.0000 0.7143
-
Columns 15 through 21 -0.7647 0.8824 -0.2857 0.4286
-
Columns 22 through 28 -0.8824 0.8824 -0.1429 0.4286
Columns 29 through 35 -0.2941 0.0588 -1.0000 0.2857
Columns 36 through 42
49
-
-0.4118 0.7647 -0.4286 0.5714
-1.0000
-0.4118
-0.6471
-0.2941
-0.6471
-
-0.7143
-0.1429
0.8571
-0.1429
-0.1429
-
0.1765
-0.4118
-1.0000
-0.1765
-0.2941
-
0.8571
-0.2857
0.5714
-0.7143
-0.2857
-
0.2941
0.4118
-0.0588
0.4118
-0.6471
-0.7647
-0.7647
-0.0588
-0.7647
0.8824
-1.0000
-0.7647
-
0.8824
0.6471
-0.6471
0.5294
-
-0.1765
-0.4118
0.5294
-0.4118
Columns 43 through 49 -0.5294 0.4118 0.7143 0.2857 Column 50 -0.2941 0.7143 minp = 4.2500 5.0000 maxp = 8.5000 8.5000 tn = Columns 1 through 7 -0.0588 0.2941
0.5294
Columns 8 through 14 0.0588 0.2941
0.4118
Columns 15 through 21 -0.7647 0.6471
-0.1765
Columns 22 through 28 0.1765 0.2941
-0.6471
Columns 29 through 35 -0.5294 1.0000
-0.5294
50
Columns 36 through 42 -0.6471 0.0588
-1.0000
-0.4118
-0.7647
-0.7647
-0.5294
-0.7647
-0.5294
-0.0588
0.1765
Columns 43 through 49 -0.5294 0.2941
0.4118
Column 50 -0.4118 mint = 40 maxt = 82.5000 » %membangun jaringan syaraf feedforward » net=newff(minmax(pn),[5 1],{'logsig' 'purelin'},'traingdm'); » %set bobot awal » net.IW{1,1}=[-0.10 -0.30; -0.05 -0.50; -0.05 -0.60; 0.01 0.05; 0.05 0.01]; » net.b{1,1}=[0.05 0.01 0.02 -0.30 -0.40]'; » net.LW{2,1}=[0.25 0.30 -0.50 -0.75 0.30]; » net.b{2,1}=[0.05]; » %set max epoch, goal, learning rate, show step » net.trainParam.epochs=1000; » net.trainParam.goal=1e-3; » net.trainParam.lr=0.1; » net.trainParam.show=10; » %melakukan pembelajaran » net=train (net,pn,tn); TRAINGDM, Epoch 0/1000, MSE 0.293082/0.001, Gradient 0.188121/1e010 TRAINGDM, Epoch 10/1000, MSE 0.281679/0.001, Gradient 0.216595/1e010 TRAINGDM, Epoch 20/1000, MSE 0.266109/0.001, Gradient 0.121899/1e010 TRAINGDM, Epoch 30/1000, MSE 0.254394/0.001, Gradient 0.109596/1e010 TRAINGDM, Epoch 40/1000, MSE 0.243375/0.001, Gradient 0.111568/1e010 TRAINGDM, Epoch 50/1000, MSE 0.2323/0.001, Gradient 0.104989/1e010 TRAINGDM, Epoch 60/1000, MSE 0.221456/0.001, Gradient 0.103922/1e010 TRAINGDM, Epoch 70/1000, MSE 0.210756/0.001, Gradient 0.103102/1e010
51
TRAINGDM, Epoch 80/1000, MSE 0.200269/0.001, Gradient 0.101023/1e010 TRAINGDM, Epoch 90/1000, MSE 0.190163/0.001, Gradient 0.0982676/1e-010 TRAINGDM, Epoch 100/1000, MSE 0.18061/0.001, Gradient 0.0945482/1e-010 TRAINGDM, Epoch 110/1000, MSE 0.171776/0.001, Gradient 0.0898172/1e-010 TRAINGDM, Epoch 120/1000, MSE 0.163806/0.001, Gradient 0.0842491/1e-010 TRAINGDM, Epoch 130/1000, MSE 0.156793/0.001, Gradient 0.0780168/1e-010 TRAINGDM, Epoch 140/1000, MSE 0.150777/0.001, Gradient 0.0713438/1e-010 TRAINGDM, Epoch 150/1000, MSE 0.145741/0.001, Gradient 0.0644815/1e-010 TRAINGDM, Epoch 160/1000, MSE 0.141622/0.001, Gradient 0.0576627/1e-010 TRAINGDM, Epoch 170/1000, MSE 0.138323/0.001, Gradient 0.0510902/1e-010 TRAINGDM, Epoch 180/1000, MSE 0.135728/0.001, Gradient 0.0449236/1e-010 TRAINGDM, Epoch 190/1000, MSE 0.133718/0.001, Gradient 0.039271/1e-010 TRAINGDM, Epoch 200/1000, MSE 0.132179/0.001, Gradient 0.0341924/1e-010 TRAINGDM, Epoch 210/1000, MSE 0.131011/0.001, Gradient 0.0297055/1e-010 TRAINGDM, Epoch 220/1000, MSE 0.130128/0.001, Gradient 0.0257951/1e-010 TRAINGDM, Epoch 230/1000, MSE 0.129461/0.001, Gradient 0.0224235/1e-010 TRAINGDM, Epoch 240/1000, MSE 0.128956/0.001, Gradient 0.0195395/1e-010 TRAINGDM, Epoch 250/1000, MSE 0.128573/0.001, Gradient 0.0170862/1e-010 TRAINGDM, Epoch 260/1000, MSE 0.12828/0.001, Gradient 0.0150064/1e-010 TRAINGDM, Epoch 270/1000, MSE 0.128054/0.001, Gradient 0.0132468/1e-010 TRAINGDM, Epoch 280/1000, MSE 0.127877/0.001, Gradient 0.0117594/1e-010 TRAINGDM, Epoch 290/1000, MSE 0.127739/0.001, Gradient 0.0105027/1e-010 TRAINGDM, Epoch 300/1000, MSE 0.127628/0.001, Gradient 0.00944154/1e-010 TRAINGDM, Epoch 310/1000, MSE 0.127538/0.001, Gradient 0.00854638/1e-010 TRAINGDM, Epoch 320/1000, MSE 0.127465/0.001, Gradient 0.00779257/1e-010 TRAINGDM, Epoch 330/1000, MSE 0.127404/0.001, Gradient 0.0071595/1e-010 TRAINGDM, Epoch 340/1000, MSE 0.127353/0.001, Gradient 0.00662981/1e-010 TRAINGDM, Epoch 350/1000, MSE 0.127309/0.001, Gradient 0.00618866/1e-010
52
TRAINGDM, Epoch 360/1000, 0.00582324/1e-010 TRAINGDM, Epoch 370/1000, 0.00552238/1e-010 TRAINGDM, Epoch 380/1000, 0.00527628/1e-010 TRAINGDM, Epoch 390/1000, 0.00507631/1e-010 TRAINGDM, Epoch 400/1000, 0.00491493/1e-010 TRAINGDM, Epoch 410/1000, 0.00478558/1e-010 TRAINGDM, Epoch 420/1000, 0.00468263/1e-010 TRAINGDM, Epoch 430/1000, 0.00460128/1e-010 TRAINGDM, Epoch 440/1000, 0.00453749/1e-010 TRAINGDM, Epoch 450/1000, 0.0044879/1e-010 TRAINGDM, Epoch 460/1000, 0.00444974/1e-010 TRAINGDM, Epoch 470/1000, 0.00442075/1e-010 TRAINGDM, Epoch 480/1000, 0.00439908/1e-010 TRAINGDM, Epoch 490/1000, 0.00438325/1e-010 TRAINGDM, Epoch 500/1000, 0.00437207/1e-010 TRAINGDM, Epoch 510/1000, 0.00436458/1e-010 TRAINGDM, Epoch 520/1000, 0.00436002/1e-010 TRAINGDM, Epoch 530/1000, 0.0043578/1e-010 TRAINGDM, Epoch 540/1000, 0.00435742/1e-010 TRAINGDM, Epoch 550/1000, 0.00435852/1e-010 TRAINGDM, Epoch 560/1000, 0.00436078/1e-010 TRAINGDM, Epoch 570/1000, 0.00436398/1e-010 TRAINGDM, Epoch 580/1000, 0.00436793/1e-010 TRAINGDM, Epoch 590/1000, 0.00437248/1e-010 TRAINGDM, Epoch 600/1000, 0.0043775/1e-010 TRAINGDM, Epoch 610/1000, 0.00438292/1e-010 TRAINGDM, Epoch 620/1000, 0.00438866/1e-010 TRAINGDM, Epoch 630/1000, 0.00439465/1e-010
MSE 0.12727/0.001, Gradient MSE 0.127236/0.001, Gradient MSE 0.127206/0.001, Gradient MSE 0.127178/0.001, Gradient MSE 0.127152/0.001, Gradient MSE 0.127128/0.001, Gradient MSE 0.127105/0.001, Gradient MSE 0.127083/0.001, Gradient MSE 0.127062/0.001, Gradient MSE 0.127041/0.001, Gradient MSE 0.127021/0.001, Gradient MSE 0.127001/0.001, Gradient MSE 0.126982/0.001, Gradient MSE 0.126962/0.001, Gradient MSE 0.126943/0.001, Gradient MSE 0.126924/0.001, Gradient MSE 0.126905/0.001, Gradient MSE 0.126886/0.001, Gradient MSE 0.126867/0.001, Gradient MSE 0.126848/0.001, Gradient MSE 0.126829/0.001, Gradient MSE 0.12681/0.001, Gradient MSE 0.126791/0.001, Gradient MSE 0.126772/0.001, Gradient MSE 0.126753/0.001, Gradient MSE 0.126734/0.001, Gradient MSE 0.126714/0.001, Gradient MSE 0.126695/0.001, Gradient
53
TRAINGDM, Epoch 640/1000, 0.00440086/1e-010 TRAINGDM, Epoch 650/1000, 0.00440726/1e-010 TRAINGDM, Epoch 660/1000, 0.0044138/1e-010 TRAINGDM, Epoch 670/1000, 0.00442048/1e-010 TRAINGDM, Epoch 680/1000, 0.00442727/1e-010 TRAINGDM, Epoch 690/1000, 0.00443416/1e-010 TRAINGDM, Epoch 700/1000, 0.00444114/1e-010 TRAINGDM, Epoch 710/1000, 0.0044482/1e-010 TRAINGDM, Epoch 720/1000, 0.00445534/1e-010 TRAINGDM, Epoch 730/1000, 0.00446255/1e-010 TRAINGDM, Epoch 740/1000, 0.00446982/1e-010 TRAINGDM, Epoch 750/1000, 0.00447716/1e-010 TRAINGDM, Epoch 760/1000, 0.00448456/1e-010 TRAINGDM, Epoch 770/1000, 0.00449201/1e-010 TRAINGDM, Epoch 780/1000, 0.00449953/1e-010 TRAINGDM, Epoch 790/1000, 0.0045071/1e-010 TRAINGDM, Epoch 800/1000, 0.00451474/1e-010 TRAINGDM, Epoch 810/1000, 0.00452242/1e-010 TRAINGDM, Epoch 820/1000, 0.00453017/1e-010 TRAINGDM, Epoch 830/1000, 0.00453797/1e-010 TRAINGDM, Epoch 840/1000, 0.00454582/1e-010 TRAINGDM, Epoch 850/1000, 0.00455373/1e-010 TRAINGDM, Epoch 860/1000, 0.0045617/1e-010 TRAINGDM, Epoch 870/1000, 0.00456973/1e-010 TRAINGDM, Epoch 880/1000, 0.00457781/1e-010 TRAINGDM, Epoch 890/1000, 0.00458596/1e-010 TRAINGDM, Epoch 900/1000, 0.00459416/1e-010 TRAINGDM, Epoch 910/1000, 0.00460241/1e-010
MSE 0.126676/0.001, Gradient MSE 0.126656/0.001, Gradient MSE 0.126637/0.001, Gradient MSE 0.126618/0.001, Gradient MSE 0.126598/0.001, Gradient MSE 0.126578/0.001, Gradient MSE 0.126559/0.001, Gradient MSE 0.126539/0.001, Gradient MSE 0.126519/0.001, Gradient MSE 0.126499/0.001, Gradient MSE 0.126479/0.001, Gradient MSE 0.12646/0.001, Gradient MSE 0.126439/0.001, Gradient MSE 0.126419/0.001, Gradient MSE 0.126399/0.001, Gradient MSE 0.126379/0.001, Gradient MSE 0.126359/0.001, Gradient MSE 0.126338/0.001, Gradient MSE 0.126318/0.001, Gradient MSE 0.126297/0.001, Gradient MSE 0.126277/0.001, Gradient MSE 0.126256/0.001, Gradient MSE 0.126235/0.001, Gradient MSE 0.126214/0.001, Gradient MSE 0.126194/0.001, Gradient MSE 0.126173/0.001, Gradient MSE 0.126152/0.001, Gradient MSE 0.12613/0.001, Gradient
54
TRAINGDM, Epoch 920/1000, MSE 0.126109/0.001, Gradient 0.00461073/1e-010 TRAINGDM, Epoch 930/1000, MSE 0.126088/0.001, Gradient 0.00461911/1e-010 TRAINGDM, Epoch 940/1000, MSE 0.126067/0.001, Gradient 0.00462754/1e-010 TRAINGDM, Epoch 950/1000, MSE 0.126045/0.001, Gradient 0.00463604/1e-010 TRAINGDM, Epoch 960/1000, MSE 0.126024/0.001, Gradient 0.0046446/1e-010 TRAINGDM, Epoch 970/1000, MSE 0.126002/0.001, Gradient 0.00465322/1e-010 TRAINGDM, Epoch 980/1000, MSE 0.125981/0.001, Gradient 0.0046619/1e-010 TRAINGDM, Epoch 990/1000, MSE 0.125959/0.001, Gradient 0.00467065/1e-010 TRAINGDM, Epoch 1000/1000, MSE 0.125937/0.001, Gradient 0.00467946/1e-010 TRAINGDM, Maximum epoch reached, performance goal was not met. » %melihat bobot-bobot awal input, lapisan dan bias » bobotAkhir_input=net.IW{1,1} bobotAkhir_input = 0.2027 -0.2925 0.3332 -0.4884 -0.9428 -0.5056 -1.4021 0.0279 0.5485 0.0090 » bobotAkhir_bias_input=net.b{1,1} bobotAkhir_bias_input = 0.0715 0.0590 -0.1369 -0.3999 -0.3218 » bobotAkhir_lapisan=net.LW{2,1} bobotAkhir_lapisan = 0.3698
0.4987
-0.8935
-1.2929
» bobotAkkhir_bias_lapisan=net.b{2,1} bobotAkkhir_bias_lapisan = 0.2692 » %melakukan simulasi » an=sim(net,pn) an =
55
0.6677
Columns 1 through 7 0.6036 0.3787
0.6059
-0.0862
0.2029
0.0273
0.1195
-0.4541
-0.6275
-0.4569
-0.1788
-0.3555
0.2870
-0.6289
-0.6278
-
0.3700
0.5335
-0.2732
0.6062
-
-0.6278
-0.1640
0.7233
-0.4557
-0.2712
-0.4386
-0.1765
-0.4557
-
-0.2732
-0.7029
-0.0908
-0.1788
-
59.4182
65.5614
61.8300
63.7892
51.6009
47.9153
51.5403
57.4514
53.6956
67.3485
47.8864
47.9092
Columns 8 through 14 0.0899 0.0273
0.6731
Columns 15 through 21 -0.5447 0.6229
-0.3626
Columns 22 through 28 -0.6286 0.6289
-0.2791
Columns 29 through 35 -0.1879 0.1042
-0.7089
Columns 36 through 42 -0.2750 0.5453
-0.7059
Columns 43 through 49 -0.3498 0.2732
0.2102
Column 50 -0.1613 » a=postmnmx(an,mint,maxt) a = Columns 1 through 7 74.0765 69.2978
74.1247
Columns 8 through 14 63.1597 61.8300
75.5534
Columns 15 through 21 49.6746 48.0131
53.5446
56
Columns 22 through 28 47.8926 47.8864
55.3199
69.1135
72.5873
55.4452
74.1326
47.9092
57.7659
76.6205
51.5672
55.4873
51.9306
57.4993
51.5672
55.4452
46.3129
59.3204
57.4514
Columns 29 through 35 57.2568 63.4652
46.1854
Columns 36 through 42 55.4071 49.6631
46.2490
Columns 43 through 49 53.8175 55.4452
65.7165
Column 50 57.8221 » %input data baru Q akan dites, dengan target TQ » Q=[7.75 6.5 7.5 47.5 7.5 8.5 5.5 4.75 5 6.75; 6.5 6 7.25 8.25 4.5 8.25 4.5 5.75 5 8]; » TQ=[67.5 65 70 77.5 72.5 67.5 75 47.5 72.5 70]; » %normalisasi input baru » Qn=tramnmx(Q,minp,maxp); » bn=sim(net,Qn) bn = Columns 1 through 7 0.5316 0.2812
0.1015
0.4578
1.7957
0.4273
0.7270
99.4084
70.3305
76.6981
Columns 8 through 10 -0.5453
-0.4584
0.2092
» b=postmnmx(bn,mint,maxt) b = Columns 1 through 7 72.5467 55.2754
63.4070
70.9779
Columns 8 through 10 49.6631 51.5082 65.6963 » %menggambar grafik
57
-
» pause; » subplot (211) » plot(p(1,:),t,'bo',p(1,:),a,'g*'); » title('data training:perbandingan antara target (o) dan output jaringan (*)'); » xlabel('input pertama'); » ylabel('target atau output'); » grid; » subplot(212) » plot(p(2,:),t,'mo',p(2,:),a,'r+'); » title('data training: perbandingan antara target (o) dan output jaringan (+)'); » xlabel('input kedua'); » ylabel('target atau output'); » grid; pause; » subplot (211) » plot(Q(1,:),TQ,'bo',Q(1,:),b,'r*'); » title('data testing:perbandingan antara target (o) dan output jaringan (*)'); » xlabel('input pertama'); » ylabel('input kedua'); » grid; » subplot (212) » plot (Q(2,:),TQ,'bo',Q(2,:),b,'rs'); » title ('data testing:perbandingan antara target (o) dan output jaringan (s)'); » xlabel('input kedua'); » ylabel('target atau output'); » grid;
58
Lampiran 5. Grafik Output Jaringan Performance is 0.125937, Goal is 0.001
0
Training-Blue Goal-Black
10
-1
10
-2
10
-3
10
0
100
200
300
400 500 600 1000 Epochs
700
800
900
1000
Gambar.5. Pembelajaran dengan trainingdm. data training:perbandingan antara target (o) dan output jaringan (*)
target atau output
90 80 70 60 50 40
4
target atau output
90
4.5
5
5.5
6 6.5 7 7.5 8 input pertama data training: perbandingan antara target (o) dan output jaringan (+)
8.5
80 70 60 50 40
5
5.5
6
6.5 7 input kedua
7.5
8
8.5
Gambar.6. Perbandingan antara Data Training dan Target atau Output dari input pertama dan input kedua
59
data testing:perbandingan antara target (o) dan output jaringan (*)
input kedua
100 80 60 40
0
target atau output
100
5
10
15
20 25 30 35 40 45 input pertama data testing:perbandingan antara target (o) dan output jaringan (s)
50
80 60 40 4.5
5
5.5
6
6.5 input kedua
7
7.5
8
8.5
Gambar.7. Perbandingan antara Data Testing dan Target atau Output
60