Aplikasi Jaringan Saraf Tiruan dalam Rekognisi Karakter Numerik Berbasis Citra
25
BAB III JARINGAN SARAF TIRUAN (JST)
3.1 Pengertian JST JST merupakan sebuah model atau pola dalam pemrosesan informasi. Model ini terinspirasi dari sistem biologi saraf makhluk hidup seperti pemrosesan informasi pada otak. Struktur pemprosesan informasi ini terbentuk dari sejumlah neuron yang saling terhubung satu sama lain dan memecahkan masalah secara bersamaan. Layaknya manusia, JST juga dapat belajar melalui contoh [6].
Gambar 3.1 Model Biologi Neuron
Aplikasi Jaringan Saraf Tiruan dalam Rekognisi Karakter Numerik Berbasis Citra
26
JST pertama kali diperkenalkan oleh seorang neurolog Warren S. McCulloch dan matematikawan Walter Pitts pada tahun 1943 yang kemudian dikenal sebagai McCulloch-Pitts Neuron. Neuron ini berupa simulasi operasi logika dengan dua atau lebih input yang menghasilkan satu keluaran. Hasil dari model ini adalah fungsi logika sederhana dalam bentuk fungsi logika Boolean dengan operasi AND, NOT, OR, XOR, NAND, dan NOR [1]. Seperti yang telah dijelaskan di atas, JST bekerja dan memiliki konstruksi layaknya otak manusia (Tabel 1). Tabel 3.1 Perbandingan Saraf Biologi dengan JST [7]
Saraf Biologi
JST
Soma
Neuron
Dendrit
Input
Akson
Output
Sinapsis
Bobot
Dari tabel perbandingan saraf biologi otak dengan JST menunjukkan masing-masing komponen memiliki fungsi yang hampir sama satu dengan lainnya. Sebagai contoh, bagian sinapsis pada saraf biologi. Bagian ini berfungsi menghantarkan sinyal listrik dan memberikan pembobotan pada sinyal tersebut. Fungsi sinapsis sama dengan pembobotan pada JST, menghantarkan nilai dari input neuron ke neuron berikutnya setelah dilakukan pembobotan terlebih dahulu.
Aplikasi Jaringan Saraf Tiruan dalam Rekognisi Karakter Numerik Berbasis Citra
27
Gambar 3.2 Konstruksi Model JST Sederhana
Gambar 3.2 merupakan konstruksi dari sebuah model JST sederhana. Model ini dikenal dengan nama Perceptron (Rosenblatt, 1958). Dalam perkembangan JST muncul berbagai model-model lain seperti: Adaptive Linear Element disingkat ADALINE (Widrow dan Hoff, 1960), Heterostasis (Klopf, 1972), Cognitron (Fukushima, 1975), Adaptive Resonance Theory atau ART (Steve Grossberg dan Gail Carpenter, 1988) serta berbagai inovasi lainnya yang terus berkembang hingga sekarang. Dari beberapa model di atas, model yang digunakan dan dibahas dalam tugas akhir ini adalah model Perceptron terutama dalam pengenalan pola. Perceptron bekerja secara terbimbing yaitu belajar dari pola pelatihan sehingga dihasilkan output yang diinginkan.
Aplikasi Jaringan Saraf Tiruan dalam Rekognisi Karakter Numerik Berbasis Citra
28
3.2 Algoritma Perceptron Model jaringan Perceptron ditemukan oleh Rosenblatt (1962) dan Minsky – Papert (1969). Arsitektur jaringan Perceptron dapat dilihat pada Gambar 3.2 di atas. Jaringan terdiri dari beberapa unit input (ditambah sebuah bias) dan memiliki sebuah unit output [1]. Fungsi aktivasi yang digunakan tidak hanya fungsi biner ataupun bipolar, tetapi memiliki kemungkinan nilai -1, 0, atau 1. Nilai output jaringan f(net) dihasilkan dari formula berikut: ⎧1 ⎪ f (net ) = ⎨0 ⎪−1 ⎩
jika net > θ jika − θ ≤ net ≤ θ jika net < −θ
(Persamaan 3.1)
dengan θ nilai ambang yang digunakan. Misalkan s vektor masukan, t target keluaran, dan α laju pembelajaran (learning rate). Algoritma pelatihan perceptron berdasarkan variabel-variabel di atas adalah: 1. Inisialisasi semua bobot wi dan bias b (umumnya wi = b = 0). Tentukan laju pemahaman. Biasanya laju pemahaman yang digunakan bernilai 1. 2. Selama terdapat unit output yang tidak bernilai sama dengan target, maka: a. Set aktivasi unit input xi = si ( i = 1, ..., n ). b. Hitung total sinyal yang masuk ke unit output dan nilai aktivasinya menggunakan Persamaan 3.1 dan 3.2,
Aplikasi Jaringan Saraf Tiruan dalam Rekognisi Karakter Numerik Berbasis Citra
net = ∑ xi wi + b
29
(Persamaan 3.2)
i
c. Perbaiki bobot pola yang mengandung kesalahan ( y ≠ t ) berdasarkan formula berikut: wi (baru ) = wi (lama ) + Δw dengan Δw = α txi
(Persamaan 3.3)
b(baru ) = b(lama ) + Δb dengan Δb = α t
(Persamaan 3.4)
Beberapa hal yang perlu diperhatikan dalam algoritma di atas adalah: Iterasi dilakukan terus menerus hingga semua pola memiliki output yang sama dengan target masing-masing. Perubahan bobot pada langkah 2 (c) hanya dilakukan pada pola yang mengandung kesalahan (output jaringan ≠ target) dan hanya akan terjadi jika unit input ≠ 0. Selain dari tingkat kerumitan pola, laju iterasi juga ditentukan oleh laju pembelajaran. Nilai laju pembelajaran ini berada pada 0 ≤ α ≤ 1 . Umumnya, semakin besar α, semakin sedikit iterasi yang diperlukan. Akan tetapi, jika nilai α terlalu besar, maka akan merusak pola yang sudah benar sehingga pelatihan menjadi lambat.