NEURAL NETWORK BAB II
II. Teori Dasar
terendah
dalam
proses
mengenali
II.1 Konsep Jaringan Saraf Tiruan
sekelompok obyek pola yang dipelajari.
(Artificial Neural Network)
Jaringan
saraf
Secara biologis jaringan saraf terdiri dari
distribusi
pararel
neuron-neuron yang saling berhubungan.
sejumlah besar simpul mempunyai bobot
Neuron merupakan unit struktural dan
dan bias tertentu.
tiruan
mempunyai
arsitektur
dengan
fungsional dari sistem saraf, mempunyai kemampuan untuk mengadakan respon bila
dirangsang
dengan
intensitas
rangsangan cukup kuat. Respon neuron bila dirangsang adalah memulai dan menghantarkan impuls. Jaringan saraf tiruan merupakan gabungan sejumlah
Gbr 1 . Model struktur jaringan saraf tiruan.
elemen yang memproses informasi dari
Kontruksi jaringan saraf tiruan terdiri
input
dari :
sehingga
memberikan
suatu
informasi keluaran. Sekelompok obyek
1. Penentuan Perangkat Jaringan
dipelajari oleh sistem belajar dengan
2. Penentuan Perangkat Simpul
tujuan untuk mengenali bentuk pola
3. Penentuan Sistem Dinamik
setiap
bentuk
tersebut.
Proses
ini
dilakukan dengan cara melatih sistem
II.1.1 Perangkat Jaringan
belajar (train neural network) melalui
Jaringan
pemberian
pada
sejumlah lapisan dan simpul yang
hubungan antar simpul. Hasil yang
berbeda untuk tiap-tiap layer. Jenis layer
dicapai
dapat dibedakan menjadi
sekelompok
bobot
dan
adalah bobot
bias
didapatkannya dan
bias
saraf
tiruan
terdiri
dari
(pada
1. Input Layer : terdiri dari unit-unit
kesalahan minimum yang dicapai) untuk
simpul yang berperan sebagai
semua pola yang dipelajari, hal ini sesuai
input proses pengolahan data
dengan anggapan menemukan energi
pada neural network.
NEURAL NETWORK 2. Hidden Layer : terdiri dari unit-
II.1.3 Sistem Dinamik
unit simpul yang dianalogikan
Pemberian bobot dan bias bergantung
sebagai lapisan tersembunyi dan
pada model jaringan saraf tiruan yang
berperan sebagai lapisan yang
dipilih, tetapi dalam banyak kasus
meneruskan respon dari input.
pemberian bobot dapat berupa bilangan
3. Output Layer : terdiri dari unitunit
simpul
yang
berperan
real yang kecil dan dipilih secara acak. Pelatihan
(train)
terhadap
jaringan
memberikan solusi dari data
adalah satu hal yang terpenting dalam
input.
neural network. Train neural network menentukan
bagaimana
cara
II.1.2 Perangkat Simpul
mengadaptasi nilai-nilai bobot dan bias
Tingkat aktivasi dari simpul (node)
dalam usaha untuk mengoptimalkan
dapat berharga diskrit yaitu 0 dan 1, atau
kerja suatu jaringan dalam mengenali
kontinu yaitu antara 0 dan 1. Hal
suatu bentuk atau pola, dan menghitung
tersebut
besar nilai bobot (weight adjustment)
fungsi
bergantung aktivasi
itu
dari
penerapan
sendiri.
Jika
dan bias selama proses berlangsung.
menggunakan fungsi ‘hard limitting’ ,
Salah satu yang perlu diperhatikan
maka tingkat aktivasinya bernilai 0 (atau
adalah perhitungan kesalahan (error)
-1) dan 1. Apabila menggunakan fungsi
pada jaringan dengan berubahnya nilai
sigmoid
aktivasinya
bobot dan bias. Pada perubahan nilai
terbatas pada daerah antara 0 dan 1. Pada
bobot neural network perlu diketahui
tugas akhir kali ini lebih banyak
tingkat aktivasi yang terjadi dengan
menggunakan fungsi sigmoid terutama
tingkat aktivasi yang diinginkan. Tingkat
logsig. contoh fungsi sigmoid dengan
aktivasi dari input tidak perlu dihitung
fungsi aktivasi logsig yaitu :
tetapi yang perlu dihitung adalah tingkat
maka
tingkat
aktivasi dari hidden dan output layer. Sebagai
contoh,
dari
untuk
fungsi
sigmoid tingkat aktivasi dari unit i(ai) adalah
ai = Gbr 2 . fungsi aktivasi logsig.
1 1+ e
( − ∑Wij pi − b i )
(2.1)
NEURAL NETWORK Dimana pi adalah masukan dari unit i, Wij adalah nilai bobot pada hubungan dari unit i ke j, dan bj adalah nilai bias pada unit j.
II.1.4 Pengelompokan Jaringan Saraf Tiruan Jaringan saraf tiruan mengelompokan obyek yang diberikan sesuai dengan tingkat
aktivasi
keluarannya
dapat
Gbr 3 . Single Layer Perceptrons
dibedakan menjadi : 1. Single Layer Perceptrons (SPL)
2. Multi Layer Perceptrons (MLP)
SLP terdiri dari satu lapisan input
MLP adalah jaringan saraf tiruan alur
dan output. Fungsi aktivasi yang
maju dengan sedikitnya ada satu
digunakan adalah hard limitting
lapisan
yaitu unit output akan bernilai satu,
masalah dalam membentuk jaringan
jika jumlah pemberian bobot input
saraf tiruan MLP adalah berapa
lebih besar dari nilai bias-nya.
banyak
Dalam hal pengelompokan suatu
memberikan hasil yang optimal pada
obyek akan dikelompokan oleh unit j
suatu jaringan saraf tiruan.
jika memenuhi : ∑Wijpi ≥ bi. Juga
Jumlah dari unit yang tersembunyi
sebaliknya,
dapat
suatu
obyek
akan
tersembunyi.
unit
Salah
tersembunyi
ditentukan
secara
satu
yang
empirik
dikelompokkan pada kelompok yang
dengan
lain jika : ∑Wijpi < bi.
jaringan saraf tiruan dengan jumlah
mengeplot
antara
hasil
unit tersembunyi tertentu, kemudian dipilih unit tersembunyi dengan hasil latihan terbaik atau dengan kesalahan (error) terkecil.
NEURAL NETWORK mengenali pola dan diperoleh bobot dan bias tiap simpul dengan kesalahan terkecil. Kelemahan
Backpropagation
diantaranya adalah : •
Backpropagation dapat mengenali
pola input yang telah diajarkan tetapi
Gbr 4 . Multi Layer Perceptrons
tidak dapat mengenali pola input yang II.1.5 Model Train Neural Network
baru. •
dengan Sistem Backpropagation
Dalam mengenali pola input yang
satu
baru, maka pola tersebut harus diajarkan
program komputasi untuk penerapan
sehingga pola yang lama akan dilupakan.
neural network yang banyak digunakan
Parameter backpropagation :
untuk memecahkan masalah non-linear
•
Backpropagation
adalah
salah
Inisiasi bobot
dengan
Memasukan nilai bobot dan nilai
menggeneralisasi persamaan widrow-
bias untuk tiap simpul dengan
hoff. Metoda ini menggunakan metoda
bilangan acak (random).
penurunan
•
serta
network
multilayer
gradien.
Backpropagation
menggunakan
pelatihan
(train
network)
neural
terbimbing dan
dalam
Menghitung tingkat aktivasi 1. Tingkat aktivasi dari simpul input tidak perlu dihitung
pengaturan jumlah lapisan (layer) mudah
2. Menghitung tingkat aktivasi
dilakukan sehingga banyak diterapkan
dari simpul hidden dan output
pada berbagai permasalahan.
dengan rumus :
Backpropagation train
neural
merupakan
network
yang
sistem
•
Untuk simpul hidden (2.2)
dapat
menghitung tingkat kesalahan dari hasil
•
Untuk simpul output
keluarannya, sehingga neural network
(2.3)
yang digunakan memiliki kesalahan
dengan :
terkecil. Neural network harus dilatih
pi : nilai input
berulang-ulang dengan pola input yang
Wij : bobot ke simpul hidden
sesuai, sehingga neural network dapat
Wjk : bobot ke simpul output
NEURAL NETWORK bj : nilai bias simpul hidden
η
bk : nilai bias simpul output
pembelajaran (antara 0
3. Melatih bobot
:
koefesien
dan 1)
a. Penyesuaian bobot
:
δj : gradien error pada
mencari nilai bobot sesuai
unit j
dengan
δk : gradien error pada
keluaran
yang
diinginkan dengan persamaan
unit k
:
Tk : harga aktivasi yang •
Perubahan bobot ke
diinginkan dari simpul
simpul hidden
output ke k (target)
Wij(t+1) = Wij(t) + ∆Wij •
(2.3)
Perubahan bobot ke
diperoleh
simpul output
keluaran ke k
Wjk(t+1) = Wjk(t) + ∆Wjk b. Perhitungan
(2.4)
perubahan
bobot dengan persamaan : •
ak : harga aktivasi yang
Perubahan bobot ke
pada
5. Mengulang algoritma
simpul langkah
diatas
sehingga
dapat menentukan nilai error terkecil (yang diinginkan).
simpul hidden ∆Wij = ηδj . pi •
(2.5)
Perubahan bobot ke (2.6)
4. Perhitungan gradient error •
Perubahan bobot ke
merupakan tahapan preprocessing dalam pengolahan data seismik dan merupakan inverse filter. Dekonvolusi adalah suatu metode seismik untuk menghilangkan
simpul hidden (2.7)
efek wavelet sehingga didapat estimasi
Perubahan bobot ke
reflektifitas bawah permukaan. Dengan
δj = aj(1 - aj)Σδk . Wij •
Dekonvolusi merupakan suatu proses kebalikan dari konvolusi. Dekonvolusi
simpul output ∆ Wjk = ηδk . aj
II.2 Dekonvolusi
kata lain dekonvolusi adalah proses
simpul output δk = ak(1 – ak)(Tk - ak) dengan :
(2.8)
untuk mengkompres wavelet seismik agar dapat memberikan daya pisah terhadap adanya perlapisan batuan dalam
NEURAL NETWORK bumi pada suatu penampang seismik. Prinsip dasar dari analisa dekonvolusi adalah mencari bentuk solusi dari filter inverse atau least square inverse filter. Dalam penentuan operator filter, sering didefinisikan
bentuk
output
yang
diinginkan. Dekonvolusi
bertujuan
meningkatkan
resolusi
untuk temporal,
sehingga data seismik menjadi lebih mudah untuk diinterpretasikan. Pada metoda dekonvolusi konvensional khususnya dekonvolusi spiking input harus
berfasa
minimum
agar
memberikan output yang spike dan tanpa delay, jika tidak harus menggunakan wavelet
shaping.
Suatu
proses
dekonvolusi tidak akan menghasilkan suatu bentuk spike yang sempurna selama ada komponen frekuensi tinggi yang hilang pada proses konvolusi antara wavelet dan operator filter. Hal yang sering terjadi adalah operator filter sering berperilaku untuk menambah frekuensi,
yang
terkandung
dalam
seismogram
yang
sebetulnya
tidak
wavelet
dari
mengakibatkan
spektrum amplitudo hasil dekonvolusi tidak memberikan bentuk yang flat.
Gbr 5 . konvolusi