7
BAB 2
TINJAUAN PUSTAKA
2.1 Jaringan Syaraf Biologi
Otak manusia memiliki struktur yang sangat kompleks dan memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang disebut sinapsis [2]. Sel saraf mempunyai cabang struktur input (dendrities) sebuah inti sel sebuah percabangan struktur output atau axon. Axon dari sebuah sel terhubung dengan dendrities yang lain melalui sebuah synapse. Ketika sebuah sel syaraf aktif kemudian menimbulkan suatu signal electrochemical pada axon. Signal ini melewati synapses menuju ke sel saraf yang lain. Sebuah sel saraf lain akan mendapatkan signal jika memenuhi batasan tertentu yang sering disebut nilai ambang atau threshold.
Gambar 2.1 Susunan Syaraf Manusia [9]
7 Universitas Sumatera Utara
8
2.2 Jaringan Saraf Tiruan
Jaringan syaraf tiruan didefinisikan sebagai suatu sistem pemrosesan informasi yang mempunyai karateristik menyerupai jaringan syaraf manusia. Jaringan syaraf tiruan tercipta sebagai generalisasi model matematis (human cognition) yang didasarkan atas asumsi sebagai berikut : 1.
Pemrosesan informasi terjadi pada elemen sederhana yang disebut neuron.
2. Isyarat
mengalir diantara sel saraf/neuron
melalui suatu sambungan
penghubung. 3. Setiap sambungan penghubung memiliki bobot yang bersesuaian. Bobot ini akan digunakan untuk menggandakan/mengenali isyarat yang dikirim melaluinya. 4. Setiap sel syaraf akan menerapkan fungsi aktivasi terhadap isyarat hasil penjumlahan berbobot yang akan masuk kepadanya untuk menentukan isyarat keluarnya [5].
JST mempunyai kemampuan untuk mendapatkan informasi dari data yang rumit atau tidak tepat, mampu menyelesaikan permasalahan yang tidak terstruktur dan sulit didefinisikan, dapat belajar dari pengalaman, mampu mengakuisisi pengetahuan walaupun tidak ada kepastian, mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu, dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan belajar (self organizing), mampu memilih suatu input data kedalam kategori tertentu yang sudah ditetapkan (klasifikasi), mampu menggambarkan suatu objek secara keseluruhan walaupun hanya diberikan sebagian data dari objek, mempunyai kemampuan mengolah data-data input tanpa harus mempunyai target (Self organizing),
dan
mampu
menemukan
jawaban
terbaik
sehingga
mampu
meminimalisasi fungsi biaya (optimasi) [9].
JST juga merupakan suatu teknik pemrosesan informasi yang menggunakan model kuantitatif. JST terdiri dari sejumlah neuron melalui pendekatan melalui sifat-sifat komputasi biologis (biological computation).
8 Universitas Sumatera Utara
9
bias w1 x1 w2 x2 netk Input
output f (.)
. . .
xi
Fungsi Aktivasi
Fungsi Penjumlahan
wi
Gambar 2.2 Model Neuron [3]
Keterangan : Xi = sinyal masukan ke-i. Dalam skripsi penulis dimana X1 adalah Penilaian Kerja Pegawai yang baik, X2 adalah Masa Kerja minimal empat tahun, X3 adalah ujian psikotes.
Wi = nilai bobot hubungan ke-i. Dalam skripsi penulis nilai bobot adalah 1.00 [5].
= nilai bias atau toleransi error. Dalam skripsi penulis misalnya
adalah 0.5 [5]
f(.) = fungsi aktifasi atau elemen pemroses. Dalam skripsi penulis fungsi aktivasi yang digunakan adalah sigmoid biner
y
= sinyal keluaran. Dalam skripsi penulis sinyal keluarannya berupa layak atau
tidak layak mendapatkan kenaikan golongan.
Dari Gambar 2.2 dapat dilihat bahwa neuron tersusun dari komponen sebagai berikut: 1. Sekumpulan penghubung atau synapses dengan nilai bobot yang telah disesuaikan, yang berfungsi menghubungkan masukan dan fungsi penjumlahan.
9 Universitas Sumatera Utara
10
2. Sebuah
fungsi penjumlah (Summing) yang berfungsi untuk menjumlahkan
semua sinyal masukan.
3. Fungsi aktivasi yaitu fungsi yang mentransformasikan nilai keluarannya melalui pemetaan sinyal masukan ke dalam sebuah nilai yang sesuai dengan neuron lainnya. Fungsi aktivasi diharapkan menghasilkan nilai yang dapat mendekati nilai-nilai maksimum dan minimum target[3].
Dari model sebuah neuron dapat dituliskan persamaan: y=f(
wi * xi – ) ………………………………………………………. (2-1)
Keterangan : f
= Fungsi aktivasi
Wi = nilai bobot hubungan ke-i = nilai bias atau toleransi error [3].
Dalam proses pembelajarannya keluaran dari JST ditentukan oleh pola hubungan antar neuron atau arsitektur JST, metode untuk menentukan bobot penghubung berupa metode pembelajaran serta algoritma dan fungsi aktivasi dari JST itu sendiri. Suatu algoritma belajar dari JST tergantung dari arsitektur atau struktur dari jaringan saraf tersebut [3].
2.2.1 Arsitektur Jaringan Baik tidaknya suatu model JST salah satunya ditentukan oleh hubungan antar neuron atau disebut dengan arsitektur jaringan. Neuron-neuron tersebut terkumpul dalam lapisan-lapisan yang disebut neuron layer. Lapisan-lapisan penyusun JST dibagi tiga yaitu : 1. Lapisan input Node-node didalam lapisan input disebut unit-unit input. Unit-unit input menerima input dari dunia luar. Input yang dimasukkan merupakan penggambaran dari suatu masalah. 2. Lapisan tersembunyi Node-node di dalam lapisan tersembunyi disebut unit-unit tersembunyi. Output dari lapisan ini tidak secara langsung diamati. 10 Universitas Sumatera Utara
11
3. Lapisan output Node-node pada lapisan output disebut unit-unit output. Keluaran atau output dari lapisan ini merupakan output jaringan saraf tiruan terhadap permasalahan [16].
Beberapa arsitektur jaringan yang sering digunakan dalam jaringan saraf tiruan antara lain :
1. Jaringan Lapisan Tunggal (Single Layer Neural Network) Jaringan dengan lapisan tunggal terdiri dari 1 lapisan input dan 1 lapisaan output. Setiap unit dalam lapisan input selalu terhubung dengan setiap unit yang terdapat pada lapisan output. Jaringan ini menerima input kemudian mengilahnya menjadi output tanpa melewati lapisan tersembunyi. Contoh JST yang menggunakan jaringan lapisan tunggal adalah Adaline, Hopfield, Perceptron.
Nilai input
X1
X2
X3
Lapisan input
W21 W22 W11
W12
Y1
W31 Y2
W32 Lapisan output
Nilai output
Gambar 2.3 Jaringan Saraf Tiruan dengan Lapisan Tunggal (Single Layer) [16]
Pada Gambar 2.3 lapisan input memiliki 3 unit neuron yaitu X1, X2, dan X3 yang terhubung dengan lapisan output yang memiliki dua unit neuron, yaitu Y1 dan Y2. 11 Universitas Sumatera Utara
12
Hubungan neuron-neuron pada lapisan tersebut ditentukan oleh bobot yang bersesuaian misalnya W11, W12, W21, W22, W31, dan W32.
2. Jaringan Lapisan Banyak (Multilayer Neural Network) Jaringan lapisan banyak mempunyai 3 jenis lapisan yaitu lapisan input, lapisan tersembunyi, dan lapisan output. Jaringan ini dapat menyelesaikan permasalahan yang lebih kompleks dibandingkan dengan jaringan lapisan tunggal. Contoh JST yang menggunakan jaringan lapisan banyak adalah Madaline, Backpropagation, dan Neocognitron.
Nilai Input
X1
X2
X3
Lapisan Input
V12 V22 V21
V32
Lapisan bobot pertama
V31 Z1
Z2
W1
Lapisan tersembunyi
W2 Lapisan bobot tersembunyi Z1
Lapisan output
Nilai Output
Gambar 2.4 Jaringan Saraf dengan Lapis Banyak (Multilayer)[16]
Pada Gambar 2.4 Lapisan input memiliki 3 unit neuron yaitu X1, X2, dan X3 yang terhubung langsung dengan lapisan tersembunyi yang memiliki 2 unit neuron tersembunyi , yaitu Z1 dan Z2. Hubungan neuron-neuron pada lapisan input dan lapisan output tertentu ditentukan oleh bobot V11, V12, V21, V22, V31, dan V32. 12 Universitas Sumatera Utara
13
Kemudian dua unit neuron tersembunyi Z1 dan Z2 terhubung langsung dengan lapisan output yang memiliki satu unit neuron Y yang besarnya ditentukan oleh bobot W1 dan W2.
3. Jaringan dengan Lapisan Kompetitif/Competitive layer Neural Network Jaringan ini memiliki bobot yang telah ditentukan dan tidak memiliki proses pelatihan (Gambar 2.5). Jaringan ini digunakan untuk mengetahui neuron pemenang dari sejumlah neuron yang ada. Akibatnya pada jaringan ini sekumpulan neuron bersaing untuk mendapatkan hak manjadi aktif. Nilai bobot setiap neuron untuk dirinya sendiri adalah 1, sedangkan untuk neuron lainnya bernilai random negative. Contoh JST yang menggunakan jaringan dengan lapisan kompetitif adalah Learning Vector Quantization dan Kohonen [15].
Gambar 2.5 Jaringan Saraf dengan Competitive layer yang memiliki bobot –n [16]
Pada Gambar 2.5 Lapisan input memiliki empat unit neuron ,yaitu A1, Am, Ai, Aj dimana nilai bobotnya telah ditentukan misalnya n atau –e sedangkan nilai bobot untuk dirinya sendiri bernilai 1.
2.3 Learning Vector Quantization (LVQ) LVQ merupakan suatu metode untuk melakukan pelatihan terhadap lapisan-lapisan kompetitif yang terawasi yang memiliki target. Lapisan kompetitif belajar mengenali dan mengklasifikasikan vektor-vektor masukan. Jika ada dua vektor yang hampir 13 Universitas Sumatera Utara
14
sama maka lapisan kompetitif akan menempatkan keduanya pada kelas yang sama, dengan kata lain, jaringan LVQ belajar mengklasifikasikan vektor masukan ke kelas target yang ditentukan oleh user. Arsitektur jaringan LVQ dengan enam neuron pada lapisan masukan dan dua neuron pada lapisan keluaran, proses yang terjadi pada setiap neuron adalah mencari jarak vektor masukan ke bobot yang bersangkutan (W1 dan W2). W1 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran, sedangkan W2 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron kedua pada lapisan keluaran. Fungsi aktifasi F1 akan memetakan y_in1 ke y1=1 apabila |x- W1| > |x- W2| dan y1=0 jika sebaliknya. Demikian juga pada Fungsi aktifasi F2 akan memetakan y_in2 ke y2=1 apabila |x- W2| > |x- W1| dan y2 = 0 Jika sebaliknya. Jaringan LVQ terdiri atas dua lapisan, yaitu lapis kompetitif dan lapis linier. Lapis kompetitif disebut juga Self Organizing Map (SOM), disebut lapis kompetitif karena neuron-neuron berkompetisi dengan algoritma kompetisi yang akan menghasilkan neuron pemenang. Blok ||indist|| menerima vector masukan
p
dan matrk bobot masukan IW1,1
menghasilkan vektor dengan elemen berjumlah S1 . Elemen-elemen tersebut merupakan jarak nilai terkecil antara vektor masukan dan vektor IW1,1 dan baris matrik bobot masukan. Masukan n1 dari lapis kompetitif diperoleh dengan menghitung jarak terkecil vektor p dan vektor bobot lalu ditambah dengan bias b. Jika semua nilai bias nol masukan jaringan maksimum pada sebuah neuron adalah nol, terjadi jika vektor p sama dengan vektor bobot neuron. Fungsi alih kompetitif menerima vektor masukan dan menghasilkan keluaran nol kecuali untuk neuron pemenang, yaitu neuron yang memiliki nilai negatif paling kecil menghasilkan keluaran satu. Jika semua bias bernilai nol maka neuron yang vektor bobotnya paling mendekati vektor masukan mempunyai nilai negatif yang paling kecil dan akan memenangkan kompetisi untuk menghasilkan keluaran satu.
14 Universitas Sumatera Utara
15
Input
Competitive Layer
n1
P Rx1
2
lW1,1 s x 1 1
S xR
R
Linear Layer
a1
C
S x 1 lW2,1
S1
s2 x s1
2
a2 s x1
n2
2
s2 x 1 S2
a2= W2 a1
a1=compet (n1)
Gambar 2.6 Arsitektur jaringan LVQ [6]
Keterangan : W1 = Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran. W2 = Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke Neuron kedua pada lapisan kedua. P = Vektor masukan p menuju competitive layer. S1 = Vektor yang dihasilkan dari vektor masukan p dan bobot masukan W1,1. S2 = Vektor yang dihasilkan dari vektor masukan a1 dan bobot masukan W2,1. a1 = Hasil dari vektor masukan competitive layer ke linear layer. a2 = Vektor yang dihasilkan dari linear layer. R = Vektor masukan C = Kelas yang diwakili oleh oleh neuron ke-j. T = Vektor target output T =(t1, t2, …, tk) α = Learning rate epoh = Siklus perubahan bobot dari jumlah inputannya
2.3.1 Algoritma Pelatihan LVQ
Algoritma ini akan mengubah bobot I neuron yang paling dekat dengan vektor masukan, misalnya vektor masukan X=(x1,x2,x3). Vektor bobot keluaran neuron ke-j 15 Universitas Sumatera Utara
16
adalah Wj = (W1,W2,..,Wn), Cj adalah kelas yang diwakili oleh Neuron ke-j. T adalah kelas target untuk masukan X sedangkan J adalah jarak antara vektor masukan dan vektor bobot. Blok ||indist|| menerima vektor masukan
p
dan matrik bobot masukan
IW1,1 menghasilkan vektor dengan elemen berjumlah S1 Perubahan bobot-bobot neuron dilakukan dengan langkah-langkah berikut : 1. Tetapkan : a. Bobot awal variabel input ke-j menuju ke kelas (cluster) ke-I : Wij, dengan i=1,2,..,m. b. Maksimum epoh : MaxEpoh c. Parameter learning rate α d. Pengurangan learning rate Decα e. Minimal learning rate yang diberbolehkan : Minα 2. Masukkan : a. Data input : Xij ; dengan i=1,2,..,m. b. Target berupa kelas: Tk ; dengan k=1,2,..,n.
3. Tetapkan kondisi awal : epoh = 0; 4. Kerjakan jika : (epoh ≤ MaxEpoh) dan ( α ≥ Minα) a. epoh = epoh + 1; …………………………………………………….. (2-2) b. Kerjakan untuk i=1 sampai n i. Tentukan J sedemikian hingga |Xi-Wj| minimum ……………….. (2-3) dengan j=1,2,..K. ii. Perbaiki Wj dengan ketentuan : o
Jika T = Cj maka Wj = Wj + α(Xi-Wj) …………………………………….. (2-4)
o
Jika T ≠ C j maka Wj = Wj - α(Xi-Wj) ……………………………………... (2-5)
c. Kurangi nilai α, 16 Universitas Sumatera Utara
17
(pengurangan α bisa dilakukan dengan: α= α-Decα; atau dengan cara: α= α*Dec α) …………………………………. (2-6) Setelah dilakukan pelatihan, akan diperoleh bobot-bobot akhir(W). Bobotbobot ini nantinya akan digunakan untuk melakukan simulasi atau pengujian np buah data.
2.3.2 Algoritma Simulasi (Pengujian) 1. Masukkan data yang akan diuji, misal: Xij dengan i=1,2,..np dan j=1,2,..m. 2. Kerjakan untuk i=1 sampai np a. Tentukan J sedemikian hingga |Xi-Wj| minimum …………….. (2-7) dengan j=1,2,..K. b. J adalah kelas untuk Xi [4].
2.4 Backpropagation
Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan tersembunyinya. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward), untuk mendapatkan error digunakan tahap perambatan maju (forward propogation) harus dikerjakan terlebih dahulu. Arsitektur jaringan ini terdiri dari input layer, hidden layer, dan output layer.
17 Universitas Sumatera Utara
18
w01
1
v01
1
wj1
w11
wp1
w0k
wjk
w1k
wpk
w0m
w1m
vi1
vn1
v0j
vij
v1j
vnj
v0p
Xi
X1
wjm
wpm
vip
vnp
Zp
Zj
Z1
v11
Ym
Yk
Y1
v1p
Xn
Gambar 2.7 Arsitektur jaringan Backpropagation [15]
Keterangan : X = Vektor input pembelajaran X = (X1, X2, …, Xn) V = Bobot lapisan tersembunyi/Hidden Layer Voj= Bias pada Hidden neuron ke j W = Bobot lapisan keluaran n = Jumlah unit pengolah lapisan tersembunyi Z = Lapisan tersembunyi/hidden Zi = Hidden neuron ke-j. Nilai input Zi ditunjukkan dengan
δ k = Bagian koreksi error penyesuaian bobot Wjk berpedoman pada error Output neuron Yk.
δ j = Bagian koreksi error penyesuaian bobot Vij berpedoman pada error Output neuron Zj. Wok = Bias pada output neuron ke-j Yk = Output neuron ke-k. Nilai input Yk ditunjukkan dengan : ink = wok beberapa + ∑ z j w jk unit yang ada dalam satu atau lebih layer Backpropagationy _memiliki j
tersembunyi. Gambar 2.7 adalah arsitektur backpropagation dengan n buah masukan
18 Universitas Sumatera Utara
19
(ditambah sebuah bias), sebuah layar tersembunyi yang terdiri dari p unit (ditambah sebuah bias), serta m buah unit keluaran.
Vji merupakan bobot garis dari unit masukan Xi ke unit layar tersembunyi Zj (Vjo merupakan bobot garis yang menghubungkan bias di unit masukan ke unit layar tersembunyi Zj). Wkj merupakan bobot dari unit layar tersembunyi Zj ke unit keluaran Yk (Wk0 merupakan bobot dari bias di layar tersembunyi ke unit keluaran Zk)[8] .
2.4.1 Algoritma Backpropagation 1. Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil). 2. Tetapkan : maksimum epoh, Target Error, dan Learning rate 3. Inisialisasi : Epoh = 0, MSE = 1 4. Kerjakan langkah-langkah berikut selama (Epoh < Maksimum Epoh) dan (MSE > Target Error) : • Epoh = Epoh + 1 • Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, maka kerjakan : Feedforward a. Tiap-tiap unit input (Xi, i =1,2,3,..,n) menerima sinyal xi dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya (lapisan tersembunyi). b. Tiap-tiap unit pada suatu lapisan tersembunyi (Zj, j =1,2,3,..,p ) menjumlahkan sinyal-sinyal input terbobot : z _ in j = b1 j + ∑ xi vij
........................................................(2-8)
i
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : Zj = f(Z_inj)
.......................................................(2-9)
Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output). c. Tiap-tiap unit output (Yk, k = 1,2,3,..,m) menjumlahkan sinyal-sinyal input terbobot. y _ ink = wok + ∑ z j w jk j
.......................................................... (2-10) 19 Universitas Sumatera Utara
20
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : Yk = f(y_ink)
.......................................................... (2-11)
Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output). Catatan : Langkah (b) dilakukan sebanyak jumlah lapisan terembunyi
Backpropagation d. Tiap-tiap unit output (Yk, K = 1,2,3,..,m) menerima target pola yang berhubungan dengan pola input pembelajaran , hitung informasi errornya :
δ k = (t k − y k ) f ' ( y _ ink )
........................................................ (2-12)
Kemudian hitung koreksi bobot (yang nantinya digunakan untuk memperbaiki nilai Wjk) : ∆w jk = α δ k z j
........................................................ (2-13)
Hitung juga koreksi bias (yang nantinya akan digunak untuk memperbaiki nilai b2k) : ....................................................... (2-14) ∆b2 k = α δ 2 k Langkah (d) ini juga dilakukan sebanyak jumlah lapisan tersembunyi, yaitu menghitung informasi error dari suatu lapisan tersembunyi ke lapisan tersembunyi sebelumnya. e. Tiap-tiap unit tersembunyi (Zj, j = 1,2,3,..,p) menjumlahkan delta inputnya (dari unit-unit yang berada pada lapisan atasnya) : m
δ _ in j = ∑ δ k w jk k =1
........................................................ (2-15)
Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai Vij) : ∆Vij = α δ 1ij
........................................................ (2-16)
Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai b1j) : ∆b1 j = α δ 1 j
....................................................... (2-17)
f. Tiap-tiap unit output (Yk, k = 1,2,3,...,m) memperbaiki bias dan bobotnya (j = 0,1,2,..,p) : wjk (baru) = wjk (lama) + Δwjk
................................................(2-18) 20 Universitas Sumatera Utara
21
b2k (baru) = b2k (lama) + Δb2k
................................................ (2-19)
Tiap-tiap unit tersembunyi (Zj, j = 1,2,3,...,p) memperbaiki bias dan bobotnya (i = 0,1,2,..,n) :
•
vij (baru) = vij (lama) + Δvij
............................................... (2-20)
b1j (baru) = b1j (lama) + Δb1j
............................................... (2-21)
Hitung MSE
2.4.2 Inisialisasi Bobot Awal
Pemilihan bobot awal sangat mempengaruhi jaringan saraf dalam mencapai minimum global terhadap nilai error, serta cepat tidaknya proses pelatihan menuju kekonvergenan. Apabila nilai bobot awal terlalu besar, maka input ke setiap lapisan sembunyi atau lapisan output akan jatuh pada daerah dimana turunan fungsi sigmoidnya sangat kecil dan apabila nilai bobot awal terlalu kecil maka input ke setiap lapisan tersembunyi atau lapisan output akan sangat kecil yang akan menyebabkan proses pelatihan akan berjalan sangat lambat. Inisialisasi bobot awal terdiri dari 2 yaitu : 1. Inisialisasi Bobot Awal Secara Random Inisialisasi bobot awal secara random biasanya bobot awal diinisialisasi secara random dengan nilai antara -0.5 sampai 0.5 (atau -1 sampai 1, atau imterval lainnya). 2. Inisialisasi Bobot Awal Dengan Metode Nguyen-Widrow Metode Nguyen-Widrow akan menginisalisasi bobot-bobot lapisan dengan nilai antara -0.5 sampai 0.5. Sedangkan bobot-bobot dari lapisan input ke lapisan tersembunyi dirancang sedemikian rupa sehingga dapat meningkatkan kemampuan lapisan tersembunyi dalam melakukan proses pembelajaran [2]
21 Universitas Sumatera Utara
22
2.4.3 Fungsi Aktifasi
Fungsi aktivasi merupakan fungsi pengolah jumlahan data masukan menjadi data keluaran. Karakteristik pada fungsi aktivasi dari backpropagation adalah continue, dapat diturunkan, dan tidak menurun secara monoton. Fungsi aktivasi untuk algoritma backpropagation adalah sebagai berikut:
1. Linier atau Purelin Fungsi linier menggunakan konsep superposisi. Fungsi linier akan membawa masukkan ke keluaran yang sebanding. Fungsi ini didefinisikan: f(x) = α x
................................................................................. (2-22)
keterangan:
α = kemiringan (slope) jika slope α = 1, maka fungsi aktivasi linier dinamakan fungsi identitas. Ilustrasi fungsi linier digambarkan:
f(x) 1
x
0
-1 Gambar 2.8 Fungsi Aktivasi Linier[3]
2. Sigmoid Biner atau Logsig Fungsi ini memiliki sifat nonlinier sehingga sangat baik diterapkan dalam penyelesaian masalah yang kompleks. Keluaran dari fungsi sigmoid biner berupa bilangan biner (0 atau 1) atau nilai yang berada di antara 0 sampai 1. sigmoid biner memiliki range dari (0,1) dan didefinisikan:
22 Universitas Sumatera Utara
23
1 1 + exp(− x)
f ( x) =
............................................................. (2-23)
dan fungsi turunannya adalah:
f ' ( x) = f1 ( x)[1 − f1 ( x)]
........................................................ (2-24)
Ilustrasi fungsi sigmoid biner digambarkan: f(x) 1
0
x
-1
Gambar 2.9 Sigmoid Biner [3]
3. Sigmoid Bipolar atau Tansig Keluaran dari fungsi sigmoid bipolar berupa nilai yang berada di antara -1 sampai 1 dan didefinisikan:
f ( x) =
2 −1 1 + exp(− x)
...................................................... (2-25)
dan turunan fungsi adalah: f ' ( x) =
1 [1 + f 2 ( x)][1 − f 2 ( x)] 2
.................................................. (2-26)
23 Universitas Sumatera Utara
24
Ilustrasi fungsi di atas digambarkan: f(x) 1
x
-1
Gambar 2.10 Sigmoid Bipolar [3]
2.5
Kenaikan Golongan Pada Pegawai
Perusahaan Daerah Air Minum (PDAM) Tirtanadi merupakan Badan Usaha Milik Daerah Provinsi Sumatera Utara yang mengelola air sungai menjadi air bersih. PDAM Tirtanadi Propinsi Sumatera Utara didirikan berdasarkan penandatanganan akte notaris pada tanggal 8 September 1905 di Amsterdam Netherlands yang diberi nama Waterleiding Maatschappij. Golongan adalah kedudukan yang menunjukkan tingkat seorang Pemda (Pegawai daerah) berdasarkan golongan dalam rangkaian susunan kepegawaian dan digunakan sebagai dasar penggajian. Kenaikan golongan adalah penghargaan yang diberikan kepada Pemda atas dasar prestasi kerja dan pengabdian terhadap perusahaan.Berdasarkan Keputusan Direksi Perusahaan Daerah Air Minum Tirtanadi Provinsi Sumatera Utara Nomor 44/KPTS/2012 tentang Persyaratan Kenaikan Gaji Berkala atau Golongan. Maka Kriteria persyaratan untuk naik golongan adalah Penilaian Kerja Pegawai yang baik, Masa Kerja minimal empat tahun, dan mengikuti ujian psikotes. Data tersebut yang akan menjadi pertimbangan seorang pegawai layak atau tidak layak untuk mendapatkan kenaikan golongan.
24 Universitas Sumatera Utara