PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
SISTEM JARINGAN SYARAF KABUR
SKRIPSI
Diajukan untuk Memenuhi Salah Satu Syarat Memperoleh Gelar Sarjana Sains Program Studi Matematika
Disusun oleh: Sisiria Mardiawati NIM : 053114006
PROGRAM STUDI MATEMATIKA JURUSAN MATEMATIKA FAKULTAS SAINS DAN TEKNOLOGI UNIVERSITAS SANATA DHARMA YOGYAKARTA 2011
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
FUZZY NEURAL NETWORK SYSTEM
Final Assignment
Presented to Fulfill One of the Requirements To Obtain the Sarjana Sains Degree Mathematics Study Program
By : Sisiria Mardiawati Student Number : 053114006
MATHEMATICS STUDY PROGRAM MATHEMATICS DEPARTMENT FACULTY OF SCIENCE AND TECHNOLOGY SANATA DHARMA UNIVERSITY YOGYAKARTA 2011 ii
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
HALAMAN PERSEMBAHAN
Bersukacitalah senantiasa Tetaplah berdoa Mengucap syukurlah dalam segala hal, sebab itulah yang dikehendaki Allah di dalam Kristus Yesus bagi kamu (2 Tesalonika 16-18)
Janganlah hendaknya kamu kuatir tentang apa pun juga, tetapi nyatakanlah dalam segala hal keinginanmu kepada Allah dalam doa dan permohonan dengan ucapan syukur (Filipi 4:6)
Skripsi ini kupersembahkan kepada : Tuhan Yesus Kristus dan Bunda Maria yang selalu memberkati dan menyertaiku Mamak dan Bapak yang selalu mendukung dengan cinta kasih yang tiada habisnya Adikku terkasih, Vincentius Mardianto yang selalu mendukung Diriku sendiri, Sisiria Mardiawati yang sudah mau menyelesaikan skripsi ini
vi
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
ABSTRAK
Jaringan syaraf kabur adalah suatu model yang dilatih dengan menggunakan jaringan syaraf, namun struktur jaringannya diinterpretasikan dengan aturan-aturan kabur. Sistem jaringan syaraf kabur adalah suatu sistem yang mengombinasikan logika kabur dan jaringan syaraf. Sistem jaringan syaraf kabur dirancang untuk merealisasikan proses penalaran kabur, di mana bobot-bobot yang terhubung pada jaringan tersebut berhubungan dengan parameter-parameter penalaran kabur.
vii
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
ABSTRACT
Fuzzy neural networks is a model trained using neural networks, but the network structures are interpreted by fuzzy rules. Fuzzy neural network system is a system that combines fuzzy logic and neural networks. Fuzzy neural network system is designed to realize the fuzzy reasoning process, where the weights connected to the network are associated with the fuzzy reasoning parameters.
viii
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
KATA PENGANTAR Puji dan syukur kepada Tuhan Yang Maha Esa yang telah memberikan berkat dan rahmat-Nya sehingga penulis dapat menyelesaikan skripsi ini. Penyusunan skripsi ini tidak lepas dari bantuan berbagai pihak yang memberikan dorongan, bimbingan, petunjuk, nasihat serta dukungan dari permulaan sampai selesainya penulisan skripsi ini. Oleh karena itu, pada kesempatan ini dengan segala kerendahan hati penulis ingin menyampaikan ucapan terimakasih kepada: 1. Bapak Yosef Agung Cahyanta S.T., M.T., selaku Dekan Fakultas Sains dan Teknologi Universitas Sanata Dharma Yogyakarta. 2. Ibu Lusia Krismiyati Budiasih, S.Si., M.Si., selaku Ketua Program Studi Matematika Fakultas Sains dan Teknologi Universitas Sanata Dharma Yogyakarta sekaligus selaku Dosen Penguji tugas akhir yang selalu memberikan semangat kepada penulis. 3. Romo Prof. Dr. Frans Susilo, SJ, selaku Dosen Pembimbing skripsi dan Dosen Pembimbing akademik yang telah memberikan masukan, bimbingan, nasihat, dorongan serta saran dalam penulisan skripsi ini. 4. Bapak Y. G. Hartono, S.Si, M.Sc, selaku Dosen Penguji tugas akhir yang telah memberikan masukan dan saran. 5. Bapak dan Ibu dosen yang telah memberikan bekal ilmu kepada penulis. 6. Bapak Zaerilus Tukija dan Ibu Erma Linda Santyas Rahayu yang telah memberikan pelayanan administrasi kepada penulis selama masa perkuliahan.
x
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
DAFTAR ISI
Halaman HALAMAN JUDUL ....................................................................................
i
HALAMAN JUDUL DALAM BAHASA INGGRIS.................................
ii
HALAMAN PERSETUJUAN PEMBIMBING...........................................
iii
HALAMAN PENGESAHAN.......................................................................
iv
HALAMAN PERNYATAAN KEASLIAN KARYA..................................
v
HALAMAN PERSEMBAHAN....................................................................
vi
ABSTRAK......................................................................................................
vii
ABSTRACT....................................................................................................
viii
LEMBAR PERNYATAAN PERSETUJUAN PUBLIKASI KARYA ILMIAH UNTUK KEPENTINGAN AKADEMIS.......................................................
ix
KATA PENGANTAR.....................................................................................
x
DAFTAR ISI...................................................................................................
xii
BAB I PENDAHULUAN .............................................................................
1
A. Latar Belakang .............................................................................
1
B. Rumusan Masalah ........................................................................
6
C. Pembatasan Masalah ....................................................................
7
D. Tujuan Penulisan ..........................................................................
7
E. Manfaat Penulisan ........................................................................
7
F. Metode Penulisan .........................................................................
8
xii
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
G. Sistematika Penulisan ..................................................................
8
BAB II LOGIKA KABUR, DEKOMPOSISI NILAI SINGULAR DAN JARINGAN SYARAF TIRUAN....................................................
11
A. Logika Kabur ..............................................................................
11
1. Himpunan Kabur ....................................................................
11
2. Fungsi Keanggotaan ...............................................................
18
3. Operasi Baku pada Himpunan Kabur ...................................
23
4. Perambatan Operasi Baku pada Himpunan Kabur ...............
25
5. Relasi Kabur..........................................................................
28
6. Variabel Linguistik................................................................
29
7. Proposisi Kabur.....................................................................
29
8. Implikasi Kabur.....................................................................
30
9. Model Kabur Takagi Sugeno Kang (TSK)............................
34
10. Modus Ponens Rampat..........................................................
35
11. Sistem Kendali Kabur............................................................
44
B. Dekomposisi Nilai Singular.........................................................
45
C. Jaringan Syaraf Tiruan................................................................
52
1. Konsep Dasar Jaringan Syaraf Tiruan...................................
52
2. Arsitektur Jaringan Syaraf.....................................................
55
3. Proses Pembelajaran..............................................................
57
4. Fungsi Aktivasi......................................................................
58
5. Model Rambatan Balik..........................................................
63
xiii
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
BAB III SISTEM JARINGAN SYARAF KABUR .................................... A. Jaringan Syaraf dan Logika Kabur..............................................
75 75
B. Model Kabur dengan Pembelajaran Jaringan Syaraf Terbimbing........................................................................
77
1. Arsitektur Jaringan Syaraf Kabur............................................
77
2. Pembelajaran Rambatan Balik Pada Model Kabur.................
80
C. Contoh Model Jaringan Syaraf Kabur...........................................
91
BAB IV PENUTUP........................................................................................
99
DAFTAR PUSTAKA ....................................................................................
101
xiv
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
BAB I PENDAHULUAN
A. Latar Belakang Dalam kehidupan sehari-hari terdapat banyak hal yang bersifat kompleks dan rumit untuk dijelaskan secara tepat dan eksak. Sebuah model yang cocok untuk menggambarkan hal tersebut bisa diperoleh dengan menggunakan himpunan kabur. Pencapaian dengan menggunakan model tersebut berdasarkan pengamatan bahwa manusia berpikir menggunakan bahasa yang digunakan seperti “kecil” atau “sangat besar” dan ungkapan yang lainnya. Oleh karena itu, untuk mendeskripsikan konsep tersebut ke dalam bahasa yang umum, Zadeh memperkenalkan himpunan kabur (fuzzy sets) pada tahun 1965. Dalam hal ini Zadeh memperluas konsep “himpunan klasik” (himpunan tegas, crisp set) menjadi himpunan kabur, dalam arti bahwa himpunan klasik merupakan kejadian khusus dari himpunan kabur itu. Berdasarkan konsep himpunan kabur itu, Zadeh mengembangkan konsep algoritma kabur (1968), yang merupakan landasan dari logika kabur (fuzzy logic) dan penalaran hampiran (approximate reasoning), yaitu penalaran yang melibatkan pernyataan-pernyataan dengan predikat kabur. Inti dari sistem kabur ini sendiri adalah aturan implikasi jika – maka (if – then rules), yang menggunakan himpunan kabur sebagai syarat dalam premis dan kesimpulannya.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 2
Sejak manusia bisa melakukan banyak hal yang cukup sulit dibandingkan alat teknologi yang sangat canggih, otak manusia menjadi hal yang sangat menarik bagi para ahli. Otak manusia memiliki struktur yang sangat kompleks dan memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang disebut sinapsis. Neuron bekerja berdasarkan impuls/sinyal yang diberikan pada neuron. Setiap sel syaraf (neuron) memiliki 3 komponen penting yaitu soma yang merupakan inti sel dari neuron yang bertugas untuk melakukan pemrosesan informasi. Informasi yang datang akan diterima oleh dendrit, selain menerima informasi dendrit juga menyertai axon sebagai keluaran dari suatu pemrosesan informasi. Informasi hasil olahan ini akan menjadi masukan bagi neuron lain yang dihubungkan oleh dua dendrit sel yang dipertemukan oleh sinapsis. Informasi yang dikirimkan antar neuron ini berupa rangsangan yang dilewatkan melalui beberapa dendrit. Informasi yang datang dan diterima oleh dendrit akan dijumlahkan dan dikirim melalui axon ke dendrit akhir yang bersentuhan dengan dendrit dari neuron yang lain. Informasi ini akan diterima oleh neuron lain jika memenuhi batasan tertentu, yang sering dikenal dengan nama nilai ambang (treshold).
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 3
Gambar 1.1 Jaringan Syaraf Biologi Terinspirasi akan sistem jaringan syaraf biologi tersebut, banyak ahli telah menyelidiki jaringan syaraf tiruan. Jaringan syaraf tiruan adalah suatu sistem komputasi yang disusun dengan meniru proses alamiah yang terjadi dalam jaringan syaraf biologis pada otak manusia. Seperti halnya otak manusia, jaringan syaraf tiruan juga terdiri dari beberapa neuron dan ada hubungan antara neuron-neuron tersebut. Neuron-neuron tersebut akan mentransformasikan input yang diterima melalui sambungan keluarnya menuju ke neuron-neuron lainnya. Pada jaringan syaraf tiruan, hubungan ini dikenal dengan nama bobot (weight). Input tersebut disimpan pada suatu nilai tertentu pada bobot tersebut. Gambar dibawah ini menunjukkan jaringan syaraf sederhana.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 4
Gambar 1.2 Jaringan syaraf sederhana Sebenarnya cara kerja neuron buatan ini sama saja dengan neuron biologis. Suatu neuron pada umumnya memiliki n buah input yang dinyatakan dengan bilangan-bilangan real x1 , x2 ,⋅ ⋅ ⋅, xn , dan sebuah output y1 . Masing-masing input memiliki bobot yang dinyatakan dengan bilangan real w11 , w21 ,⋅ ⋅ ⋅, wn1 . Input-input tersebut akan diproses oleh suatu fungsi perambatan yang akan menjumlahkan nilainilai semua bobot yang masuk. Hasil penjumlahan tersebut akan dibandingkan dengan suatu nilai ambang tertentu melalui fungsi aktivasi setiap neuron sehingga mencapai sebuah output y. Pada jaringan syaraf neuron-neuron akan dikumpulkan dalam lapisan-lapisan (layer) yang sering disebut dengan lapisan neuron (neuron layers). Biasanya neuron-neuron pada satu lapisan akan dihubungkan dengan lapisanlapisan sebelum dan sesudahnya (kecuali lapisan input dan lapisan output). Input yang dimasukkan pada jaringan syaraf akan dirambatkan mulai dari lapisan input sampai ke lapisan output melalui lapisan yang lainnya, yang sering dikenal dengan nama lapisan tersembunyi (hidden layer).
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 5
Gambar 1.3 Jaringan syaraf tiruan dengan lapisan tersembunyi Jaringan syaraf dan logika kabur merupakan dua teknologi yang komplementer. Jaringan syaraf dapat mengenali pola masukan yang diterimanya dan dengan proses pembelajaran dapat menyesuaikan diri dengan masukan itu. Proses pembelajaran pada suatu jaringan syaraf adalah proses penyesuaian diri jaringan itu secara bertahap terhadap masukan yang diterimanya sampai akhirnya menghasilkan keluaran yang diinginkan. Akan tetapi, memahami proses pembelajaran jaringan syaraf cukup sulit karena sulit untuk menjelaskan makna setiap neuron dan setiap bobot yang terkait. Sebaliknya, model berbasis aturan kabur mudah untuk dipahami karena menggunakan istilah-istilah linguistik dan struktur aturan jika-maka. Akan tetapi, tidak seperti jaringan syaraf, logika kabur tidak mengenal algoritma pembelajaran. Penggabungan kedua teknologi tersebut menghasilkan istilah baru, yaitu jaringan syaraf kabur. Sistem jaringan syaraf kabur adalah suatu sistem yang
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 6
menggunakan kombinasi logika kabur dan jaringan syaraf. Sistem jaringan syaraf kabur dirancang untuk merealisasikan proses logika kabur, dimana bobot-bobot yang terhubung pada jaringan tersebut berhubungan dengan parameter-parameter logika kabur. Dengan menggunakan algoritma pembelajaran rambatan balik, sistem jaringan syaraf kabur dapat mengidentifikasi aturan-aturan kabur dan melatih fungsi keanggotaan dari logika kabur tersebut. Sistem jaringan syaraf kabur dapat diklasifikasikan ke dalam dua kategori, yaitu: 1. Model berbasis aturan kabur yang dibangun dengan menggunakan teknik pembelajaran jaringan syaraf terbimbing. 2. Model berbasis aturan kabur yang menggunakan jaringan syaraf untuk membangun partisi kabur dari ruang masukannya. Yang akan dibahas dalam skripsi ini adalah sistem jaringan syaraf kabur kategori pertama.
B. Rumusan Masalah Pokok permasalahan yang akan dibahas dalam skripsi ini adalah: 1. Bagaimana bentuk model sistem jaringan syaraf kabur? 2. Bagaimana mengimplementasikan pembelajaran rambatan balik pada model kabur?
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 7
C. Pembatasan Masalah Dalam skripsi ini, penulis membahas tentang sistem jaringan syaraf kabur yang merupakan interpretasi pembelajaran jaringan syaraf buatan dengan (pada) model kabur. Pembelajaran yang digunakan adalah pembelajaran rambatan balik, dan model kabur yang digunakan adalah model kabur Takagi Sugeno Kang (TSK).
D. Tujuan Penulisan Tujuan dari penulisan skripsi ini adalah: 1. Mengetahui bagaimana bentuk model sistem jaringan syaraf kabur 2. Mengetahui implementasi pembelajaran rambatan balik pada model kabur
E. Manfaat Penulisan Manfaat dari penulisan skripsi ini adalah dapat mengetahui dan memahami bagaimana bentuk model sistem jaringan syaraf kabur serta mengetahui implementasi pembelajaran rambatan balik pada model kabur.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 8
F. Metode Penulisan Metode penulisan yang digunakan dalam penulisan skripsi ini adalah metode studi pustaka, yaitu dengan membaca dan mempelajari materi dari buku-buku acuan yang berkaitan dengan topik skripsi.
G. Sistematika Penulisan BAB I
:
PENDAHULUAN A. Latar belakang masalah B. Perumusan masalah C. Pembatasan masalah D. Tujuan penulisan E. Manfaat penulisan F. Metode penulisan G. Sistematika penulisan
BAB II
:
LOGIKA KABUR DAN JARINGAN SYARAF TIRUAN A. Logika Kabur
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 9
1.
Himpunan Kabur
2.
Fungsi Keanggotaan
3.
Operasi Baku Pada Himpunan Kabur
4.
Perampatan Operasi Baku Pada Himpunan Kabur
5.
Relasi Kabur
6.
Variabel Linguistik
7.
Proposisi Kabur
8.
Implikasi Kabur
9.
Prinsip Perluasan
10. Model Kabur Takagi Sugeno Kang 11. Generalisasi Modus Ponens 12. Sistem Kendali Kabur
B. Dekomposisi Nilai Singular (DNS) C. Jaringan Syaraf Tiruan 1. Konsep Dasar Jaringan Syaraf Tiruan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 10
2. Arsitektur Jaringan Syaraf 3. Proses Pembelajaran 4. Fungsi Aktivasi 5. Model Rambatan Balik (Backpropagation) BAB III
:
SISTEM JARINGAN SYARAF KABUR A. Jaringan Syaraf dan Logika Kabur B. Model Kabur dengan Pembelajaran Jaringan Syaraf Terbimbing 1. Arsitektur Jaringan Syaraf Kabur 2. Pembelajaran Rambatan Balik Pada Model Kabur C. Contoh Model Jaringan Syaraf Kabur
BAB IV
:
PENUTUP
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
BAB II LOGIKA KABUR, DEKOMPOSISI NILAI SINGULAR DAN JARINGAN SYARAF TIRUAN
A. Logika Kabur 1.
Himpunan Kabur
Andaikan A adalah suatu himpunan tegas dalam semesta pembicaraan U, maka A dapat didefinisikan dengan mendaftarkan semua anggotanya atau dengan mendefinisikan kaidah yang harus dipenuhi oleh anggota dari himpunan tersebut. Jika suatu objek x adalah anggota himpunan A, maka ditulis x ∈ A , dan jika x bukan anggota A ditulis x ∉ A . Ada tiga metode untuk mendefinisikan suatu himpunan dalam suatu semesta pembicaraan U, yaitu:
a.
Metode pendaftaran, yaitu metode yang mendefinisikan suatu himpunan dengan menyebut semua anggotanya. Metode ini digunakan hanya untuk himpunanhimpunan berhingga. Himpunan A yang anggotanya a1 , a2 ,..., an , ditulis:
A = ( a1 , a2 ,..., an )
b.
Metode kaidah, yaitu metode yang mendefinisikan suatu himpunan dengan menyebutkan syarat keanggotaannya. Dalam metode kaidah, himpunan A dinyatakan dengan:
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 12
A = {x ∈ U | p ( x)}
di mana p (x) menyatakan bahwa “x mempunyai sifat p”
c.
Metode fungsi keanggotaan (fungsi karakteristik), yaitu metode yang mendefinisikan suatu himpunan dengan sebuah fungsi yang disebut fungsi karakteristik, untuk menyatakan bahwa anggota-anggota himpunan semesta U adalah anggota himpunan itu atau bukan. Himpunan A didefinisikan dengan fungsi karakteristik χ A : U → {0,1} , sedemikian hingga: 1 untuk x ∈ A 0 untuk x ∉ A
χ A (x) =
Contoh 2.1 Andaikan U = {1, 2, , 11}. Didefinisikan himpunan A yang anggotaanggotanya adalah bilangan-bilangan genap dalam himpunan semesta U. Maka berdasarkan tiga metode di atas, himpunan A dapat dinyatakan sebagai berikut: 1. A = {2, 4, 6, 8, 10} 2. A = {x ∈ U | x bilangan genap}
1 jika x bilangan genap 3. χ A (x) = 0 jika x bilangan ganjil
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 13
Fungsi karakteristik dari himpunan tegas menentukan dengan pasti nilai 0 atau 1 untuk setiap anggota U. Fungsi ini dapat diperumum sedemikian sehingga nilainilai yang ditentukan untuk tiap anggota dari himpunan semesta berada dalam interval tertutup [0,1] dan menunjukkan derajat keanggotaan dari anggota tersebut. Nilai-nilai yang lebih besar menunjukkan derajat keanggotaan yang lebih tinggi. Fungsi yang demikian disebut fungsi keanggotaan dan himpunan yang didefinisikan berdasarkan fungsi tersebut disebut himpunan kabur. ~ Definisi 2.1 Suatu himpunan kabur A dalam semesta U adalah himpunan yang dilengkapi dengan fungsi keanggotaan µ A~ yang nilainya berada dalam interval [0,1], yaitu:
µ A~ : U → [0,1] ~ Nilai µ A~ ( x) disebut derajat keanggotaan dari x dalam himpunan kabur A . ~ Secara matematis suatu himpunan kabur A dalam himpunan semesta U dapat dinyatakan sebagai himpunan pasangan terurut: ~ A = {( x, µ A~ ( x)) | x ∈ U } ~ Apabila semesta U adalah himpunan yang kontinu, maka himpunan kabur A seringkali dinyatakan dengan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 14
~ A=
∫µ
~ A
/x
x∈U
di mana lambang
∫
di sini bukan lambang integral seperti yang dikenal dalam
kalkulus, tetapi melambangkan keseluruhan unsur-unsur
x ∈ U dengan derajat
keanggotaan µ A~ ( x) . ~ Apabila semesta U adalah himpunan yang diskret, maka himpunan kabur A seringkali dinyatakan dengan ~ A = ∑ µ A~ ( x) / x x∈U
di mana lambang
∑
di sini bukan lambang penjumlahan, tetapi melambangkan
keseluruhan unsur-unsur x ∈ U dengan derajat keanggotaan µ A~ ( x) . ~ Angggota-anggota dari suatu himpunan kabur A yang mempunyai derajat keanggotaan sama dengan 0, yaitu µ A~ ( x) = 0 , seringkali tidak ditulis. ~ Contoh 2.2 Misalkan dalam himpunan semesta semua bilangan real ℝ, A adalah ~ himpunan “bilangan real yang dekat dengan nol”, maka himpunan kabur A dapat dinyatakan sebagai berikut:
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 15
~ A=
−x ∫e / x 2
x∈R
Contoh 2.3 Dalam himpunan semesta U = {-5, -4, -3, -2, -1, 0, 1, 2, 3, 4, 5}, ~ himpunan kabur A dalam Contoh 2.2 di atas dapat dinyatakan sebagai ~ A = ∑ µ A~ ( x) / x = 0.1 / − 4 + 0.3 / − 3 + 0.5 / − 2 + 0.7 / − 1 + 1 / 0 + 0.7 / 1 + 0.5 / 2 + 0.3 / 3 + 0.1 / 4 x∈U
Bilangan 5 dan -5 mempunyai derajat keanggotaan 0, sehingga tidak ditulis dalam penyajian himpunan kabur diskret tersebut.
Berikut akan dibahas beberapa konsep dasar dan istilah-istilah yang ~ berhubungan dengan himpunan kabur. Misalkan A adalah himpunan kabur dalam himpunan semesta U. ~ Definisi 2.2 Pendukung (support) dari himpunan kabur A adalah himpunan tegas ~ P( A) yang memuat semua anggota semesta dengan derajat keanggotaan taknol ~ dalam A , yaitu ~ P( A) = {x ∈U | µ A~ ( x) > 0} . ~ Dari Contoh 2.3 di atas, P ( A) ={-4, -3, -2, -1, 0, 1, 2, 3, 4} ~ Definisi 2.3 Himpunan kabur A disebut himpunan kabur kosong jika pendukungnya adalah himpunan kosong.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 16
Definisi 2.4 Himpunan kabur elemen tunggal adalah himpunan kabur yang pendukungnya adalah himpunan tegas dengan elemen tunggal (singleton). ~ Definisi 2.5 Tinggi (height) dari himpunan kabur A adalah derajat keanggotaan terbesar yang dicapai oleh anggota-anggota U, yaitu ~ Tinggi ( A) = sup{µ A~ ( x)} . x∈U
~ Dari Contoh 2.3 di atas, Tinggi ( A) =1.
Definisi 2.6
~ Himpunan kabur A yang memiliki tinggi sama dengan 1 disebut
himpunan kabur normal.
Definisi 2.7
~ Himpunan kabur A yang memiliki tinggi kurang dari 1 disebut
himpunan kabur subnormal. ~ Definisi 2.8 Titik silang (crossover point) dari himpunan kabur A adalah anggota U ~ yang mempunyai derajat keanggotaan sama dengan 0.5 dalam himpunan kabur A . ~ Dalam Contoh 2.3 di atas, titik 2 dan -2 adalah titik silang dari himpunan kabur A . ~ Definisi 2.9 Teras (core) dari himpunan kabur A adalah himpunan semua anggota U yang mempunyai derajat keanggotaan sama dengan 1, yaitu:
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 17
~ Teras ( A) = {x ∈U | µ A~ ( x) = 1} . ~ Definisi 2.10 Pusat (center) dari himpunan kabur A didefinisikan sebagai berikut: jika nilai rata-rata dari semua titik di mana fungsi keanggotaan himpunan kabur itu mencapai nilai maksimum adalah berhingga, maka pusat himpunan kabur itu adalah nilai rata-rata tersebut; jika nilai rata-rata itu takhingga positif (negatif), maka pusat himpunan kabur itu adalah yang terkecil (terbesar) di antara semua titik yang mencapai nilai fungsi keanggotaan maksimum. ~ Definisi 2.11 Potongan- α ( α -cut) dari himpunan kabur A adalah himpunan tegas Aα yang terdiri dari semua anggota U yang mempunyai derajat keanggotaan dalam ~ A lebih besar dari atau sama dengan α , yaitu: Aα = {x ∈ U | µ A~ ( x) ≥ α } . ~ Definisi 2.12 Potongan- α kuat dari himpunan kabur A adalah himpunan tegas Aα′ ~ yang terdiri dari semua anggota U yang mempunyai derajat keanggotaan dalam A lebih besar dari α , yaitu: Aα′ = {x ∈ U | µ A~ ( x) > α } . ~ Dari Contoh 2.3 di atas, potongan- α dari A dengan α = 0.5 adalah A0.5 = {-2, -1, 0, 1, 2}, sedangkan potongan- α kuatnya adalah A0′.5 = {-1, 0, 1}.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 18
~ ~ Definisi 2.13 Dua buah himpunan kabur A dan B dalam himpunan semesta U ~ ~ dikatakan sama, dilambangkan dengan A = B , bila dan hanya bila
µ A~ ( x) = µ B~ ( x) , ∀x ∈U . ~ Definisi 2.14 Himpunan kabur A dikatakan himpunan bagian dari himpunan kabur ~ ~ ~ B , dilambangkan dengan A ⊆ B , bila dan hanya bila
µ A~ ( x) ≤ µ B~ ( x) , ∀x ∈U . ~ ~ Contoh 2.4 Jika A = 0.2/-3 + 0.3/-2 + 0.7/-1 + 1/0 + 0.7/1 + 0.3/2 + 0.2/3 dan B = ~ ~ 0.3/-3 + 0.4/-2 + 0.8/-1 + 1/0 + 0.8/1 + 0.4/2 + 0.3/3, maka A ⊆ B . Definisi 2.15 Himpunan kosong φ dapat dipandang sebagai himpunan kabur dengan fungsi keanggotaan sama dengan 0, yaitu µφ ( x) = 0 untuk setiap x ∈U . Himpunan semesta U dapat dipandang sebagai himpunan kabur dengan fungsi keanggotaan sama dengan 1, yaitu µ u ( x) = 1 untuk setiap x ∈U .
2.
Fungsi Keanggotaan
Setiap himpunan kabur dapat dinyatakan dengan fungsi keanggotaan. Beberapa fungsi keanggotaan himpunan kabur yang dinyatakan dalam bentuk suatu formula matematis adalah sebagai berikut:
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 19
a.
Suatu fungsi keanggotaan himpunan kabur disebut fungsi keanggotaan segitiga jika mempunyai tiga buah parameter, yaitu a, b, c ∈ ℝ dengan a < b < c , dan dinyatakan dengan Segitiga ( x; a, b, c) dengan kaidah:
x −a untuk a ≤ x ≤ b b − a Segitiga ( x; a, b, c) = c − x untuk b ≤ x ≤ c c −b untuk x lainnya 0 Fungsi keanggotaan ini dapat juga dinyatakan dengan formula sebagai berikut: x−a c−x , Segitiga( x; a, b, c) = max min ,0 b−a c −b
Gambar 2.1 Grafik fungsi keanggotaan segitiga
b.
Suatu fungsi keanggotaan himpunan kabur disebut fungsi keanggotaan trapesium jika mempunyai empat buah parameter, yaitu a, b, c, d ∈ℝ dengan a < b < c < d , dan dinyatakan dengan Trapesium( x; a, b, c, d ) dengan kaidah:
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 20
x − a b − a 1 Trapesium( x; a, b, c, d ) = d − x d − c 0
untuk a ≤ x ≤ b untuk b ≤ x ≤ c untuk c ≤ x ≤ d untuk x lainnya
Fungsi keanggotaan ini dapat juga dinyatakan dengan formula sebagai berikut: x−a d − x Trapesium( x; a, b, c, d ) = max min ,1, ,0 b−a d −c
Gambar 2.2 Grafik fungsi keanggotaan trapesium
c.
Suatu fungsi keanggotaan himpunan kabur disebut fungsi keanggotaan Gauss jika mempunyai dua buah parameter, yaitu a, b ∈ ℝ, dinyatakan dengan Gauss ( x; a, b) dan memenuhi:
Gauss ( x; a, b) = e
x−a − b
2
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 21
Gambar 2.3 Grafik fungsi keanggotaan Gauss di mana x = a adalah pusat dan b menentukan lebar dari fungsi keanggotaan Gauss.
d.
Suatu fungsi keanggotaan himpunan kabur disebut fungsi keanggotaan Cauchy jika mempunyai tiga buah parameter, yaitu a, b, c ∈ ℝ, dinyatakan dengan Cauchy ( x; a, b, c) dan memenuhi:
1
Cauchy ( x; a, b, c) = 1+
x−c a
2b
di mana x = c adalah pusat, a menentukan lebar, dan b menentukan kemiringan (slope) di titik silang dari fungsi keanggotaan Cauchy.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 22
Gambar 2.4 Grafik fungsi keanggotaan Cauchy
e.
Suatu fungsi keanggotaan himpunan kabur disebut fungsi keanggotaan Sigmoid jika mempunyai dua buah parameter, yaitu a, c ∈ ℝ, dinyatakan dengan Sigmoid ( x; a, c) dan memenuhi:
Sigmoid ( x; a, c) =
1 1 + e − a ( x −c )
di mana a menentukan kemiringan fungsi keanggotaan sigmoid di titik silang x = c . Untuk a > 0 fungsi keanggotaan Sigmoid terbuka ke kanan, dan
sebaliknya untuk a < 0 fungsi keanggotaan Sigmoid terbuka ke kiri.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 23
Gambar 2.5 Grafik fungsi keanggotaan Sigmoid yang terbuka ke kanan (gambar kiri) dan yang terbuka ke kiri (gambar kanan)
3.
Operasi Baku pada Himpunan Kabur
Operasi baku pada himpunan kabur yang akan didefinisikan adalah operasi uner “komplemen” dan operasi-operasi biner “gabungan” dan “irisan”. Komplemen dari ~ ~ suatu himpunan kabur A adalah himpunan kabur A ′ dengan fungsi keanggotaan
µ A~′ ( x) = 1 − µ A~ ( x) ~ ~ untuk setiap x ∈ X. Gabungan dua buah himpunan kabur A dan B adalah himpunan ~ ~ kabur A ∪ B dengan fungsi keanggotaan
µ A~ ∪ B~ ( x) = max {µ A~ ( x), µ B~ ( x)} ~ ~ untuk setiap x ∈ X . Sedangkan irisan dua buah himpunan kabur A dan B adalah ~ ~ himpunan kabur A ∩ B dengan fungsi keanggotaan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 24
µ A~ ∩ B~ ( x) = min {µ A~ ( x), µ B~ ( x)} untuk setiap x ∈ X .
Teorema 2.1 (Teorema Dekomposisi) ~ Jika Aα adalah potongan- α dari himpunan kabur A dalam himpunan semesta U dan ~ Aα adalah himpunan kabur dalam U dengan fungsi keanggotaan µ A~ = αχ Aα ( x) α
untuk setiap x ∈ U , di mana χ Aα adalah fungsi karakteristik dari himpunan Aα , ~ maka A =
~
Aα .
a∈[ 0 ,1]
Bukti: Ambil sebarang x ∈ U dan misalkan µ A~ ( x) = r . Untuk setiap α ∈ [0, r ] ,
µ A~ ( x) = r ≥ α , berarti x ∈ Aα , sehingga µ A~α ( x) = α . Untuk setiap α ∈ (r ,1] , µ A~ ( x) = r < α , berarti x ∉ Aα , sehingga µ A~α ( x) = 0 . Maka µ
~
Aα α ∈[ 0 ,1]
= sup µ A~ ( x) α
α ∈[ 0 ,1]
= max{ sup µ A~ ( x), sup µ A~ ( x)} α ∈[ 0 , r ]
= sup α α ∈[ 0 , k ]
=r = µ A~ ( x)
α
α ∈( r ,1]
α
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 25
~ untuk setiap x ∈ U . Jadi A =
~
■
Aα .
a∈[ 0 ,1]
4. Perampatan Operasi Baku pada Himpunan Kabur
Di atas telah dibahas definisi operasi-operasi baku komplemen, gabungan dan irisan untuk himpunan-himpunan kabur. Definisi-definisi tersebut dapat dirampatkan sedemikian sehingga definisi operasi-operasi baku tersebut merupakan kejadian khususnya. Perampatan tersebut akan didefinisikan secara aksiomatis, kemudian akan diperlihatkan macam-macam operasi yang memenuhi aksioma-aksioma tersebut.
a. Operasi Komplemen
Definisi 2.17
Suatu pemetaan k : [0,1] → [0,1] disebut
komplemen kabur jika
memenuhi aksioma-aksioma berikut: K1. k (0) = 1 dan k (1) = 0
(syarat batas)
K2. Jika x < y , maka k ( x) ≥ k ( y ) untuk semua x, y ∈ [0,1]
(syarat taknaik)
Suatu kelas pemetaan yang merupakan komplemen kabur adalah kelas Sugeno yang didefinisikan sebagai berikut:
k λ ( x) =
1− x 1 + λx
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 26
dengan parameter λ ∈ (−1, ∞) . Untuk λ = 0 , diperoleh operasi komplemen baku, yaitu k 0 ( x) = 1 − x , di mana x adalah derajat keanggotaan suatu elemen dalam suatu ~ himpunan kabur A dan k0 ( x) adalah derajat keanggotaan elemen tersebut dalam ~ himpunan kabur A′ . Kelas pemetaan lain yang merupakan komplemen kabur adalah kelas Yager yang didefinisikan sebagai berikut: k w ( x) = (1 − x w )1 / w dengan parameter w ∈ (0, ∞) . Untuk w = 1 diperoleh operasi komplemen baku, yaitu k1 ( x) = 1 − x .
b. Operasi Gabungan Definisi 2.18 Suatu pemetaan s : [0,1] × [0,1] → [0,1] disebut gabungan kabur (normas) jika memenuhi aksioma-aksioma berikut: S1. s (0, x) = s ( x,0) = x dan s (1,1) = 1
(syarat batas)
S2. s ( x, y ) = s ( y, x)
(syarat komutatif)
S3. Jika x ≤ x′ dan y ≤ y ′ , maka s ( x, y ) ≤ s ( x′, y ′) , ∀x, y ∈ [0,1] (syarat takturun) S4. s ( s ( x, y ), z ) = s ( x, s ( y, z ))
(syarat asosiatif)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 27
Contoh-contoh norma-s:
a)
Jumlah aljabar: s ja ( x, y ) = x + y − xy
b)
Jumlah Einstein: s je ( x, y ) =
c)
x jika y = 0 Jumlah drastis: s jd ( x, y ) = y jika x = 0 1 jika lainnya
x+ y 1 + xy
c. Operasi Irisan Definisi 2.19 Suatu pemetaan t : [0,1] × [0,1] → [0,1] disebut irisan kabur (norma-t) jika memenuhi aksioma-aksioma berikut: T1. t ( x,1) = t (1, x) = x dan t (0,0) = 0
(syarat batas)
T2. t ( x, y ) = t ( y, x)
(syarat komutatif)
T3. Jika x ≤ x′ dan y ≤ y ′ , maka t ( x, y ) ≤ t ( x′, y ′) , ∀x, y ∈ [0,1]
(syarat takturun)
T4. t (t ( x, y ), z ) = t ( x, t ( y, z ))
(syarat asosiatif)
Contoh-contoh norma-t:
a)
Darab aljabar: t da ( x, y ) = xy
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 28
xy 2 − ( x + y − xy )
b)
Darab Einstein: t de ( x, y ) =
c)
x jika y = 1 Darab drastis: t dd ( x, y ) = y jika x = 1 0 jika lainnya
5.
Relasi Kabur
~ Definisi 2.15 Relasi kabur (biner) R antara elemen-elemen dalam himpunan U dengan elemen-elemen dalam himpunan V didefinisikan sebagai himpunan kabur dengan semesta U × V , yaitu himpunan kabur ~ R = {((u , v), µ R~ (u , v)) | (u , v) ∈U × V } ~ Relasi kabur R itu juga disebut relasi kabur pada himpunan semesta U × V . Jika ~ U = V , maka R disebut relasi kabur pada himpunan U. ~ Contoh 2.5 Misalnya U = {20, 45, 106}, V = {35, 58, 210} dan R adalah relasi kabur “jauh lebih kecil” antara elemen-elemen dalam U dengan elemen-elemen ~ ~ dalam V. Maka relasi R dapat disajikan sebagai R = 0.1/(20,35) + 0.3/(20,58) + 0.9/(20,210) + 0.1/(45,58) + 0.6/(45,210) + 0.4/(106,210).
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 29
6.
Variabel Linguistik
Definisi 2.16 Suatu variabel linguistik adalah suatu rangkap-5 (x, T, U, G, M) di mana x adalah lambang variabelnya, T adalah himpunan nilai-nilai linguistik yang dapat menggantikan x, U adalah semesta wacana (numeris) dari nilai-nilai linguistik dalam T (jadi juga dari variabel x), G adalah himpunan kaidah-kaidah sintaksis yang mengatur pembentukan istilah-istilah anggota T, dan M adalah himpunan kaidahkaidah semantik yang mengaitkan setiap istilah dalam T dengan suatu himpunan kabur dalam semesta U.
Contoh 2.6 Bila variabel linguistiknya adalah “kecepatan”, maka himpunan nilainilai linguistik dapat diambil himpunan istilah-istilah T = {cepat, sangat cepat, agak cepat, tidak cepat, lambat, sangat lambat, agak lambat, tidak lambat} dengan semesta U = [0,100], kaidah sintaksis mengatur pembentukan istilah-istilah dalam T dan kaidah semantik mengaitkan setiap istilah dalam T dengan suatu himpunan kabur dalam semesta U.
7.
Proposisi Kabur
Definisi 2.17 Proposisi kabur adalah kalimat yang memuat predikat kabur, yaitu predikat yang dapat direpresentasikan dengan suatu himpunan kabur.
Proposisi kabur yang mempunyai nilai kebenaran tertentu disebut pernyataan kabur. Nilai kebenaran dari suatu pernyataan kabur disajikan dengan suatu bilangan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 30
real dalam selang [0,1]. Nilai kebenaran itu disebut juga derajat kebenaran dari pernyataan kabur itu.
Bentuk umum dari suatu proposisi kabur adalah
x adalah A
di mana x adalah suatu variabel linguistik dan predikat A adalah suatu nilai linguistik dari x. ~ Bila A adalah himpunan kabur yang dikaitkan dengan nilai linguistik A dan ~ x0 adalah suatu elemen tertentu dalam semesta U dari himpunan kabur A , maka x0 ~ mempunyai derajat keanggotaan µ A~ ( x0 ) dalam himpunan kabur A .
Derajat kebenaran dari pernyataan kabur ~ x0 adalah A ~ didefinisikan sama dengan derajat keanggotaan x0 dalam himpunan kabur A , yaitu
µ A~ ( x0 ) .
8.
Implikasi Kabur
Bentuk umum implikasi kabur adalah
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 31
Jika u adalah A, maka v adalah B
di mana A dan B adalah predikat-predikat kabur yang dikaitkan dengan himpunan~ ~ himpunan kabur A dan B dalam semesta U dan V berturut-turut. Implikasi kabur dilambangkan dengan → . Implikasi tegas p → q ekuivalen dengan ¬p ∨ q . Berdasarkan ekuivalensi tersebut, implikasi kabur dapat diinterpretasikan sebagai relasi kabur → dalam U × V dengan fungsi keanggotaan
µ → (u , v) = s (k ( µ A~ (u )), ( µ B~ (v))
di mana s adalah suatu norma-s dan k adalah suatu komplemen kabur.
Implikasi Dienes-Rescher
diperoleh apabila diambil operasi-operasi
gabungan sebagai norma-s dan operasi komplemen baku sebagai komplemen kabur dengan fungsi keanggotaan
µ →dr (u , v) = max(1 − µ A~ (u ), µ B~ (v)) . Karena implikasi tegas p → q juga ekuivalen dengan ( p ∧ q ) ∨ ¬p , maka implikasi kabur juga dapat diinterpretasikan sebagai relasi kabur → dalam U × V dengan fungsi keanggotaan
µ → (u , v) = s (t ( µ A~ (u ), µ B~ (v)), k ( µ A~ (u )))
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 32
di mana s adalah suatu norma-s, t adalah suatu norma-t, dan k adalah suatu komplemen kabur.
Implikasi Zadeh diperoleh apabila diambil operasi-operasi gabungan, irisan, dan komplemen baku sebagai norma-s, norma-t, dan komplemen kabur dengan fungsi keanggotaan
µ → z (u , v) = max(min(µ A~ (u ), µ B~ (v)),1 − µ A~ (u )) .
Implikasi Mamdani merupakan salah satu bentuk implikasi kabur yang digunakan dalam aplikasi sistem kabur. Implikasi ini didasarkan pada asumsi bahwa implikasi kabur pada dasarnya bersifat lokal, dalam arti bahwa implikasi
Jika u adalah A, maka v adalah B
hanya berbicara mengenai keadaan dimana u adalah A dan v adalah B saja, dan tidak mengenai keadaan lainnya diluar itu. Berdasarkan asumsi tersebut, implikasi kabur dapat dipandang sebagai suatu konjungsi kabur, sehingga diperoleh
µ → (u , v) = t ( µ A~ (u ), µ B~ (v))
yang disebut implikasi Mamdani. Apabila diambil operasi baku “min” sebagai norma-t, maka diperoleh
µ →mm (u , v) = min(µ A~ (u ), µ B~ (v)) ,
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 33
dan bila operasi “darab aljabar” diambil sebagai norma-t, maka diperoleh
µ →md (u , v) = µ A~ (u ) µ B~ (v) .
Contoh 2.7
Misalkan diketahui semesta U = {1, 2, 3, 4} dan V = {60, 70, 80}, dan implikasi kabur
Jika u banyak, maka v lambat
di mana predikat “banyak” dan “lambat” berturut-turut dikaitkan dengan himpunan kabur ~ A = 0.2 / 1 + 0.4 / 2 + 0.6 / 3 + 0.8 / 4 ~ B = 0.4 / 60 + 0.7 / 70 + 1 / 80.
dan
Maka jika digunakan implikasi Dienes-Rescher, diperoleh → dr = 0.8 /(1,60) + 0.8 /(1,70) + 1 /(1,80) + 0.6 /(2,60) + 0.7 /(2,70) + 1 /(2,80) + 0.4 /(3,60) + 0.7 /(3,70) + 1 /(3,80) + 0.4 /(4,60) + 0.7 /(4,70) + 1 /(4,80)
Jika digunakan implikasi Zadeh, maka diperoleh → z = 0.8 /(1,60) + 0.8 /(1,70) + 0.8 /(1,80) + 0.6 /(2,60) + 0.6 /(2,70) + 0.6 / 2,80) + 0.4 /(3,60) + 0.6 /(3,70) + 0.6 /(3,80) + 0.4 /(4,60) + 0.7 /(4,70) + 0.8 /(4,80) .
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 34
Jika digunakan implikasi Mamdani, maka diperoleh → mm = 0.2 /(1,60) + 0.2 /(1,70) + 0.2 /(1,80) + 0.4 /(2,60) + 0.4 /(2,70) + 0.4 /(2,80) + 0.4 /(3,60) + 0.6 /(3,70) + 0.6 /(3,80) + 0.4 /(4,60) + 0.7 /(4,70) + 0.8 /(4,80)
atau → md = 0.08 /(1,60) + 0.14 /(1,70) + 0.2 /(1,80) + 0.16 /(2,60) + 0.28 /(2,70) + 0.4 /(2,80) + 0.24 /(3,60) + 0.42 /(3,70) + 0.6 /(3,80) + 0.32 /(4,60) + 0.56 /(4,70) + 0.8 /(4,80).
9.
Model Kabur Takagi, Sugeno, dan Kang
Model kabur Takagi, Sugeno dan Kang (TSK) dikenal sebagai model kabur pertama yang dikembangkan untuk menghasilkan kaidah kabur dari himpunan data masukan-keluaran yang diberikan. Sebuah kaidah kabur yang khas dalam model tersebut memiliki bentuk sebagai berikut: Jika x adalah A dan y adalah B , maka z = ax + by + c
di mana a, b, c merupakan konstanta numerik. Secara umum, kaidah dalam model TSK memiliki bentuk: Jika x adalah A dan y adalah B , maka z = f ( x, y )
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 35
di mana A dan B merupakan himpunan kabur dalam anteseden, dan z = f ( x, y ) merupakan fungsi tegas dalam konsekuen serta z = f ( x, y ) merupakan fungsi polinomial dalam variabel masukan x dan y. Jika f ( x, y ) adalah fungsi polinomial ordo satu, hasil sistem inferensi kabur disebut model kabur Takagi Sugeno Kang ordo satu. Jika f merupakan konstanta, maka disebut model kabur Takagi Sugeno Kang ordo nol, yang mana merupakan kasus khusus dalam implikasi Mamdani.
10. Modus Ponens Rampat
Untuk melakukan pengambilan keputusan atau penalaran kabur diperlukan seperangkat implikasi kabur atau suatu fakta yang diketahui (premis). Dalam logika klasik, pengambilan keputusan didasarkan pada tautologi-tautologi, yaitu proposisiproposisi yang selalu benar, tanpa tergantung pada nilai kebenaran proposisiproposisi penyusunnya. Salah satu kaidah pengambilan keputusan yang paling sering digunakan adalah modus ponens, yang didasarkan pada tautologi: (( p → q ) ∧ p ) → q .
Bentuk umum penalaran modus ponens adalah sebagai berikut:
1. Bila u adalah A, maka v adalah B
(Premis 1 / Kaidah)
2. u adalah A
(Premis 2 / Fakta)
3. ∴
v adalah B
(Kesimpulan)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 36
Kaidah penalaran tegas dapat dirampatkan menjadi kaidah kabur dengan premis dan kesimpulannya adalah proposisi-proposisi kabur. Secara umum dapat dirumuskan dengan skema sebagai berikut:
Premis 1 (kaidah) :
Bila u adalah A, maka v adalah B
Premis 2 (fakta)
:
u adalah A′
Kesimpulan
:
v adalah B ′
Penalaran kabur dengan skema seperti di atas disebut modus ponens rampat. Berikut ini akan dibahas suatu aturan penarikan kesimpulan yang disebut “kaidah inferensi komposisional” (compositional rule of inference). Sebelumnya akan dibahas latar belakang kaidah tersebut dalam kasus pemetaan bernilai selang. Misalkan diketahui suatu pemetaan kontinu f : U → V dengan U = V = ℝ. Jika diberikan suatu elemen a ∈ U , maka akan diperoleh nilai pemetaan f di a, yaitu b = f (a) ∈ V . Jika f adalah suatu pemetaan yang bernilai selang, dan diberikan suatu selang [a, b] di U, maka akan diperoleh nilai pemetaan f di [a,b] yaitu selang f ([a, b]) = [c, d ] di V. Untuk menggambarkan bagaimana memperoleh selang [c,d] tersebut, pertama-tama yang dilakukan adalah membuat perluasan silindris dari selang [a,b] ke bidang U × V , kemudian ditentukan irisan I dari perluasan silindris itu dengan kurva dari pemetaan f, dan akhirnya irisan I diproyeksikan ke V untuk memperoleh selang [c,d]. Gambar 2.6 memperlihatkan proses tersebut.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 37
Gambar 2.6 Nilai pemetaan f di [a,b], yaitu f ([a, b]) = [c, d ]
Proses di atas dapat dirampatkan lebih lanjut lagi. Misalkan terdapat sebuah ~ ~ relasi kabur R dalam semesta U × V dan himpunan kabur A dalam U. Bila ~ ~ ditentukan perluasan silindris dari A ke U × V , namakan APS , dan irisan perluasan ~ ~ ~ silindris tersebut dengan R , yaitu APS ∩ R , kemudian irisan tersebut diproyeksikan ~ ~ ke V, maka akan diperoleh himpunan kabur B di V. Karena APS adalah perluasan ~ silindris dari A ke U × V , maka
µ A~ (u , v) = µ A~ (u ) PS
sehingga
µ A~
~
PS ∩ R
(u , v) = t ( µ A~ (u , v), µ R~ (u , v)) PS
= t ( µ A~ (u ), µ R~ (u , v))
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 38
~ di mana t adalah suatu norma-t. Kemudian, himpunan kabur B di V diperoleh sebagai ~ ~ proyeksi irisan APS ∩ R ke V, maka
µ B~ (v) = sup µ A~ u∈U
~ PS ∩ R
(u , v)
= sup t ( µ A~ (u ), µ R~ (u , v)) u∈U
~ Jika himpunan kabur A dipandang sebagai relasi dengan satu argumen, maka ~ ~ komposisi relasi A di U dengan relasi R di U × V menghasilkan relasi majemuk ~ ~ A R di V dengan fungsi keanggotaan
µ A~ R~ (v) = sup t ( µ A~ (u ), µ R~ (u , v)) u∈U
~ ~ ~ ~ di mana t adalah suatu norma-t. Maka B = A R , yaitu himpunan kabur B itu tidak ~ ~ lain daripada relasi komposit A R . Karenanya prosedur untuk memperoleh ~ ~ ~ himpunan kabur B di V dari relasi R di U × V dan himpunan kabur A di U dengan cara seperti di atas itu disebut kaidah inferensi komposisional. Kaidah inilah yang dipakai untuk menarik kesimpulan dalam penalaran kabur. Dalam modus ponens rampat kaidah tersebut diterapkan sebagai berikut: Premis 1
: Bila u adalah A, maka v adalah B (yang merupakan relasi/implikasi kabur → di U × V )
Premis 2
: u adalah A′
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 39
~ (yang dapat direpresentasikan dengan himpunan kabur A′ dalam U) Kesimpulan
: v adalah B ′ ~ ~ diperoleh dengan menentukan himpunan kabur B ′ = A ′ dalam V dengan fungsi keanggotaan µ B~′ (v) = sup t ( µ A~′ (u ), µ → (u , v)) , u∈U
dimana t adalah suatu norma-t. ~ Bila A′ adalah predikat kabur yang dikaitkan dengan himpunan kabur A′ , untuk norma-t misalnya diambil operasi baku “min”, dan untuk implikasi kabur dipakai implikasi Mamdani → mm , maka kesimpulan “v adalah B ′ ” di atas dapat ~ diperoleh dengan menentukan himpunan kabur B ′ dengan fungsi keanggotaan
µ B~′ (v) = sup min{µ A~′ (u ), min(µ A~ (u ), µ B~ (v))} u∈U
= sup min{µ A~′ (u ), µ A~ (u ), µ B~ (v)} u∈U
= min{sup min(µ A~′ (u ), µ A~ (u )), µ B~ (v)} u∈U
= min{w, µ B~ (v)} di mana
~ ~ w = sup min{µ A~′ (u ), µ A~ (u )} = sup( A′ ∩ A) u∈U
yang menyatakan derajat
u∈U
keserasian (degree of compatibility) antara predikat A′ dengan A. Jadi untuk memperoleh himpunan kabur
~ B ′ tersebut, pertama-tama ditentukan derajat
~ ~ keserasian w, yaitu supremum dari irisan himpunan kabur A ′ dan A , dan kemudian ~ ~ diperoleh B ′ sebagai irisan w dengan himpunan kabur B , seperti terlihat dalam Gambar 2.7.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 40
Gambar 2.7 Penarikan kesimpulan dalam modus ponens rampat Modus ponens rampat dapat digeneralisasikan menjadi modus ponens rampat multikondisional, yang terdiri dari m buah premis kabur berupa kaidah, sebuah premis kabur berupa fakta, dan sebuah kesimpulan. Skema umumnya adalah sebagai berikut:
Premis 2
:
Bila u1 adalah A21 dan ⋅ ⋅ ⋅ dan u n adalah A2 n , maka v adalah B 2
Premis m
:
Bila u1 adalah Am1 dan ⋅ ⋅ ⋅ dan u n adalah Amn , maka v adalah B m
Fakta
:
u1 adalah A1′ dan ⋅ ⋅ ⋅ dan u n adalah An′
Kesimpulan
:
v adalah B′
…
Bila u1 adalah A11 dan ⋅ ⋅ ⋅ dan u n adalah A1n , maka v adalah B1
…
:
…
Premis 1
di mana Aij dan A′j adalah predikat kabur yang dikaitkan dengan himpunan kabur ~ ~ Aij dan A′j dalam semesta U j , dan Bi adalah predikat kabur yang dikaitkan dengan ~ himpunan kabur Bi dalam semesta V (i = 1, ⋅ ⋅⋅, m; j = 1, ⋅ ⋅⋅, n). Masing-masing ~ premis tersebut dapat dipandang sebagai suatu relasi kabur Ri (i = 1, ⋅ ⋅⋅, m) dalam
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 41
~ ~ ~ U 1 × ⋅ ⋅ ⋅ × U n × V dan faktanya sebagai himpunan kabur A ′ = A1′ × ⋅ ⋅ ⋅ × An′ dalam ~ U 1 × ⋅ ⋅ ⋅ × U n . Premis-premis Ri tersebut biasanya diperlakukan secara disjungtif, ~ ~ m ~ sehingga semua premis itu dapat digabung menjadi satu premis R , yaitu R = Ri . i =1
Maka kesimpulan “v adalah B ′ ” dapat diperoleh dengan kaidah inferensi ~ ~ ~ komposisional untuk menentukan himpunan kabur B ′ = A ′ R dalam semesta V dengan fungsi keanggotaan (dengan mengambil operasi baku “min” untuk norma-t dan “max” untuk gabungan kabur)
µ B′~ (v)
= µ A~′ R~ (v) =
sup
( u1 ,⋅⋅⋅,u n )∈U1×⋅⋅⋅×U n
min{µ A~′ (u1 ,⋅ ⋅ ⋅, u n ), µ R~ (u1 ,⋅ ⋅ ⋅, u n , v)}
= sup min{µ A~′ (u1 ,⋅ ⋅ ⋅, u n ), max ( µ R~i (u1 ,⋅ ⋅ ⋅, u n , v))} u j ∈U j
i∈{1,⋅⋅⋅,m}
= sup max min{µ A~′ (u1 ,⋅ ⋅ ⋅, u n ), µ R~i (u1 ,⋅ ⋅ ⋅, u n , v)} u j ∈U j i∈{1,⋅⋅⋅,m}
= max sup min{µ A~′ (u1 ,⋅ ⋅ ⋅, u n ), µ R~i (u1 ,⋅ ⋅ ⋅, u n , v)} i∈{1,⋅⋅⋅,m} u ∈U j j
~ ~ = max { A′ Ri } i∈{1,⋅⋅⋅, m}
= µ m ~ ~ (v ) ( A′ Ri ) i =1
m m ~ ~ ~ ~ ~ ~ ~ m ~ ~ untuk setiap v ∈ V . Jadi B ′ = A ′ Ri = ( A ′ R ′) = Bi′, di mana B ′ = A ′ Ri . i =1
i =1
i =1
~ Jika untuk implikasi kabur Ri tersebut diambil implikasi Mamdani → mm , sehingga fungsi keanggotaannya adalah
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 42
µ R~ (u1 ,⋅ ⋅ ⋅, u n , v) = min{µ A~ ×⋅⋅⋅× A~ (u1 ,⋅ ⋅ ⋅, u n ), µ B~ (v)}, i
i1
i
in
~ maka fungsi keanggotaan B ′ adalah
µ B′~ (v)
= µ m ~ ~ (v ) A′ Ri i =1
= max sup min{µ A~′×⋅⋅⋅× A~′ (u1 ,⋅ ⋅ ⋅, un ), min(µ A~′ ×⋅⋅⋅× A~′ (u1 ,⋅ ⋅ ⋅, un ), µ B~i (v))} i∈{1,⋅⋅⋅,m} u ∈U j j
1
n
i1
in
= max sup min{ min ( µ A~′ (u j )), min ( µ A~′ (u j )), µ B~i (v))} i∈{1,⋅⋅⋅,m} u ∈U j j
j∈{1,⋅⋅⋅,n}
j∈{1,⋅⋅⋅,n}
j
ij
= max min{ min sup min ( µ A~′ (u j ), µ A~′ (u j )), µ B~i (v)} i∈{1,⋅⋅⋅,m}
j∈{1,⋅⋅⋅,n} u ∈U j∈{1,⋅⋅⋅,n} j j
j
ij
= max min{wi , µ B~i (v)} i∈{1,⋅⋅⋅,m}
di mana wi = min wij , dan wij = sup min ( µ A~′ (u j ), µ A~ (u j )) , i = 1, ⋅ ⋅⋅, m. j∈{1,⋅⋅⋅, n}
u j ∈U j j∈{1,⋅⋅⋅,n}
j
ij
~ ~ wij = sup ( A′j ∩ Aij ) merupakan derajat keserasian (degree of compatibility) u j ∈U j
~ ~ antara fakta A ′j dari premis/kaidah Ri , sedangkan wi yang merupakan minimum dari semua wij untuk j = 1, ⋅ ⋅⋅, n seringkali disebut daya sulut (firing strength) yang ~ ~ menyatakan sejauh mana anteseden dari kaidah Ri dipenuhi oleh fakta A′ yang diberikan dan menyulut konsekuen dari kaidah tersebut. Dengan demikian ~ kesimpulan B ′ ditentukan dengan empat langkah sebagai berikut: ~ ~ Langkah 1 : Tentukan derajat keserasian wij , yaitu supremum dari A′j ∩ Aij untuk setiap i = 1, ⋅ ⋅⋅, m dan j = 1, ⋅ ⋅⋅, n.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 43
Langkah 2 : Untuk setiap i, tentukan daya sulut wi sebagai minimum dari semua derajat keserasian wij untuk j = 1, ⋅ ⋅⋅, n. ~ Langkah 3 : Untuk setiap i, tentukan irisan wi dengan Bi . ~ Langkah 4 : Gabungkanlah semua irisan tersebut untuk memperoleh B ′ . Gambar 2.7 Melukiskan langkah-langkah tersebut untuk m = n = 2.
Gambar 2.8 Penarikan kesimpulan dalam modus ponens rampat multikondisional
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 44
11. Sistem Kendali Kabur
Sistem kendali kabur berfungsi untuk mengendalikan proses tertentu dengan mempergunakan kaidah inferensi kabur berdasarkan logika kabur. Pada dasarnya sistem kendali semacam itu terdiri dari empat unit, yaitu:
a. Unit pengaburan (fuzzification unit)
b. Unit penalaran logika (fuzzy logic reasoning unit)
c. Unit basis pengetahuan (knowledge base unit), yang terdiri dari dua bagian:
1. Basis data (data base), yang memuat fungsi-fungsi keanggotaan dari himpunan-himpunan kabur yang terkait dengan nilai dari variabelvariabel linguistik yang dipakai.
2. Basis kaidah (rule base), yang memuat kaidah-kaidah berupa implikasi kabur.
d.
Unit penegasan (defuzzification unit).
Suatu sistem kendali semacam itu mula-mula mengukur nilai-nilai tegas dari semua variabel masukan yang terkait dalam proses yang akan dikendalikan. Nilainilai tersebut kemudian dikonversikan oleh unit pengaburan ke nilai kabur yang
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 45
sesuai. Hasil pengukuran yang telah dikaburkan kemudian diproses oleh unit penalaran, yang dengan menggunakan unit basis pengetahuan, menghasilkan himpunan kabur sebagai keluarannya. Langkah terakhir dikerjakan oleh unit penegasan, yaitu menerjemahkan himpunan kabur keluaran itu ke dalam nilai yang tegas. Nilai tegas inilah yang kemudian direalisasikan dalan bentuk suatu tindakan yang dilaksanakan dalam proses pengendalian itu. Gambar 2.6 menunjukkan skema langkah-langkah tersebut.
basis data unit basis pengetahuan basis Kaidah y _ in
masukan (tegas)
unit pengaburan
(kabur)
unit penalaran
(kabur)
keluaran (tegas)
unit penegasan
Gambar 2.9 Struktur dasar sistem kendali kabur
B. Dekomposisi Nilai Singular (DNS)
Dekomposisi nilai singular (DNS) dari suatu matriks Am×n adalah faktorisasi dari A menjadi hasil kali dari 3 buah matriks, yaitu A = U ∑ V T , di mana U ∈ R m×m dan
V ∈ R n× n
adalah
matriks-matriks
orthogonal,
dan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 46
∑ = diag (σ
1
, σ 2 ,⋅ ⋅ ⋅, σ p ) ∈ R m×n ( p = min{m, n}) adalah matriks diagonal dengan
σ 1 ≥ σ 2 ≥ ⋅ ⋅ ⋅ ≥ σ p ≥ 0 . σ i disebut nilai singular dari A dan merupakan akar-akar positif dari nilai-nilai eigen dari AT A . Kolom-kolom dari U disebut vektor singular kiri dari A (vektor eigen orthonormal dari AAT ), sedangkan kolom-kolom dari V disebut vektor singular kanan dari A (vektor eigen orthonormal dari AT A ).
Untuk mengilustrasikan prinsip dasar penggunaan DNS untuk seleksi kaidah kabur akan digunakan model kabur dengan konsekuen konstanta sebagai contoh. Model kabur tersebut adalah model Takagi Sugeno Kang (TSK) yang memiliki bentuk sebagai berikut: Jika x1 adalah Ai1 dan x 2 adalah Ai 2 dan ⋅ ⋅ ⋅ dan x m adalah Aim maka y adalah ci , i = 1, 2, ⋅ ⋅ ⋅ , M
(2.1)
di mana ci adalah konstanta. Keluaran akhir dari model tersebut dihitung dengan persamaan berikut: M
y=
∑w c i =1 M
i i
(2.2)
∑w i =1
i
di mana wi adalah derajat kesesuaian (daya sulut) kaidah ke-i yang didefinisikan dengan persamaan 2.3 atau 2.4
(
wi = min µ Ai1 (a1 ), µ Ai 2 (a 2 ),⋅ ⋅ ⋅, µ Aim (a m )
)
(2.3)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 47
atau wi = µ Ai1 (a1 ) × µ Ai 2 (a 2 ) × ⋅ ⋅ ⋅ × µ Aim (a m )
(2.4)
Daya sulut kaidah ke-i yang dinormalisasikan adalah : Ni =
wi M
∑w i =1
(2.5)
i
Persamaan 2.2 dapat ditulis kembali menjadi M
y = ∑ N i ci
(2.6)
i =1
Persamaan tersebut dapat dipandang sebagai kasus khusus dari model regresi linear: M
y = ∑ p iθ i + e
(2.7)
p i ≡ N i , θ i ≡ ci
(2.8)
i =1
dengan pi dan θ i adalah
di mana pi adalah regresor, θ i adalah parameter, dan e adalah sinyal galat yang diasumsikan tidak berkorelasi dengan regresor pi . Jika diberikan N pasang masukan keluaran {x (k ), y (k )}, k = 1,2,⋅ ⋅ ⋅, N , di mana x (k ) = [ x1 (k ), x2 (k ),⋅ ⋅ ⋅, xm (k )]T , maka persamaan 2.7 dapat dinyatakan ke dalam bentuk matriks y = Pθ + e di mana
y = [ y (1),⋅ ⋅ ⋅, y ( N )]T ∈ R N , P = [ p1 ,⋅ ⋅ ⋅, p m ] ∈ R N ×M dengan pi = [ pi (1),⋅ ⋅ ⋅, pi ( N )]T ∈ R N ,
(2.9)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 48
θ = [θ1 ,⋅ ⋅ ⋅,θ M ]T ∈ R M , dan e = [e(1),⋅ ⋅ ⋅, e( N )]T ∈ R N . Masing-masing kolom P berkorespondensi dengan satu kaidah kabur dalam basis kaidah. Matriks P disebut matriks daya sulut dan Pθ disebut prediktor dari y . Dalam membangun sebuah model kabur, jumlah data pelatihan biasanya lebih besar daripada jumlah kaidah kabur dalam basis kaidah. Maka dimensi baris matriks P lebih besar daripada dimensi kolomnya, yaitu N > M . Matriks daya sulut P bisa singular (atau mendekati singular) karena adanya kaidah kabur yang kurang penting atau yang berlebihan dalam basis kaidah. Kaidah kabur yang kurang penting berarti kontribusi kaidah-kaidah tersebut pada keluaran akhir adalah kecil, dan kaidah kabur yang berlebihan berarti kontribusi kaidah-kaidah tersebut dapat digantikan dengan kaidah-kaidah yang lain. Sebuah kaidah yang kurang penting dapat muncul dalam basis kaidah jika daya sulut yang dinormalisasikan dari kaidah tersebut adalah nol atau mendekati nol dalam keseluruhan ruang masukan, sedangkan kaidah yang berlebihan dapat muncul dalam basis kaidah jika daya sulut yang dinormalisasikan dari kaidah tersebut sama dengan atau bergantung linear pada satu atau lebih kaidah-kaidah yang lain. Secara matematis, singularitas dari sebuah matriks ditunjukkan oleh adanya nilai singular nol atau mendekati nol dalam matriks. Jadi, kaidah kurang penting atau kaidah berlebihan dalam basis kaidah dapat ditentukan dengan memeriksa nilai-nilai singular dari matriks daya sulut P. Lebih spesifik, DNS dari P dapat dihitung dengan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 49
P = U P ∑ P VPT di mana banyak nilai singular nol atau mendekati nol dalam
∑
P
mengindikasikan banyaknya kaidah kabur kurang penting atau kaidah kabur berlebihan dalam basis kaidah. Menghilangkan kaidah kabur kurang penting atau kaidah kabur berlebihan dari basis kaidah untuk menghasilkan prediktor Pθ , di mana θ memiliki paling banyak r komponen taknol, dengan r adalah banyaknya kaidah kabur yang tinggal dalam basis kaidah setelah kaidah kabur kurang penting atau kaidah kabur berlebihan dihilangkan. Letak dari entri-entri taknol menentukan kolom-kolom P, yaitu kaidah-kaidah dalam basis kaidah, yang digunakan dalam membangun model dan mendekati vektor observasi y . Berikut ini akan diperkenalkan sebuah metode yang digunakan untuk menyeleksi r kaidah penting (atau M-r kaidah kurang penting atau kaidah berlebihan) dalam basis kaidah. Metode tersebut diawali dengan menghitung DNS dari P, yaitu: P = U P ∑ P VPT .
(2.10)
Partisikan VP menjadi V12 r V VP = 11 V21 V22 M − r r
M-r
Gunakan algortima QR dengan faktorisasi pivot kolom pada [V11T menghasilkan
(2.11)
V21T ] untuk
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 50
Q T [V11T
V21T ] ∏ = [ R11
R12 ]
r
M-r
(2.12)
di mana Q ∈ R r×r adalah matriks orthogonal, R11 ∈ R r×r adalah matriks segitiga atas, dan ∏ ∈ R M ×M adalah matriks permutasi. Didefinisikan: [ Pr
PM − r ] ≡ P ∏
(2.13)
di mana Pr ∈ R N ×r terdiri atas kolom-kolom yang diinginkan dari P yang letak aslinya dalam P mengindikasikan letak kaidah yang bersesuaian dalam basis kaidah. Kunci dari metode ini adalah menemukan matriks permutasi ∏ dan kemudian mendapatkan subset Pr yang diinginkan. Matriks permutasi adalah matriks identitas yang baris-barisnya disusun kembali dan salah satu fungsinya adalah menukar tempat kolom-kolom dari suatu matriks. Misalnya: p11 P = p 21 p31
p12 p 22 p32
p13 p 23 p33
(2.14)
dan kolom yang kedua dan ketiga dari P akan ditukar tempat. Jika bisa ditemukan matriks permutasi 1 0 0 ∏ = 0 0 1 0 1 0 dan mengalikannya dari sebelah kanan dengan P, diperoleh
(2.15)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 51
p11 P ∏ = p 21 p31
p13 p 23 p33
p12 p 22 p32
(2.16)
Prinsip dasar di balik metode ini dapat dimengerti melalui observasi berikut ini. Jika kolom ke-j dari P terdiri atas entri-entri nol atau mendekati nol, maka nilai singular nol atau mendekati nol akan muncul pada diagonal utama di kolom ke-j dari matriks segitiga. Jika kolom ke-j dari P terdiri atas entri-entri yang sama dengan atau bergantung linear terhadap salah satu atau lebih kolom yang lain, katakan kolom ke-l, maka nilai singular nol akan muncul pada diagonal utama di kolom ke-j atau kolom ke-l dari matriks segitiga. Hal tersebut akan diilustrasikan dengan menggunakan matriks P yang diberikan dalam 2.14. Misalnya entri-entri pada kolom kedua dari P semuanya adalah nol, maka nilai-nilai singular pada diagonal utama dari matriks segitiga terlihat seperti berikut ini: * 0 * di mana * adalah sebarang konstanta real taknegatif. Jika misalnya entri-entri pada kolom kedua sama dengan kolom ketiga, maka nilai-nilai singular pada diagonal utama matriks segitiga akan terlihat seperti berikut ini: * 0 * atau
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 52
* * 0 Dalam prakteknya, nilai singular dari matriks daya sulut P biasanya tidak jelas. Khususnya, sejumlah nilai singular akan berupa bilangan positif kecil yang hampir sama. Maka beberapa kriteria atau kaidah praktis diadakan untuk menentukan apakah bilangan-bilangan kecil itu berbeda secara signifikan dari nol. Metode seleksi kaidah berbasis DNS dapat menghilangkan kaidah kurang penting dan kaidah berlebihan dari sebuah basis kaidah, tetapi tidak dapat mengidentifikasikan mana kaidah yang kurang penting dan mana kaidah yang berlebihan di antara kaidah-kaidah yang dihilangkan.
C. Jaringan Syaraf Tiruan
1.
Konsep Dasar Jaringan Syaraf Tiruan
Jaringan syaraf tiruan adalah suatu sistem pengolahan informasi yang memiliki karakteristik kinerja yang mirip dengan jaringan syaraf biologis. Jaringan syaraf tiruan dibentuk sebagai generalisasi model matematika dari jaringan syaraf biologis, dengan asumsi: • Pengolahan informasi terjadi di dalam neuron.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 53
• Sinyal dikirim di antara neuron-neuron melalui suatu penghubung yang disebut sinapsis. • Penghubung antar neuron memiliki bobot yang dapat memperkuat atau memperlemah sinyal yang diterima. Bobot merupakan nilai matematis dari koneksi, yang mentransfer data dari satu lapisan ke lapisan lainnya • Untuk menentukan keluaran, setiap neuron menggunakan fungsi aktivasi tertentu yang sesuai dengan masukan yang diterima.
Prinsip kerja jaringan syaraf tiruan ditentukan oleh tiga hal, yaitu:
a. Neuron dan arsitektur (pola penghubung antar neuron) b. Metode
untuk
menentukan
bobot
penghubung
(pelatihan/proses
pembelajaran). Proses pembelajaran merupakan cara berlangsungnya pembelajaran atau pelatihan jaringan syaraf tiruan. c. Fungsi aktivasi. Fungsi aktivasi adalah fungsi yang menggambarkan hubungan antara tingkat aktivasi internal yang mungkin berbentuk linear atau nonlinear.
Gambar 2.10 menunjukkan diagram model matematis jaringan syaraf tiruan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 54
x1 w1 x2 • • •
w2
n
• • •
∑ wi xi
y _ in
net f
i =1
y = f (net )
wn
xn
Gambar 2.10 Model matematis jaringan syaraf tiruan
Pada Gambar 2.10 di atas sebuah neuron akan mengolah n buah masukan {x1 , x 2 ,⋅ ⋅ ⋅, x n } , yang masing-masing memiliki bobot w1 , w2 ,⋅ ⋅ ⋅, wn , dengan rumus n
net = ∑ wi xi . Kemudian fungsi aktivasi f akan mengaktivasi net menjadi keluaran i =1
jaringan y = f (net ) .
Kadang-kadang dalam jaringan ditambahkan sebuah unit masukan yang nilainya selalu sama dengan 1. Unit yang demikian disebut bias. Jika jaringan syaraf dilengkapi dengan bias, maka proses komputasi menjadi:
n
net = ∑ xi wi + b i =1
dengan b adalah bias.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 55
2.
Arsitektur Jaringan Syaraf
Hubungan antar neuron dalam jaringan syaraf mengikuti pola tertentu tergantung pada arsitektur jaringan syarafnya. Beberapa arsitektur yang sering dipakai dalam jaringan syaraf tiruan antara lain:
a. Model jaringan syaraf dengan satu lapisan (single layer network)
Dalam model jaringan syaraf dengan satu lapisan ini, semua neuron masukan dihubungkan langsung dengan neuron keluar. Tidak ada neuron masukan yang dihubungkan dengan neuron masukan lainnya, demikian pula dengan neuron keluaran. Gambar 2.11 menunjukkan arsitektur jaringan dengan tiga buah unit input ( x1 , x 2 , x3 ) dan dua buah unit output ( y1 , y 2 ).
Gambar 2.11 Model jaringan syaraf dengan satu lapisan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 56
b.
Model jaringan syaraf dengan banyak lapisan (multilayer network)
Model jaringan syaraf dengan banyak lapisan merupakan perluasan dari model jaringan syaraf dengan satu lapisan dengan penambahan unit-unit lain dalam lapisan tersembunyi (hidden layer). Lapisan tersembunyi ini bersifat variabel, dapat digunakan lebih dari satu lapisan. Unit dalam lapisan masukan dihubungkan ke lapisan tersembunyi dan unit-unit pada lapisan tersembunyi terakhir dihubungkan ke lapisan keluaran. Gambar berikut ini menunjukkan model jaringan syaraf dengan satu lapisan tersembunyi (neuron f).
Gambar 2.12 Model jaringan syaraf dengan satu lapisan tersembunyi
Gambar 2.12 merupakan jaringan dengan tiga buah unit masukan ( x1 , x 2 , x3 ) dan dua buah unit keluaran ( y1 , y 2 ), dan sebuah lapisan tersembunyi ( f1 , f 2 ).
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 57
c.
Model jaringan syaraf banyak lapisan dengan umpan balik
Model banyak lapisan dengan umpan balik (recurrent network) mirip dengan model jaringan syaraf dengan satu lapisan dan model jaringan syaraf dengan banyak lapisan, hanya saja ada neuron keluaran yang diumpanbalikkan (feedback loop).
Gambar 2.13 Model banyak lapisan dengan umpan balik
3.
Proses Pembelajaran
Berdasarkan
cara
memodifikasi
bobotnya,
ada
dua macam
proses
pembelajaran/pelatihan yang dikenal, yaitu proses pembelajaran terbimbing (supervised learning) dan proses pembelajaran tidak terbimbing (unsupervised). Pada proses pembelajaran terbimbing, terdapat sejumlah pasangan data (masukan dan target keluaran) yang dipakai untuk melatih jaringan hingga diperoleh bobot yang
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 58
diinginkan. Sebaliknya, pada proses pembelajaran tidak terbimbing, tidak ada pasangan data yang dijadikan acuan perubahan bobot.
4.
Fungsi Aktivasi
Dalam jaringan syaraf tiruan, fungsi aktivasi dipakai untuk menentukan keluaran suatu neuron. Argumen fungsi aktivasi adalah net masukan (kombinasi n
linear masukan dan bobotnya). Jika net = ∑ xi wi , maka fungsi aktivasinya adalah i =1
n
f (net ) = f (∑ xi wi ) . Beberapa fungsi aktivasi yang sering dipakai adalah sebagai i =1
berikut:
a. Fungsi identitas
Untuk unit masukan, fungsi ini adalah fungsi identitas. Fungsi identitas sering dipakai apabila keluaran yang diinginkan berupa bilangan real, bukan hanya pada interval [0,1] atau [-1,1]. Persamaan dari fungsi identitas adalah: f ( x) = x
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 59
Gambar 2.14 Grafik fungsi identitas b. Fungsi biner dengan ambang (α )
Model jaringan syaraf dengan satu lapisan sering menggunakan fungsi ini untuk mengubah
masukan yang masuk ke dalam jaringan, di mana nilai variabel
terhadap sebuah unit keluaran (0 atau 1) dan persamaan dari fungsi tersebut adalah: 1 jika x ≥ α f (x) = 0 jika x < α
f(x) 1
0
α
Gambar 2.15 Grafik fungsi biner dengan ambang α
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 60
Untuk beberapa kasus, fungsi ambang yang dibuat tidak memiliki keluaran yang bernilai 0 atau 1, tetapi bernilai -1 atau 1 (sering disebut fungsi ambang bipolar). Jadi: 1 jika x ≥ α f (x) = − 1 jika x < α
f(x) 1 x
α -1
Gambar 2.16 Grafik fungsi ambang bipolar
c. Fungsi biner sigmoid
Persamaan dari fungsi biner sigmoid adalah sebagai berikut:
1 1 + e (− x) f ′( x) = f ( x)[1 − f ( x)]
f ( x) =
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 61
Fungsi biner sigmoid sering digunakan karena nilai fungsinya yang terletak pada interval [0,1] dan dapat didiferensialkan dengan mudah seperti dalam persamaan di atas.
Gambar 2.17 Grafik fungsi biner sigmoid
d. Fungsi bipolar sigmoid
Fungsi bipolar sigmoid hampir sama dengan fungsi biner sigmoid, hanya saja keluaran dari fungsi ini berada dalam interval [-1,1]. Fungsi bipolar sigmoid dirumuskan sebagai berikut
g ( x) = 2 f ( x) − 1 =
2 1 − e−x − 1 = 1 + e −x 1 + e−x
1 g ′( x) = [1 + g ( x)][1 − g ( x)] 2
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 62
Gambar 2.18 Grafik fungsi bipolar sigmoid
Fungsi bipolar sigmoid berhubungan erat dengan fungsi tangen hiperbolik yang juga sering digunakan sebagai fungsi aktivasi ketika jangkauan yang diharapkan dari nilai keluaran antara -1 dan 1. Fungsi tangens hiperbolik dirumuskan sebagai berikut: e x − e−x . h( x ) = x e + e −x
Persamaan tangens hiperbolik dapat disederhanakan menjadi
h( x ) =
1 − e ( −2 x ) 1 + e ( −2 x )
dengan: h ′( x) = [1 + h( x)][1 − h( x)] .
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 63
5. Model Rambatan Balik
Model rambatan balik (backpropagation) melatih jaringan untuk mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan serta kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama) dengan pola yang dipakai selama pelatihan.
a.
Arsitektur Rambatan Balik
Model rambatan balik memiliki beberapa unit yang ada dalam satu atau lebih lapisan tersembunyi. Gambar 2.19 adalah arsitektur rambatan balik dengan n buah masukan (ditambah sebuah bias), sebuah lapisan tersembunyi yang terdiri p unit (ditambah sebuah bias), serta m buah unit keluaran.
Gambar 2.19 Arsitektur rambatan balik dengan satu lapisan tersembunyi
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 64
vij merupakan bobot garis dari unit masukan xi ke unit lapisan tersembunyi z j ( v0 j merupakan bobot garis yang menghubungkan bias di unit masukan ke unit lapisan tersembunyi z j ). w jk merupakan bobot dari unit lapisan tersembunyi z j ke unit keluaran y k ( w0 k merupakan bobot dari bias di lapisan tersembunyi ke unit keluaran y k ).
b.
Fungsi Aktivasi
Dalam model rambatan balik, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat, yaitu kontinu, terdiferensial dengan mudah dan merupakan fungsi tak turun. Salah satu fungsi aktivasi yang memenuhi ketiga syarat tersebut dan sering digunakan adalah fungsi biner sigmoid yang memiliki jangkauan (0,1). Selain fungsi biner sigmoid, fungsi lain yang sering digunakan adalah fungsi bipolar sigmoid dengan interval [-1,1].
c.
Algoritma Pelatihan Rambatan Balik
Pelatihan jaringan dengan menggunakan model rambatan balik terdiri dari 3 fase. Fase pertama adalah fase maju atau sering dikenal dengan rambatan maju. Pola masukan dihitung maju mulai dari lapisan masukan hingga lapisan keluaran menggunakan fungsi aktivasi yang ditentukan. Fase kedua adalah fase mundur atau sering dikenal dengan rambatan mundur. Selisih antara keluaran jaringan dengan keluaran yang diinginkan merupakan galat yang terjadi. Kesalahan tersebut
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 65
dirambatkan mundur, dimulai dari garis yang berhubungan langsung dengan unit-unit di lapisan keluaran. Fase ketiga adalah modifikasi bobot untuk menurunkan kesalahan yang terjadi.
Selama rambatan maju, sinyal masukan
xi
dirambatkan ke lapisan
tersembunyi menggunakan fungsi aktivasi yang ditentukan. Keluaran dari setiap unit lapisan tersembunyi z i tersebut selanjutnya dirambatkan maju lagi ke lapisan tersembunyi di atasnya menggunakan fungsi aktivasi yang ditentukan. Demikian seterusnya hingga menghasilkan keluaran jaringan y k . Berikutnya keluaran jaringan y k dibandingkan dengan keluaran yang harus dicapai, t k . Selisih t k − y k adalah galat yang terjadi. Jika galat yang ada lebih kecil dari batas toleransi yang ditentukan, maka iterasi dihentikan. Tetapi, bila galat yang ada lebih besar dari batas toleransinya, maka bobot setiap garis dalam jaringan akan dimodifikasi untuk mengurangi kesalahan yang terjadi. Berdasarkan galat t k − y k , dihitung faktor δ k (k = 1, 2, ⋅ ⋅⋅, m) yang dipakai untuk mendistribusikan galat di unit keluaran y k ke semua unit lapisan tersembunyi yang terhubung langsung dengan y k . Faktor δ k juga dipakai untuk mengubah bobot garis yang berhubungan langsung dengan unit keluaran. Dengan cara yang sama, dihitung faktor δ j (j = 1, 2, ⋅ ⋅⋅, p) di setiap unit lapisan tersembunyi sebagai dasar perubahan bobot semua garis yang berasal dari unit lapisan tersembunyi di lapisan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 66
bawahnya. Demikian seterusnya hingga semua faktor δ di unit lapisan tersembunyi yang berhubungan langsung dengan unit masukan dihitung. Pada perubahan bobot, semua faktor δ
dihitung, bobot semua garis
dimodifikasi secara bersamaan. Perubahan bobot suatu garis didasarkan atas faktor δ unit lapisan di atasnya.
Ketiga fase tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi. Umumnya kondisi penghentian yang sering dipakai adalah jumlah iterasi atau nilai galat yang didapat. Iterasi akan dihentikan jika jumlah iterasi yang dilakukan sudah melebihi jumlah maksimum iterasi yang ditetapkan, atau jika nilai galat yang didapat sudah lebih kecil dari batas toleransi yang ditentukan.
Algoritma pelatihan untuk model jaringan rambatan balik dengan satu lapisan tersembunyi dan dengan fungsi aktivasi biner sigmoid adalah sebagai berikut:
0. Inisialisasi semua bobot dengan bilangan acak kecil. 1. Jika kondisi penghentian belum terpenuhi, lakukan proses 2-9. 2. Untuk setiap pasang data pelatihan, lakukan langkah 3-8.
Fase I : Rambatan maju
3. Tiap unit masukan menerima sinyal dan meneruskannya ke unit lapisan tersembunyi di atasnya.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 67
4. Hitung semua keluaran di unit lapisan tersembunyi ( z j , j = 1, 2, ⋅ ⋅⋅, p)
n
z _ net j = v0 j + ∑ xi vij i =1
z j = f ( z _ net j ) =
1 1+ e
− z _ net j
5. Hitung semua keluaran di unit y k (k = 1, 2, ⋅ ⋅⋅, m)
p
y _ net k = w0 k + ∑ z j w jk j =1
y k = f ( y _ net k ) =
1 1+ e
− y _ net k
Fase II : Rambatan mundur 6. Hitung faktor δ unit keluaran berdasarkan galat di setiap unit keluaran y k (k = 1, 2, ⋅ ⋅⋅, m)
δ k = (t k − y k ) f ′( y _ net k ) = (t k − y k ) y k (1 − y k ) Hitung suku perubahan bobot w jk dengan laju percepatan α ∆w jk = αz j δ k 7. Hitung faktor δ unit tersembunyi berdasarkan galat di setiap unit tersembunyi z j ( j = 1 , 2, ⋅ ⋅ ⋅ , p)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 68
m
δ _ net j = ∑ δ k w jk k =1
Faktor δ unit tersembunyi:
δ j = (δ _ net j ) f ′( z _ net j ) = δ _ net j z j (1 − z j )
Hitung semua perubahan bobot v ji ∆vij = αxi δ j ; i = 1, 2, ⋅ ⋅ ⋅ , n
Fase III : Perubahan Bobot
8. Hitung semua perubahan bobot
Perubahan bobot garis yang menuju ke unit keluaran: w jk (baru) = w jk (lama) + ∆w jk
Perubahan bobot garis yang menuju ke unit tersembunyi: vij (baru) = vij (lama) + ∆vij
9. Proses berhenti.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 69
Sedangkan untuk jaringan syaraf dengan lebih dari satu lapisan tersembunyi nilai δ dihitung di setiap lapisan tersembunyi yang ada secara bergantian dan kemudian nilai δ tersebut dijumlahkan dengan nilai δ pada lapisan di bawahnya.
Contoh 2.8 Gunakan rambatan balik dengan sebuah lapisan tersembunyi (dengan tiga unit) untuk mengenali fungsi logika ‘atau’ dengan dua masukan x1 dan x 2 . Buatlah iterasi untuk menghitung bobot jaringan masukan pertama ( x1 = 1 , x 2 = 1 dan t = 0 ), serta gunakan α = 0.2
Penyelesaian:
Gambar 2.20 menunjukkan arsitektur rambatan balik dengan satu lapisan tersembunyi yang terdiri dari tiga unit.
y w31 w01
w11
y _ in
z1
1 v01
v02
z3
z2
v03 v11
1
w21
v12 v 13 x1
v22 v 21
v 23 x2
Gambar 2.20 Arsitektur rambatan balik dengan satu lapisan tersembunyi
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 70
Mula-mula bobot diberi nilai acak yang kecil (pada interval [-1,1]). Misalnya didapat bobot seperti Tabel 2.1 (bobot dari lapisan masukan ke lapisan tersembunyi = vij ), dan Tabel 2.2 (bobot dari lapisan tersembunyi ke lapisan keluaran = w jk ).
Tabel 2.1
z1
z2
z3
x1
0.2
0.3
-0.1
x2
0.3
0.1
-0.1
-0.3
0.3
0.3
Tabel 2.2 y z1
0.5
z2
-0.3
z3
-0.4
1
-0.1
Langkah 4: Hitung keluaran unit di lapisan tersembunyi ( z j )
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 71
n
z _ net j = v0 j + ∑ xi vij i =1
z _ net1 = −0.3 + 1(0.2) + 1(0.3) = 0.2 z _ net 2 = 0.3 + 1(0.3) + 1(0.1) = 0.7 z _ net 3 = 0.3 + 1(−0.1) + 1(−0.1) = 0.1
z j = f ( z _ net j ) =
1 1+ e
− z _ net j
1 = 0.55 1 + e −0.2 1 = 0.67 z2 = 1 + e −0.7 1 z3 = = 0.52 1 + e −0.1 z1 =
Langkah 5: Hitung keluaran di unit y k
Karena keluaran hanya memiliki satu buah unit, maka :
3
y _ net k = y _ net = w01 + ∑ z j w jk = −0.1 + 0.55(0.5) + 0.67(−0.3) + 0.52(−0.4) = −0.24 j =1
1 1 y = f ( y _ net ) = = = 0.44 − y _ net 1+ e 1 + e 0.24 Langkah 6: Hitung faktor δ di unit keluaran y k
Karena jaringan hanya memiliki sebuah keluaran maka :
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 72
δ k = δ = (t − y ) y (1 − y ) = (0 − 0.44)(0.44)(1 − 0.44) = −0.11 Suku perubahan bobot w jk (dengan α = 0.2 ): ∆w jk = αz j δ k = αz j δ ; j = 0, 1, 2, 3 ∆w10 = 0.2(1)(−0.11) = −0.02 ∆w11 = 0.2(0.55)(−0.11) = −0.01 ∆w12 = 0.2(0.67)(−0.11) = −0.01 ∆w13 = 0.2(0.52)(−0.11) = −0.01
Langkah 7: Hitung penjumlahan galat dari unit tersembunyi Karena jaringan hanya memiliki sebuah unit keluaran maka δ _ net j = δ w j1
δ _ net1 = (−0.11)(0.5) = −0.05 δ _ net 2 = (−0.11)(−0.3) = 0.03 δ _ net 3 = (−0.11)(−0.4) = 0.04 Faktor galat δ di unit tersembunyi:
δ j = (δ _ net j ) f ′( z _ net j ) = δ _ net j z j (1 − z j ) δ 1 = −0.05(0.55)(1 − 0.55) = −0.01 δ 2 = 0.03(0.67)(1 − 0.67) = 0.01 δ 3 = 0.04(0.52)(1 − 0.52) = 0.01
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 73
Suku perubahan bobot ke unit tersembunyi : ∆vij = αxi δ j (i = 0, 1, 2; j = 1, 2, 3)
Tabel 2.3
z1
z2
z3
x1
∆v11 = (0.2)(−0.01)(1) = 0
∆v12 = (0.2)(0.01)(1) = 0
∆v13 = (0.2)(0.01)(1) = 0
x2
∆v 21 = (0.2)(−0.01)(1) = 0
∆v 22 = (0.2)(0.01)(1) = 0
∆v 23 = (0.2)(0.01)(1) = 0
∆v31 = (0.2)(−0.01)(1) = 0
∆v32 = (0.2)(0.01)(1) = 0
∆v33 = (0.2)(0.01)(1) = 0
Langkah 8: Hitung semua perubahan bobot
Perubahan bobot unit keluaran: w jk (baru) = w jk (lama) + ∆w jk (k = 1; j = 0, 1, 2, 3) w11 (baru) = 0.5 − 0.01 = 0.49 w21 (baru) = −0.3 − 0.01 = −0.31 w31 (baru) = −0.4 − 0.01 = −0.41 w01 (baru) = −0.5 − 0.02 = −0.12
Perubahan bobot tersembunyi: vij (baru) = vij (lama) + ∆vij (j = 1, 2, 3; i = 0, 1, 2
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 74
Tabel 2.4
z1
z2
z3
x1
v11 (baru) = 0.2 + 0 = 0.2
v12 (baru) = 0.3 + 0 = 0.3
v13 (baru) = −0.1 + 0 = −0.1
x2
v 21 (baru) = 0.3 + 0 = 0.3
v 22 (baru) = 0.1 + 0 = 0.1
v 23 (baru) = −0.1 + 0 = −0.1
v31 (baru) = −0.3 + 0 = −0.3
v32 (baru) = 0.3 + 0 = 0.3
v33 (baru) = 0.3 + 0 = 0.3
Langkah 9: Proses berhenti
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
BAB III SISTEM JARINGAN SYARAF KABUR
A. Jaringan Syaraf dan Logika Kabur Jaringan syaraf dan logika kabur merupakan dua teknologi yang komplementer. Jaringan syaraf dapat mengenali pola masukan yang diterimanya dan dengan proses pembelajaran dapat menyesuaikan diri dengan masukan itu. Proses pembelajaran pada suatu jaringan syaraf adalah proses penyesuaian diri jaringan itu secara bertahap terhadap masukan yang diterimanya sampai akhirnya menghasilkan keluaran yang diinginkan. Akan tetapi, memahami proses pembelajaran jaringan syaraf cukup sulit karena sulit untuk menjelaskan makna setiap neuron dan setiap bobot yang terkait. Sebaliknya, model berbasis kaidah kabur mudah untuk dipahami karena menggunakan istilah-istilah linguistik dan struktur kaidah jika-maka. Akan tetapi, tidak seperti jaringan syaraf, logika kabur tidak mengenal algoritma pembelajaran. Karena jaringan syaraf bisa mempelajari, maka masuk akal untuk menggabungkan kedua teknologi tersebut. Penggabungan itu menghasilkan sebuah istilah baru, yaitu jaringan syaraf kabur. Sistem jaringan syaraf kabur adalah suatu sistem yang menggunakan kombinasi logika kabur dan jaringan syaraf.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 76
Sistem jaringan syaraf kabur dapat diklasifikasikan ke dalam dua kategori, yaitu: 1. Model berbasis kaidah kabur yang dibangun dengan menggunakan teknik pembelajaran jaringan syaraf terbimbing. 2. Model berbasis kaidah kabur yang menggunakan jaringan syaraf untuk membangun partisi kabur dari ruang masukannya. Yang akan dibahas dalam bab ini adalah sistem jaringan syaraf kabur kategori pertama. Masing-masing neuron dalam arsitektur jaringan syaraf umpanmaju menampilkan dua langkah operasi sederhana. Pertama, menghitung jumlahan terbobot dari semua sinyal masukan. Sebagai contoh, neuron n j menghitung jumlahan terbobot sebagai berikut: k
s j = ∑ wij × xi .
(3.1)
i =1
Dalam langkah kedua, jumlahan terbobot yang telah dihitung itu dimasukkan ke suatu fungsi f (biasanya suatu fungsi sigmoid) untuk menghasilkan sinyal keluaran dari neuron. Dengan mengombinasi kedua langkah tersebut, dihasilkan: k x j = f ( s j ) = f ∑ wij × xi . i =1
(3.2)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 77
Untuk menerapkan pembelajaran rambatan balik, fungsi f tersebut haruslah fungsi yang kontinu dan dapat diturunkan.
B. Model Kabur dengan Pembelajaran Jaringan Syaraf Terbimbing 1. Arsitektur Jaringan Syaraf Kabur Sistem jaringan syaraf kabur adalah suatu model berbasis kaidah kabur dengan struktur jaringan syaraf tiruan. Sebuah sistem jaringan syaraf kabur berbeda dengan jaringan syaraf tiruan dalam tiga hal berikut ini. Pertama, neuron dan sinapsis dalam sistem jaringan syaraf kabur biasanya dapat dipahami karena masing-masing neuron dan sinapsis itu berkorespondensi dengan bagian tertentu dari suatu sistem kabur. Sebagai contoh, lapisan pertama dari sebuah arsitektur jaringan syaraf kabur, seperti yang terlihat dalam Gambar 3.1, menunjukkan fungsi keanggotaan anteseden dari variabel masukan. Kedua, sebuah neuron dalam sistem jaringan syaraf kabur biasanya tidak semuanya terhubung ke neuron pada lapisan yang terdekat. Dalam kenyataannya hubungan antara neuron dalam sebuah sistem jaringan syaraf kabur menggambarkan struktur kaidah dari sistem. Sebagai contoh, neuron pada lapisan kedua dalam Gambar 3.1 hanya terhubung ke dua neuron dari lapisan pertama, di mana masing-masing neuron menggambarkan kondisi sebuah variabel masukan. Terakhir, sistem jaringan syaraf kabur biasanya memiliki lebih banyak lapisan dibandingkan jaringan syaraf tiruan.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 78
Biasanya, sebuah arsitektur jaringan syaraf kabur memiliki lima sampai enam lapisan neuron. Kemampuan masing-masing lapisan biasanya meliputi hal-hal berikut ini: a. Mengkomputasikan derajat kesesuaian dengan suatu kondisi kabur yang melibatkan satu variabel. b. Mengkomputasikan derajat kesesuaian dengan suatu kondisi kabur konjungtif yang melibatkan banyak variabel. c. Mengkomputasikan derajat kesesuaian yang dinormalkan d. Mengkomputasikan kesimpulan yang diambil dari suatu kaidah kabur e. Menggabungkan kesimpulan dari semua kaidah kabur dalam sebuah model. Hal-hal tersebut secara bersama-sama merupakan penarikan kesimpulan berdasarkan kaidah kabur. Gambar 3.1 menggambarkan suatu arsitektur jaringan syaraf kabur yang disebut ANFIS, yang kelima lapisannya berkaitan dengan lima kemampuan tersebut di atas. Alasan langkah normalisasi (lapisan 3) terpisah dari langkah kombinasi (lapisan 5) dalam arsitektur jaringan syaraf kabur adalah karena adanya kendala bahwa neuron-neuron pada arsitektur jaringan syaraf tiruan umpan maju multilapis pada sebuah lapisan hanya dapat menerima sinyal masukan dari lapisan terdekat sebelah kirinya. Jika tugas-tugas yang dikerjakan oleh lapisan 3 dan lapisan 5 digabungkan, lapisan gabungan akan membutuhkan masukan dari dua lapisan, yaitu lapisan 2 dan lapisan 4. Hal ini akan melanggar prinsip konektivitas
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 79
untuk jaringan syaraf umpan maju multilapis dan menimbulkan kesulitan dalam menerapkan pembelajaran rambatan balik pada sistem jaringan syaraf kabur.
Gambar 3.1 (a) Arsitektur ANFIS untuk model kabur Sugeno dengan dua buah masukan serta sembilan kaidah; (b) Ruang masukan dipartisi ke dalam sembilan bagian Arsitektur ANFIS menerapkan model Takagi Sugeno Kang (TSK) yang mempartisi ruang masukan menggunakan fungsi keanggotaan yang terdiferensial. Baik model TSK maupun fungsi keanggotaan terdiferensial umum digunakan dalam arsitektur jaringan syaraf kabur. Syarat untuk menerapkan pembelajaran rambatan balik terhadap jaringan syaraf umpanbalik adalah bahwa fungsi yang digunakan merupakan fungsi yang terdiferensial. Fungsi keanggotaan Gauss merupakan fungsi yang cocok untuk sistem jaringan syaraf kabur.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 80
2. Pembelajaran Rambatan Balik Pada Model Kabur Dalam subbab ini akan dibahas bagaimana menggunakan kemampuan pembelajaran jaringan syaraf pada model kabur. Secara khusus, akan diterapkan salah satu algoritma pembelajaran jaringan syaraf, yang dikenal dengan nama “Algoritma Rambatan Balik”, untuk estimasi parameter pada model kabur. Sebelum menerapkan rambatan balik ke model kabur, pertama-tama akan dibahas kembali bagaimana algoritma rambatan balik bekerja dalam jaringan syaraf. Pada dasarnya, algoritma rambatan balik terdiri atas dua langkah melalui lapisan yang berbeda pada jaringan syaraf, yaitu langkah maju dan langkah mundur. Dalam langkah maju, sebuah vektor masukan dipakai untuk neuron masukan dari jaringan syaraf, dan hasilnya dirambatkan melalui jaringan syaraf, lapisan demi lapisan. Akhirnya, himpunan keluaran dihasilkan sebagai reaksi dari jaringan. Selama langkah maju semua bobot sinapsis jaringan syaraf tetap. Langkah kedua merupakan langkah mundur, semua bobot sinapsis diatur sesuai dengan kaidah koreksi galat. Sinyal galat merupakan selisih antara keluaran yang sesungguhnya dari jaringan dengan keluaran yang diinginkan (keluaran target). Pengkaidah bobot ini diulang terus menerus sampai bobot tidak lagi berubah. Hal ini disebut konvergensi algoritma pembelajaran. Sinyal galat ini kemudian dirambatkan mundur melewati jaringan syaraf, berlawanan arah dengan koneksi sinapsis. Bobot sinapsis disesuaikan agar keluaran sesungguhnya dari jaringan semakin mendekati keluaran yang diinginkan.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 81
Ada dua cara untuk menyesuaikan bobot menggunakan rambatan balik. Pendekatan pertama menyesuaikan bobot berdasarkan sinyal galat dari sepasang masukan-keluaran dalam data pelatihan. Oleh karena itu, penyesuaian tersebut dilakukan segera setelah masing-masing data pelatihan diberikan ke jaringan syaraf. Sebagai contoh, jika digunakan sekumpulan data pelatihan yang terdiri atas 500 pasang masukan-keluaran, cara algoritma rambatan balik ini menyesuaikan bobot 500 kali untuk setiap kali algoritma itu merambat melalui himpunan pelatihan tersebut. Misalkan algoritma tersebut konvergen setelah 1000 rambatan, masing-masing bobot disesuaikan 500,000 kali. Pendekatan ini disebut “Cara Pola” pembelajaran rambatan balik. Pendekatan lainnya, yang dikenal sebagai “Cara Kelompok” pembelajaran rambatan balik, menyesuaikan bobot berdasarkan sinyal galat dari keseluruhan himpunan pelatihan. Oleh karena itu, bobot hanya disesuaikan satu kali setelah semua data pelatihan diproses oleh jaringan syaraf. Pada contoh di atas, masing-masing bobot pada jaringan syaraf disesuaikan 1000 kali dengan cara kelompok algoritma pembelajaran rambatan balik. Cara kelompok rambatan balik dilaksanakan dengan menerapkan metode gradien turun untuk meminimalkan galat antara keluaran jaringan syaraf dan keluaran sasaran dari keseluruhan himpunan pelatihan. Galat ini dihitung dengan fungsi galat global berikut ini:
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 82
E=
1 N ∑ ( yˆ i − yi ) 2 i =1
(3.3)
di mana y i merupakan keluaran dari data pelatihan ke-i, yˆ i merupakan keluaran jaringan syaraf yang sesungguhnya untuk masukan yang sama, dan N menunjukkan jumlah total pasangan-pasangan masukan-keluaran dalam himpunan pelatihan. Cara pola rambatan balik menerapkan gradien turun terhadap fungsi galat yang berbeda:
Ei =
1 ( yˆ i − yi )2 i = 1, 2, …, N 2
(3.4)
Di bawah ini diuraikan pembelajaran rambatan balik cara pola. Pertama-tama dihitung gradien Ei dalam persamaan 3.4 terhadap bobot w j dari sebuah hubungan dari suatu neuron di lapisan tengah ke neuron di lapisan keluaran: dEi dyˆ = ( yˆ i − y i ) i dw j dw j
(3.5)
Menggunakan persamaan 3.2 untuk menggambarkan proses dari lapisan keluaran, diperoleh: k yˆ i = f ( s ) = f ∑ w j × x j i =1
Kemudian bisa diterapkan kaidah rantai untuk menghitung turunan
(3.6)
dyˆ i : dw j
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 83
dyˆ i ds df df = × = xj × dw j dw j ds ds
(3.7)
Substitusikan ke dalam persamaan 3.5, maka diperoleh: dEi df = ( yˆ i − y i ) × x j × dw j ds
(3.8)
Metode gradien turun meminimalkan fungsi ( Ei ) dengan cara menyesuaikan masing-masing parameter ( w j ) dengan besaran yang proporsional dengan turunan fungsi itu terhadap parameter tersebut. Penerapan prinsip tersebut untuk meminimalkan Ei dengan menyesuaikan bobot w j , menghasilkan:
w′j − w j = ∆w j = −α
dEi dw j
(3.9)
di mana α adalah suatu parameter yang disebut “laju pembelajaran”. Substitusi persamaan
3.8
ke
dalam
persamaan
3.9,
menghasilkan
rumusan
untuk
memperbaharui bobot dalam pembelajaran rambatan balik cara pola: ∆w j = −α ( yˆ i − y i ) × x j ×
df ds
(3.10)
Jumlah penyesuaian bobot untuk tiap-tiap hubungan antara lapisan tersembunyi dan lapisan keluaran dapat dilihat sebagai sinyal galat untuk lapisan tersembunyi. Menggunakan cara serupa dengan yang sudah digambarkan di atas,
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 84
dapat diperoleh rumusan untuk memperbaharui bobot yang terkait dengan lapisan masukan. Algoritma ini menjadi sederhana jika diterapkan ke model kabur yang dinyatakan dalam persamaan 3.12, karena model kabur mempunyai struktur yang relatif lebih sederhana dan tetap dibandingkan dengan jaringan syaraf. Berikut ini akan diterapkan pembelajaran rambatan balik pada identifikasi parameter model kabur Takagi Sugeno Kang yang fungsi keanggotaan antesedennya bertipe Gauss. Secara lebih khusus, dalam langkah maju, untuk pola masukan yang diberikan, respon nyata dari model tersebut langsung dihitung dari persamaan 3.14, dan hasil dari masukan ke keluarannya diperoleh hanya dengan satu langkah rambatan. Selama proses, parameter-parameter anteseden ( mij dan σ ij ) dan konsekuen (ci ) , yang sama dengan bobot pada jaringan syaraf, semuanya tetap. Dalam langkah mundur, sinyal galat yang dihasilkan dari perbedaan antara keluaran yang sebenarnya dan keluaran yang diinginkan dari model dirambatkan mundur dan parameter-parameter mij , σ ij serta ci disesuaikan dengan menggunakan kaidah koreksi galat. Fungsi galat pada iterasi ke-k akan dinotasikan dengan J (k ) :
J (k ) =
1 ( yˆ i − yi )2 2
Kaidah koreksi galat untuk mij , σ ij serta ci diberikan oleh
(3.11)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 85
ci (k ) = ci (k − 1) − η1
∂J (k ) , i = 1, 2, …, M ∂ci c =c ( k −1) i
mij (k ) = mij (k − 1) − η 2
σ ij (k ) = σ ij (k − 1) − η 3
∂J (k ) ∂mij
∂J (k ) ∂σ ij
(3.12)
i
, i = 1, 2, …, M, j = 1, 2, …, m
(3.13)
, i = 1, 2, …, M, j = 1, 2, …, m
(3.14)
mij = mij ( k −1)
σ ij =σ ij ( k −1)
di mana η1 ,η 2 , dan η 3 merupakan parameter-parameter laju pembelajaran. Untuk memberikan gambaran yang jelas yang menunjukkan bagaimana gradien
∂J (k ) ∂J (k ) ∂J (k ) terbentuk, yˆ (k ) , keluaran sesungguhnya dari , , dan ∂ci ∂mij ∂σ ij
model pada observasi ke-k, akan ditulis ulang dalam bentuk perpanjangannya M yˆ (k ) = p (k )θ ≡ ∑ vi (k )ci
(3.15)
i =1
di mana (x j (k ) − mij )2 exp µ Aij ( x j (k )) ∏ 2 ∏ σ j = 1 ij j vi (k ) = M =1s = s M (x j (k ) − mij )2 µ Aij ( x j (k )) ∑∏ exp ∑∏ 2 i =1 j =1 σ i =1 j =1 ij s
Maka, sinyal galat menjadi
s
(3.16)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 86
M
e(k ) = y (k ) − yˆ (k ) ≡ y (k ) − ∑ vi (k )ci
(3.17)
i =1
Turunkan J(k) terhadap θ , samakan hasilnya dengan nol, dan dengan menggunakan kaidah rantai, diperoleh: ∂J (k ) ∂J (k ) ∂e(k ) = = −2e(k )vi (k ) ∂ci ∂e(k ) ∂ci
(3.18)
M ∂J ( k ) ∂J ( k ) ∂e(k ) ∂vi (k ) x j (k ) − mij = = −2e(k )vi (k ) ci − ∑ vl (k )cl (3.19) 2 ∂σ ij ∂e(k ) ∂vi (k ) ∂σ ij l =1 σ ij
2 M ∂J ( k ) ∂J ( k ) ∂e( k ) ∂vi (k ) (x j (k ) − mij ) = = −2e(k )vi (k ) ci − ∑ vl (k )cl (3.20) ∂e( k ) ∂vi ( k ) ∂mij ∂mij σ ij 3 l =1
Substitusikan persamaan-persamaan 3.18, 3.19, dan 3.20 masing-masing ke dalam persamaan-persamaan 3.12, 3.13, dan 3.14, maka diperoleh: ci (k ) = ci (k − 1) + 2η1e(k )vi (k ), i = 1, 2, …, M
(3.21)
M x j (k ) − mij (k ) mij (k ) = mij (k − 1) + 2η 2 e(k )vi (k ) ci (k ) − ∑ vl (k )cl (k ) (3.22) σ ij2 (k ) l =1
i = 1, 2, …, M, j = 1, 2, …, s 2 M (x j (k ) − mij (k ) ) σ ij (k ) = σ ij (k − 1) + 2η 3e(k )vi (k ) ci (k ) − ∑ vl (k )cl (k ) (3.23) σ ij3 (k ) l =1
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 87
i = 1, 2, …, M, j = 1, 2, …, s di mana vi (k ) dihitung dengan menggunakan persamaan 3.16 dengan mij dan σ ij berturut-turut diganti dengan mij (k − 1) dan σ ij (k − 1) , dan e(k ) dihitung dengan persamaan 3.17 dengan ci diganti dengan ci (k − 1) . Ketiga persamaan terakhir ini merupakan algoritma rambatan balik untuk estimasi parameter dalam model kabur TSK menggunakan fungsi keanggotaan anteseden tipe Gauss. Pilihan parameter-parameter laju pembelajaran η1 ,η 2 , dan η 3 dapat mempunyai pengaruh yang besar pada kinerja algoritma rambatan balik. Nilai
η1 ,η 2 , dan η 3 yang lebih kecil dapat membuat perubahan parameter dari satu iterasi ke iterasi berikutnya menjadi lebih halus, namun hal ini biasanya dicapai dengan laju konvergensi yang rendah. Sebaliknya, nilai yang lebih besar untuk η1 ,η 2 , dan η 3 dapat meningkatkan laju konvergensi, tetapi perubahan parameter yang besar dari satu iterasi ke iterasi selanjutnya dapat menyebabkan algoritma menjadi tidak stabil. Oleh karena itu, pemilihan parameter pembelajaran haruslah dilakukan dengan sangat cermat. Sayangnya, tidak ada kriteria yang terumuskan dengan baik untuk memilih parameter-parameter tersebut. Hal itu biasanya ditentukan dengan mencoba-coba. Perhatikan bahwa pembaharuan parameter di sini dilakukan setelah pelaksanaan masing-masing contoh pelatihan. Oleh sebab itu, cara operasi ini disebut “pembelajaran pola”. Kemungkinan lain, proses pembaharuan dapat juga dilakukan
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 88
setelah pelaksanaan seluruh contoh pelatihan yang merupakan kelompok. Cara operasi ini disebut “Pembelajaran Kelompok”. Untuk sebuah kelompok tertentu didefinisikan fungsi tujuan J b sebagai kuadrat rata-rata galat e(k ) , yaitu: N
J b = ∑ e 2 (k ) .
(3.24)
k =1
Misalkan ci (k − 1) , mij (k − 1) dan σ ij (k − 1) adalah estimasi parameter pada kelompok ke n-1. Dengan cara yang sama seperti pada rambatan balik cara pola, dapat diperoleh estimasi ci (n) , mij (n) dan σ ij (n) pada kelompok ke n, seperti berikut ini: N
ci (n + 1) = ci (n) + 2η1 ∑ e(k )vi (k ), i = 1, 2, …, M
(3.25)
k =1
N M x j (k ) − mij (n) mij (n + 1) = mij (n) + 2η 2 ∑ e(k )vi (k ) ci (n) − ∑ vl (k )cl (n) σ ij2 (n) k =1 l =1 (3.26)
i = 1, 2, …, M, j = 1, 2, …, s 2 M (x j (k ) − mij (n) ) σ ij (n + 1) = σ ij (n) + 2η 3 ∑ e(k )vi (k ) ci (n) − ∑ vl (k )cl (n) σ ij3 (n) k =1 l =1 (3.27) N
i = 1, 2, …, M, j = 1, 2, …, s
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 89
di mana vi (k ) dihitung dengan menggunakan persamaan 3.16 dengan mij dan σ ij berturut-turut diganti dengan mij (n − 1) dan σ ij (n − 1) , dan e(k ) dihitung dengan persamaan 3.17 dengan ci diganti dengan ci (n − 1) . Cara pola lebih disukai daripada cara kelompok karena cara pola membutuhkan lebih sedikit tempat penyimpanan untuk memperbaharui tiap parameter. Sebaliknya, pembelajaran cara kelompok memberikan estimasi gradien yang lebih tepat. Meskipun belum jelas apakah kedua cara pembelajaran tersebut akan selalu menghasilkan model yang sama, ada bukti yang menunjukkan bahwa pembelajaran cara pola mendekati pembelajaran cara kelompok asalkan parameter laju pembelajarannya kecil. Berikut berturut-turut diberikan algoritma rambatan balik dengan cara pola dan algoritma rambatan balik dengan cara kelompok. Algoritma rambatan balik cara pola diaplikasikan pada model TSK dengan fungsi keanggotaan Gauss Langkah 1 : Tentukan ci (0) , mij (0) , dan σ ij (0) dengan bilangan acak kecil. Langkah 2 : Untuk k = 1,2, …, N, lakukan langkah berikut
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 90
Langkah 3 :
(Langkah maju) Hitung vik menggunakan persamaan 3.8, di mana mij dan σ ij berturut-turut diganti dengan mij (k − 1) , dan σ ij (k − 1) . Hitung yˆ (k ) menggunakan persamaan 3.17, di mana ci diganti dengan ci (k − 1) .
Langkah 4 : (Langkah
mundur)
Bentuk
sinyal
galat
e(k ) = y (k ) − yˆ (k ) ; perbaharui ci , mij dan σ ij berturutturut menggunakan persamaan 3.13, 3.14 dan 3.15. Langkah5 : Jika kriteria penghentian telah dicapai, maka proses berhenti. Jika belum tercapai, misalkan k = k + 1 dan lanjutkan ke langkah 2.
Algoritma rambatan balik cara kelompok diaplikasikan pada model TSK dengan fungsi keanggotaan Gauss Langkah 1 : Tentukan ci (0) , mij (0) , dan σ ij (0) dengan bilangan acak kecil, dan misalkan n = 1 Langkah 2 : (Langkah maju) Hitung vik menggunakan persamaan 3.8 untuk k = 1,2, …, N, di mana mij dan σ ij berturut-turut diganti dengan mij (n − 1) , dan σ ij (n − 1) . Hitung yˆ (k )
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 91
menggunakan persamaan 3.7 untuk k = 1,2, …, N, di mana ci diganti dengan ci (n − 1) . Langkah 3 : (Langkah mundur) Bentuk sinyal galat e(k ) = y (k ) − yˆ (k ) untuk k = 1,2, …, N; perbaharui ci , mij dan σ ij berturutturut dengan menggunakan persamaan 3.17, 3.18 dan 3.19. Langkah 4 : Jika kriteria penghentian telah dicapai, maka proses berhenti. Jika belum tercapai, misalkan n = n + 1 dan lanjutkan ke langkah 2.
C. Contoh Model Jaringan Syaraf Kabur Dalam subbab ini akan diberikan sebuah contoh untuk menunjukkan bagaimana algoritma rambatan balik digunakan untuk mengestimasi parameterparameter suatu model kabur. Diasumsikan model kabur memiliki konsekuen konstanta, yaitu: Jika x1 adalah Ai1 dan x 2 adalah Ai 2 dan ⋅ ⋅ ⋅ dan x m adalah Aim maka y adalah ci , i = 1, 2, ⋅ ⋅ ⋅ , M
(3.28)
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 92
di mana ci adalah konstanta. Fungsi-fungsi keanggotaan anteseden adalah fungsi Gauss, yang didefinisikan sebagai berikut: ( x j − mij ) 2 Aij = exp − σ ij2
.
(3.29)
Untuk menentukan struktur (terutama jumlah kaidah kabur yang membentuk model dasar) dan parameter-parameter model secara terintegrasi, algoritma rambatan balik dikombinasikan dengan DNS dengan algoritma pivot kolom. Langkah-langkah pokok prosesnya ditunjukkan pada Gambar 3.2. Pertama-tama, sebuah calon model kabur dipertimbangkan, yang mungkin modelnya terlalu besar (memiliki basis kaidah yang besar) tetapi tidak terlalu kecil. Parameter-parameter dalam model tersebut dilatih dengan menggunakan algoritma rambatan balik. Kedua, jumlah kaidah kabur penting dalam basis kaidah ditentukan dengan menggunakan DNS. Ketiga, posisi kaidah-kaidah dalam basis kaidah diidentifikasikan dengan menggunakan algoritma seleksi subset, yaitu algoritma pivot kolom. Terakhir, kaidah-kaidah kabur yang penting disimpan dan kaidah-kaidah kabur yang kurang penting atau berlebihan dikeluarkan dari basis kaidah. Sebuah model kabur yang kompak kemudian dibangun dengan menggunakan kaidah-kaidah kabur yang disimpan yang parameterparameternya dilatih kembali menggunakan rambatan balik.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 93
Latih model kabur yang terlalu besar menggunakan rambatan balik
Tentukan jumlah kaidah yang penting menggunakan DNS
Identifikasikan posisi kaidah yang penting menggunakan DNS-QR
Latih model kabur yang kompak menggunakan rambatan balik
Gambar 3.2 Identifikasi model kabur menggunakan kombinasi rambatan balik dan DNS
Contoh 3.1 Diberikan fungsi nonlinear sebagai berikut y=
sin x x
Akan dilakukan pendekatan terhadap fungsi tersebut dengan menggunakan model kabur yang dijelaskan dalam 3.28. Untuk itu, ditentukan 100 titik data pelatihan dengan menggunakan nilai-nilai berjarak sama dalam interval [-10,10].
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 94
Pertama-tama, dibangun sebuah model kabur dengan 30 kaidah yang parameter anteseden dan konsekuennya dilatih menggunakan algoritma rambatan balik
dengan
nilai
parameter
awal
ci (0) ∈ [−1,1], mij (0) ∈ [−10,10],
σ ij (0) ∈ [1,2]. Kaidah-kaidah kabur tersebut diberi label 1, 2, ⋅ ⋅⋅, 30
dan untuk
menunjukkan posisi mereka dalam basis kaidah. Untuk masing-masing dari 100 titik data masukan
x(k ), k = 1,2,⋅ ⋅ ⋅,100
pada model, dihitung daya sulut yang
dinormalisasikan dari 30 kaidah menggunakan persamaan 2.5. Maka matriks daya sulut P berukuran 100 × 30 terbentuk. Gunakan DNS ke P sehingga dihasilkan nilai-nilai singular yang ditunjukkan dalam Gambar 3.3. Berdasarkan distribusi nilai-nilai singular, 12 kaidah dipertahankan untuk digunakan membangun model kabur yang direduksi. Posisi kaidah-kaidah yang dipertahankan dalam basis kaidah diidentifikasikan menggunakan DNS-QR dengan algoritma pivot kolom sebagai 3, 5, 30, 16, 1, 13, 8, 24, 19, 29, 23, 14. Urutan posisi dari kaidah-kaidah tersebut juga menunjukkan pentingnya kaidah kabur itu dalam basis kaidah. Parameter anteseden dan konsekuen dari model kabur yang telah direduksi menjadi model dengan 12 kaidah kabur itu dilatih kembali menggunakan algoritma rambatan balik dengan nilai-nilai parameter awal yang telah ditentukan dalam model kabur dengan 30 kaidah tadi. Gambar 3.4 menunjukkan grafik log-MSE (Mean Squared Error) dari model kabur dengan 30 kaidah dan model kabur dengan 12 kaidah dalam 1000 epoh dari
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 95
pelatihan rambatan balik. Sebagai perbandingan, Gambar 3.3 juga menunjukkan model kabur dengan 12 kaidah yang dilatih menggunakan algoritma rambatan balik dengan nilai parameter awal acak ci (0) ∈ [−1,1], mij (0) ∈ [−10,10], dan σ ij (0) ∈ [1,2]. Tabel 3.3 memberikan nilai-nilai MSE dari ketiga model kabur setelah 1000 epoh. Dari gambar 3.2 dan tabel 3.3 diketahui bahwa model yang direduksi menjadi 12 kaidah dengan nilai-nilai parameter awal yang ditentukan sebelumnya telah mencapai keadaan layaknya jauh lebih cepat daripada yang menggunakan nilai parameter awal acak. Hal ini disebabkan karena algoritma rambatan balik merupakan algoritma optimisasi nonlinear dan kekonvergenannya sangat bergantung pada pemilihan nilai parameter awal. Model kabur semula dengan 30 kaidah memberikan nilai MSE yang kecil dibandingkan dengan kedua model kabur yang direduksi menjadi 12 kaidah. Hal tersebut tidak mengherankan karena model yang semula memuat lebih banyak kaidah kabur. Tetapi, titik-titik data pelatihan yang baik tidak selalu menjamin kinerja yang baik pada titik-titik yang tidak dilatih. Sebuah model kabur dengan jumlah kaidah yang besar memiliki tingkat resiko yang tinggi dalam hal kelebihan kecocokan: mampu mencocokkan titik-titik data pelatihan secara lengkap, tetapi tidak mampu menggeneralisasikannya secara memuaskan pada titik-titik data yang tidak terlatih. Hal tersebut dapat dilihat pada Gambar 3.5 yang menunjukkan keluaran sebenarnya dari fungsi nonlinear dan keluaran model kabur 30 kaidah dan model kabur 12 kaidah dengan nilai-nilai parameter awal yang telah ditentukan sebelumnya. Gambar 3.6 menunjukkan fungsi keanggotaan variabel masukan x dalam model kabur 30 kaidah
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 96
dan dalam model kabur 12 kaidah dengan nilai parameter awal yang terlah didefinisikan.
Gambar 3.3 Distribusi nilai singular dari matriks daya sulut berukuran 100 × 30
Gambar 3.4 Grafik log-MSE untuk tiga model kabur yang dilatih menggunakan algoritma rambatan balik
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 97
Tabel 3.3 Nilai MSE tiga model kabur setelah 1000 epoh dari pelatihan rambatan balik Model Kabur
MSE
Model sebenarnya (30 kaidah)
2.7902e-6
Model direduksi (12 kaidah, dengan nilai
2.8342e-6
awal yang terdefinisi) Model direduksi (12 kaidah, dengan nilai
6.8712e-6
awal acak)
Gambar 3.5 Perbandingan keluaran dari model kabur semula dan model kabur yang direduksi
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 98
Model kabur semula dengan 30 kaidah
Model kabur yang direduksi dengan 12 kaidah
Gambar 3.6 Fungsi keanggotaan masukan x dalam model semula dan model yang direduksi
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
BAB IV PENUTUP
Sistem jaringan syaraf kabur adalah suatu sistem yang menggunakan kombinasi logika kabur dan jaringan syaraf. Sistem jaringan syaraf kabur dirancang untuk merealisasikan proses penalaran kabur, di mana bobot-bobot yang terhubung pada jaringan tersebut berhubungan dengan parameter-parameter penalaran kabur. Dengan algoritma pembelajaran rambatan balik, sistem jaringan syaraf kabur dapat mengidentifikasi aturan-aturan kabur dan melatih
fungsi
keanggotaan dari penalaran kabur tersebut. Sistem jaringan syaraf kabur berupa jaringan dengan banyak lapisan yang digunakan untuk menentukan relasi masukan-keluaran pada sistem kabur. Biasanya, sebuah arsitektur jaringan syaraf kabur memiliki lima sampai enam lapisan neuron. Arsitektur ANFIS menerapkan model Takagi Sugeno Kang (TSK) yang mempartisi ruang masukan menggunakan fungsi keanggotaan yang terdiferensial. Baik model TSK maupun fungsi keanggotaan terdiferensial umum digunakan dalam arsitektur jaringan syaraf kabur. Syarat untuk menerapkan pembelajaran rambatan balik terhadap jaringan syaraf umpanbalik adalah bahwa fungsi yang digunakan merupakan fungsi yang terdiferensial. Ada dua cara untuk menyesuaikan bobot menggunakan rambatan balik. Pendekatan pertama menyesuaikan bobot berdasarkan sinyal galat dari sepasang masukan-keluaran dalam data pelatihan. Pendekatan ini disebut “Cara Pola” pembelajaran rambatan balik. Pendekatan kedua, dikenal sebagai “Cara
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 100
Kelompok” pembelajaran rambatan balik, menyesuaikan bobot berdasarkan sinyal galat dari keseluruhan himpunan pelatihan. Cara pola lebih disukai daripada cara kelompok karena cara pola membutuhkan lebih sedikit tempat penyimpanan untuk memperbaharui tiap parameter. Sebaliknya, pembelajaran cara kelompok memberikan estimasi gradien yang lebih tepat. Model kabur yang digunakan untuk menunjukkan bagaimana algoritma rambatan balik digunakan untuk mengestimasi parameter-parameter suatu model kabur adalah model kabur yang memiliki konsukuen konstanta, dan fungsi-fungsi keanggotaan anteseden adalah fungsi Gauss. Untuk menentukan struktur (terutama jumlah kaidah kabur yang membentuk dasar model) dan parameterparameter model secara terintegrasi, digunakan algoritma rambatan balik yang dikombinasikan dengan DNS dengan algoritma pivot kolom.
PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI 101
Daftar Pustaka: Czogała, Ernest and Jacek Łęski. (2000). Fuzzy and Neuro Fuzzy Intelligent Systems. New York: Physica–Verlag Heidelberg Fullѐr, Robert. (2000). Introduction to Neuro-Fuzzy Systems. New York: Physica–Verlag Jang, J. S. R, C. T Sun and E. Mizutani. (1997). Neuro-Fuzzy and Soft Computing. London: Prentice Hall. Kusumadewi, Sri dan Sri Hartati. (2006). Neuro-Fuzzy. Yogyakarta: Graha Ilmu. Lin, Chin-Teng and C. S. George Lee. (1996). Neural Fuzzy Systems. London: Prentice Hall. Siang, J. J. (2005). Jaringan Syaraf Tiruan dan Pemrogramannya Menggunakan MATLAB. Yogyakarta: ANDI. Susilo, Frans. (2006). Himpunan & Logika Kabur serta Aplikasinya. Yogyakarta: Graha Ilmu Yen, J. and Langari, R. (1999). Fuzzy Logic, Intelligence, Control, and Information. Upper Saddle River, NJ: Prentice Hall.