KATA PENGANTAR
Puji dan syukur kehadirat Tuhan Yang Maha Esa atas segala berkat dan lindunganNya sehingga buku yang berjudul 15 Metode Menyelesaikan Data Mining, Sistem Pakar dan Sistem Pendukung Keputusan ini dapat saya selesaikan dengan tuntas setelah melewati masa-masa yang cukup melelahkan kurang lebih 14 bulan dengan menelusuri beberapa referensi dari jurnal, internet, buku dan artikel-artikel lainnya. Buku 15 Metode Menyelesaikan Data Mining, Sistem Pakar dan Sistem Pendukung Keputusan ini ditujukan khusus untuk mahasiswa dan tidak tertutup kemungkinan juga para masyarakat awam yang ingin memahami cara membangun system berbasis artificial intelligence. Karena memang sengaja disusun lengkap dengan contoh-contoh dan latihan sehingga benar-benar para pembaca mudah memahami dan mampu mengimplementasikannya. Kalangan mahasiswa sering terkendala dengan metode-metode yang berhubungan dengan Data Mining, Sistem Pakar dan Sistem Pendukung Keputusan, dalam buku ini penulis membahas 15 metode sehingga antar metode dapat diimplementasikan ke dalam Data Mining, Sistem Pakar dan Sistem Pendukung Keputusan. Melalui kata pengantar ini, penulis ingin mengucapkan trimakasih yang sebesarbesarnya kepada Yayasan Teknologi Informasi Mutiara dan STMIK Kaputama serta seluruh civitas akademika STMIK KAPUTAMA Binjai yang turut serta membantu dari segi doa dan motivasi hingga selesainya buku ini, dan persembahan khusus buku ini kepada Triple-R Buaton Junior (Randhy, Richard, Rachel) dan istri tercinta Dewi Sartika. Akhir kata semoga buku ini bermanfaat bagi kita semua Medan 2014
Sistem Pakar
85
Penulis DAFTAR ISI Kata Pengantar Daftar Isi BAB 1 : Pendahuluan BAB 2 : DATA MINING 2.1. Pengertian Data Mining 2.2.1. Data Warehouse 2.2.2. Proses Data Mining 2.2.3. Teknik Data Mining 2.2. Metode Rough Set 2.2.1. Pengantar Rough Set 2.2.2. Discernibility Matrix 2.2.3. Discernibility Matrix Modulo D 2.2.4. Reduct 2.2.5. Generating Rules 2.3. Metode Association Rules 2.3.1. Pengantar Association Rules 2.3.2. Terminologi Association Rule 2.3.3. Langkah-Langkah Algoritma PadaAssociation Rule 2.4.Metode Clustering 2.4.1. Pengantar Clustering 2.4.2. Algoritma K-Means 2.5. Artificial Neural Networ(ANN) 2.5.1. Pengantar Jaringan syaraf Tiruan 2.5.2. Perceptron 2.5.3. BACK PROPAGATION(Perambatan Galat Mundur) 2.5.3.1. Pengantar Back Propagation 2.6. Decision Tree(Pohon Keputusan) 2.6.1. Pengantar Decision Tree 2.6.2. AlgoritmaID3 BAB 3 : SISTEM PAKAR 3.1. Sekilar Tentang Artificial Inteligence 3.1.1. Pengertian Sistem Pakar 3.1.2. Konsep Dasar Sistem Pakar 3.1.3. Ciri-Ciri Sistem Pakar 3.1.4. Struktur Sistem Pakar 3.1.5. Keuntungan Sistem Pakar 3.1.6. Representasi pengetahuan 3.1.7. Model Representasi Pengetahuan 3.1.8. Inferensi 3.2. Metode Bayes
Sistem Pakar
86
3.2.1. Prior 3.2.1. Posterior 3.2.3. Penerapan Metode Bayes 3.3. Fuzzy Sistem 3.3.1 Fuzziness dan Probabilitas 3.3.2 Fuzzy Set 3.3.3 Fuzzy logic 3.4. Certainty Factor 3.4.1. Pengertian Faktor Kepastian ( Certainty Factor ) 3.4.2. Perhitungan Certainty Factor BAB 4: SISTEM PENDUKUNG KEPUTUSAN 4.1. Fuzzy Multiple Attribute Decision Making (FMADM) 4.1.1. Sistem Pendukung Keputusan 4.1.2. Ciri-ciri Decision Support System (DSS) 4.1.3. Karakteristik, Kemampuan dan Keterbatasan SPK 4.1.4. Komponen - Komponen Sistem Pendukung Keputusan 4.1.5. Tahapan Proses Pengambilan Keputusan 4.2. Metode Analytical Hierarchy Process (AHP) 4.2.1 Kelebihan AHP 4.2.2 Prinsip - Prinsip Analytical Hierarchy Process 4.2.3 Langkah-Langkah Analytical Hierarchy Process 4.2.4. Contoh Kasus Dengan Metode AHP 4.3.Metode TOPSIS( Technique For Order Preference by Similarity to 4.3.1. Langkah-langkah metode TOPSIS 4.3.2. Contoh Penerapan Metode Topsis 4.4.Metode Weighted Product (WP) 4.4.1. Contoh Kasus Dengan Metode WP 4.5. Metode Simple Additive Weighting (SAW) 4.5.1. Analisis Pemecahan Masalah dengan Metode SAW 4.5.2. Studi Kasus Daftar Pustaka
Sistem Pakar
87
MOTTO Jangan Pernah Berhenti Untuk Belajar
Sistem Pakar
88
Tentang Penulis Relita Buaton, ST, M. Kom, lahir pada tahun 1979 yang selalu mendapat prestasi baik sejak SD, SMP, SMA hingg jenjang Perguruan Tinggi. Gelar ST diraih di ISTP(Institut Sains dan Teknologi TD. Pardede) pada tahun 2004 di Medan, Gelar M. Kom diraih di UPI (Universitas Putra Indonesia) di Padang tahun 2010. Berbagai pengalaman dan pekerjaan telah didapat sebagai EDP Staff, IT Manager di beberapa perusahaan swasta di Kota Medan, Sejak tahun 2006 mengabdi sebagai dosen di beberapa PTS Medan, dan tahun 2009 sebagai dosen tetap di STMIK Kaputama Binjai sampai saat ini Penulis
gemar
pada
beberapa
cabang
ilmu
computer
diantaranya,
pemrograman(desktop maupun web base), Artificial Inteligence, Expert System dan
Data
Mining.
Kontak
dengan
[email protected]
Sistem Pakar
89
penulis
dapat
melalui
BAB I PENGANTAR
Buku ini terdiri dari 4 bab, yang terdiri dari Data Mining, Sistem Pakar dan Sistem Pendukung Keputusan, berikut akan dijelaskan gambaran bab demi bab
Bab I pengantar
Bab II tentang data mining mencakup a. Konsep data mining b. Metode Rough Set c. Apriori d. Clustering e. Perceptro f. Back Propagation g. Decision Tree Data mining merupakan serangkaian proses untuk menggali nilai tambah dari suatu kumpulan data berupa pengetahuan yang selama ini tidak diketahui secara manual dari suatu kumpulan data. Defenisi lain data mining adalah sebagai proses untuk mendapatkan informasi yang berguna dari gudang basis data yang besar. Data mining juga diartikan sebagai pengekstrakan informasi baru yang diambil dari bongkahan data besar yang membantu dalam pengambilan keputusan. Istilah data mining kadang disebut juga knowledge discovery. Istilah data mining dan Knowledge Discovery in Database (KDD) sering kali digunakan secara bergantian untuk menjelaskan proses penggalian informasi tersembunyi dalam suatu basis data yang besar. Sebenarnya kedua istilah tersebut memiliki konsep yang berbeda,
Sistem Pakar
90
tetapi berkaitan satu sama lain. KDD adalah kegiatan yang meliputi pengumpulan, pemakaian data, historis untuk menemukan keteraturan, pola atau hubungan dalam set data yang berukuran besar
Data mining didefinisikan sebagai proses menemukan pola-pola dalam data. Pola yang ditemukan harus penuh arti dan pola tersebut memberikan keuntungan. Karakteristik data mining sebagai berikut 1. Data mining berhubungan dengan penemuan sesuatu yang tersembunyi dan pola data tertentu yang tidak diketahui sebelumnya. 2. Data mining biasa menggunakan data yang sangat besar. Biasanya data yang besar digunakan untuk membuat hasil lebih dipercaya. 3. Association rule mining adalah teknik mining untuk menemukan aturan assosiatif antara suatu kombinasi item. Contoh dari aturan assosiatif dari analisa pembelian di suatu pasar swalayan adalah bisa diketahui berapa besar kemungkinan seorang pelanggan membeli roti bersamaan dengan susu. Dengan pengetahuan tersebut, pemilik pasar swalayan dapat mengatur penempatan barangnya atau merancang kampanye pemasaran dengan memakai kupon diskon untuk kombinasi barang tertentu. Penting tidaknya suatu aturan assosiatif dapat diketahui dengan dua parameter, support yaitu persentase kombinasi item tersebut dalam database dan confidence yaitu kuatnya hubungan antar item dalam aturan assosiatif. 4. Classification adalah proses untuk menemukan model atau fungsi yang menjelaskan atau membedakan konsep atau kelas data, dengan tujuan untuk dapat memperkirakan kelas dari suatu objek yang labelnya tidak diketahui. 5. Decision tree adalah salah satu metode classification yang paling populer karena mudah untuk diinterpretasi oleh manusia. Setiap percabangan menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon menyatakan kelas data. Algoritma decision tree yang paling terkenal adalah C4.5, tetapi akhir-akhir ini telah dikembangkan algoritma yang
Sistem Pakar
91
mampu menangani data skala besar yang tidak dapat ditampung di main memory seperti RainForest. 6. Clustering Berbeda dengan association rule dan classification dimana kelas data telah ditentukan sebelumnya, clustering melakukan pengelompokan data tanpa berdasarkan kelas data tertentu. Bahkan clustering dapat dipakai untuk memberikan label pada kelas data yang belum diketahui itu. Karena itu clustering sering digolongkan sebagai metode unsupervised learning. Prinsip clustering adalah memaksimalkan kesamaan antar anggota satu kelas dan meminimumkan kesamaan antar kelas/cluster. Clustering dapat dilakukan pada data yang
memiliki beberapa atribut yang dipetakan
sebagai ruang multidimensi. 7. Neural Network Merupakan pendekatan perhitungan yang melibatkan pengembangan struktur secara matematis dengan kemampuan untukbelajar dan mampu menurunkan pengertian dari data yang kompleks dan tidak jelas dan dapat digunakan pula untuk mengekstrak pola dan mendeteksi trend-trend yang sangat kompleks untuk dibicarakan baik oleh manusia maupun teknik komputer lainnya. Jaringan syaraf buatan yang terlatih dapat dianggap sebagai pakar dalam kategori informasi yang akan dianalisis. Pakar ini dapatbdigunakan untuk memproyeksi situasi baru dari ketertarikan informasi
Dengan memahami bab 2, maka dapat memecahkah masalah yang berhubungan dengan tumpukan data, sehingga mampu mendapatkan informasi atau pengetahuan baru sekumpulan atau tumpukan data. Untuk memahami metodemetode yang terdapat dalam data mining, penulis membuat beberapa contoh untuk memahami perhitungan secara matematis Kalangan mahasiswa terkadang mengalami kesulitan dalam memilihi metode untuk penelitian, pada bab 2 penulis juga menjelaskan saat kapan metode terdebut digunakan sesuai data.
Sistem Pakar
92
Bab III tentang Sistem pakar, mencakup a. Konsep system pakar b. Backward Chaining c. Forward Chaining d. Metode Fuzzy Logic e. Certainty factor f. Metode Bayes
Sistem Pakar ( Expert System ) adalah sistem yang berusaha mengadopsi pengetahuan manusia ke komputer, agar komputer dapat menyelesaikan masalah seperti biasa yang dilakukan para ahli Sistem pakar (expert system) mulai dikembangkan pada pertengahan tahun 1960-an oleh Artificial Intelligence Corporation. Sistem pakar yang muncul pertama kali adalah General-purpose Problem Solver (GPS) yang merupakan sebuah predecessor untuk menyusun langkah-langkah yang dibutuhkan untuk mengubah situasi awal menjadi state tujuan yang telah ditentukan sebelumnya dengan menggunakan domain masalah yang kompleks. Sistem pakar dapat diterapkan untuk persoalan di bidang industri, pertanian, bisni, kedokteran, militer, komunikasi dan transportasi, pariwisata, pendidikan, dan lain sebagainya. Permasalahan tersebut bersifat cukup kompleks dan terkadang tidak memiliki algoritma yang jelas di dalam pemecahannya, sehingga dibutuhkan kemampuan seorang atau beberapa ahli untuk mencari sistematika penyelesaiannya secara evolutif.
Sistem pakar disusun oleh dua bagian utama, yaitu: lingkungan pengembangan (consultation
(development environment)
environment) (Muhammad
dan
lingkungan
Arhami,
2005).
konsultasi Lingkungan
pengembangan sistem pakar digunakan untuk memasukkan pengetahuan pakar kedalam lingkungan sistem pakar, sedangkan lingkungan konsultasi digunakan oleh pengguna yang bukan pakar guna memperoleh pengetahuan pakar.
Sistem Pakar
93
Komponen-komponen yang terdapat dalam sistem pakar antara lain adalah sebagai berikut : 1. Antarmuka pengguna (user interface) User interface merupakan mekanisme yang digunakan oleh pengguna dan sistem pakr untuk berkomunikasi. Antarmuka menerima informasi dari pemakai dan mengubahnya kedalam bentuk yang dapat diterima oleh sistem. Pada bagian ini terjadi dialog antara program dan pemakai, yang memungkinkan sistem pakar menerima instruksi dan informasi (input) dari pemakai, juga memberikan informasi (output) kepada pemakai. 1. Basis Pengetahuan Basis pengetahuan berisi pengetahuan-pengetahuan dalam penyelesaian masalah dalam domain tertentu.Ada dua bentuk pendekatan basis pengetahuan yang sangat umum digunakan, yaitu : a) Penalaran berbasis aturan (Rule-Based Reasoning) Pengetahuan direpresentasikan dengan menggunakan aturan berbentuk : IFTHEN. Bentuk ini digunakan apabila memiliki sejumlah pengetahuan pakar pada suatu permasalahan tertentu, dan pakar dapat menyelesaikan masalah tersebut secara berurutan. b) Penalaran berbasis kasus (Case-Based Reasoning) Basis pengetahuan berisi solusi-solusi yang telah dicapai sebelumnya, kemudian akan diturunkan suatu solusi untuk keadaan yang terjadi sekarang. 3. Akuisisi Pengetahuan (knowledge acquisition) Akuisisi pengetahuan adalah akumulasi, transfer, dan transformasi keahlian dalam menyelesaikan masalah dari sumber pengetahuan kedalam program komputer. Dalam tahap ini knowledge engineer berusaha menyerap pengetahuan
untuk
selanjutnya
di
transfer
ke
dalam
basis
pengetahuan.Terdapat empat metode utama dalam akuisisi pengetahuan, yaitu: wawancara, analisis protocol, observasi pada pekerjaan pakar dan induksi aturan dari contoh.
Sistem Pakar
94
4. Mesin inferensi Mesin inferensi merupakan perangkat lunak yang melakukan penalaran dengan menggunakan pengetahuan yang ada untuk menghasilkan suatu kesimpulan atau hasil akhir. Dalam komponen ini dilakukan permodelan proses berfikir manusia. 5. Workplace Workplace merupakan area dari sekumpulan memori kerja yang digunakan untuk merekam hasil-hasil dan kesimpulan yang dicapai. Ada tiga tipe keputusan yang direkam, yaitu : a) Rencana : Bagaimana menghadapi masalah. b) Agenda : Aksi-aksi yang potensial yang sedang menunggu untuk eksekusi. c) Solusi : calon aksi yang akan dibangkitkan. 6. Fasilitas penjelasan Fasilitas penjelasan adalah komponen tambahan yang akan meningkatkan kemampuan sistem pakar. Komponen ini menggambarkan penalaran sistem kepada pemakai dengan cara menjawab pertanyaan-pertanyaan. 7. Perbaikan pengetahuan Pakar memiliki kemampuan untuk menganalisis dan meningkatkan kinerjanya serta kemampuan untuk belajar dan kinerjanya Sistem pakar merupakan program yang dapat menggantikan keberadaan seorang pakar. Alasan mendasar mengapa sistem pakar dikembangkan menggantikan seorang pakar adalah sebagai berikut : 1.
Dapat menyediakan kepakaran setiap waktu dan di berbagai lokasi.
2. Secara otomatis mengerjakan tugas-tugas rutin yang membutuhkan seorang pakar. 3. Seorang pakar akan pensiun atau pergi. 4. Menghadirkan atau menggunkan jasa seorang pakar memerlukan biaya yang mahal. 5. Kepakaran dibutuhkan juga pada lingkungan yang tidak bersahabat (hostile environment).
Sistem Pakar
95
Dengan memahami bab 3 yaitu tentang system pakar, para pembaca diharapkan mampu menerapkan metode-metode tersebut untuk membangun system pakar maupun memahami perhitungan secara matematis
Bab IV tentang Sistem Pendukung Keputusan, mencakup a. Konsep system pendukung keputusan b. MADM c. AHP d. SAW e. WP f. TOPSIS
Fuzzy Multiple Attribute Decision Making (FMADM) adalah suatu metode yang digunakan untuk mencari alternatif optimal dari sejumlah alternatif dengan kriteria tertentu. Inti dari FMADM adalah menentukan nilai bobot untuk setiap atribut, kemudian dilanjutkan dengan proses perankingan yang akan menyeleksi alternatif yang sudah diberikan. Pada dasarnya, ada tiga pendekatan untuk mencari nilai bobot atribut, yaitu pendekatan subyektif, pendekatan obyektif dan pendekatan integrasi antara subyektif & obyektif. Masing-masing pendekatan memiliki kelebihan dan kelemahan. Pada pendekatan subyektif, nilai bobot ditentukan berdasarkan subyektifitas dari para pengambil keputusan, sehingga beberapa faktor dalam proses perankingan alternatif bisa ditentukan secara bebas. Sedangkan pada pendekatan obyektif, nilai bobot dihitung secara matematis sehingga mengabaikan subyektifitas dari pengambil keputusan
Sistem Pendukung Keputusan adalah suatu sistem informasi bebasis komputer yang menghasilkan berbagai alternatif keputusan untuk membantu manajemen dalam menangani berbagai permasalahan yang terstruktur ataupun tidak terstruktur dengan menggunakan data dan model. Kata berbasis komputer merupakan kata kunci, karena hampir tidak mungkin membangun SPK tanpa
Sistem Pakar
96
memanfaatkan komputer sebagai alat bantu, terutama untuk menyimpan data serta mengelola model
a. Karakteristik DSS 1. Mendukung seluruh kegiatan organisasi 2. Mendukung beberapa keputusan yang saling berinteraksi 3. Dapat digunakan berulang kali dan bersifat konstan 4. Terdapat dua komponen utama, yaitu data dan model 5. Menggunakan baik data eksternal dan internal 6. Memiliki kemampuan what-if analysis dan goal seeking analysis 7. Menggunakan beberapa model kuantitatif b. Kemampuan DSS 1. Menunjang pembuatan keputusan manajemen dalam menangani masalah semi terstruktur dan tidak terstruktur 2. Membantu manajer pada berbagai tingkatan manajemen, mulai dari manajemen tingkat atas sampai manajemen tingkat bawah 3. Menunjang pembuatan keputusan secara kelompok maupun perorangan 4. Menunjang pembuatan keputusan yang saling bergantung dan berurutan 5. Menunjang tahap-tahap pembuatan keputusan antara lain intelligensi, desain, choice, dan implementation 6. Menunjang berbagai bentuk proses pembuatan keputusan dan jenis keputusan 7. Kemampuan untuk melakukan adaptasi setiap saat dan bersifat fleksibel 8. Kemudahan melakukan interaksi system
Sistem Pakar
97
9. Meningkatkan efektivitas dalam pembuatan keputusan daripada efisiensi 10. Mudah dikembangkan oleh pemakai akhi 11. Kemampuan pemodelan dan analisis pembuatan keputusan 12. Kemudahan melakukan pengaksesan berbagai sumber dan format data Di samping berbagai Karakteristik dan Kemampuan seperti dikemukakan di atas, SPK juga memiliki beberapa keterbatasan, diantaranya adalah 1. Ada beberapa kemampuan manajemen dan bakat manusia yang tidak dapat dimodelkan, sehingga model yang ada dalam sistem tidak semuanya mencerminkan persoalan sebenarnya. 2. Kemampuan suatu SPK terbatas pada pembendaharaan pengetahuan yang dimilikinya (pengetahuan dasar serta model dasar). 3. Proses-proses yang dapat dilakukan oleh SPK biasanya tergantung juga pada kemampuan perangkat lunak yang digunakannya. 4. SPK tidak memiliki kemampuan intuisi seperti yang dimiliki oleh manusia. Karena walau bagaimana pun canggihnya suatu SPK, hanyalah sautu kumpulan perangkat keras, perangakat lunak dan sistem operasi yang tidak dilengkapi dengan kemampuan berpikir.
Dengan membaca bab 4 yakni tentang system pendukung keputusan, pembaca mampu membangun system pendukung keputusan, yan tentu konsepnya berbeda dengan data mining dan system pendukung keputusan
Buku ini juga disertai dengan beberapa contoh kasus, dimana kasus tersebut diambil dari pengalaman penulis dalam beberap jurnal yang penulis buat dan sedang proses penerbitan
Sistem Pakar
98
BAB II DATA MINING
2.1. Pengertian Data Mining Sebelum membahas lebih jauh tentang data mining, mari kita simak terlebih dahulu pengalaman 2 orang mahasiswa pasca sarjana di Curtin University of Tecnology berikut ini(Yudho, 2003) ”Ketika saya mengikuti program orientasi mahasiswa baru pasca sarjana di Curtin University of Technology, saya berkenalan dengan seorang mahasiswi asal Australia. Dia mengambil program Master di bidang Jaringan Komputer dan telah menyandang gelar MCSE (Microsoft Certified Systems Engineer), lalu dia bertanya pada saya, “Apa topik penelitian Anda?”, saya menjawab
“Data Mining”. Dia kemudian
memberi komentar kepada saya, “Oh…. itu bagus sekali…. Anda tepat sekali mengambil topik itu disini, karena kita punya pertambangan emas yang besar sekali di Kalgoorlie (Kalgoorlie berada 600 km di sebelah timur Perth dan Curtin University mempunyai cabang kampus disana)”. Data Mining memang salah satu cabang ilmu komputer yang relatif baru. Dan sampai sekarang orang masih memperdebatkan untuk menempatkan data mining di bidang ilmu mana, karena data mining menyangkut database, kecerdasan buatan (artificial intelligence), statistik, dsb. Ada pihak yang berpendapat bahwa data mining tidak lebih dari machine learning atau analisa statistik yang berjalan di atas database. Namun pihak lain berpendapat bahwa database berperanan penting di data mining karena data mining mengakses data yang ukurannya besar (bisa sampai terabyte) dan disini terlihat peran penting database terutama dalam optimisasi querynya. Lalu apakah data mining itu? Apakah memang berhubungan erat
Sistem Pakar
99
dengan dunia pertambangan, tambang emas, tambang timah, dsb. Definisi sederhana dari data mining adalah ekstraksi informasi atau pola yang penting atau menarik dari data yang ada di database yang besar. Dalam jurnal ilmiah, data mining juga dikenal dengan nama Knowledge Discovery in Databases (KDD)”
Kutipan di atas menceritakan 2 orang mahasiswa yang memiliki perbedaan persfektif dan pemahaman terkait dengan data mining, ketika dia mengatakan topik penelitiannya tentang data mining, dan temannya beranggapan bahwa data mining itu berarti penggalian atau penambangan(emas, timah, dll), sehingga dia mengatakan , oh itu bagus sekali karena kita punya pertambangan emas yang besar sekali di Kalgoorlie, mungkin kata “mining” diasumsikan sama dengan penambangan atau penggalian emas atau timah. Setiap hari, bulan atau tahun data transaksi di perusahaan, perguruan tinggi, swalayan atau instansi lainnya terakumulasi dalam jumlah yang besar. Jika dalam satu hari ada 200 transaksi, maka dalam setahun kurang lebih sekitar 72.000 transaksi. Kemudian berapa transaksi jika data itu diakumulasikan untuk 10 tahun. Pertanyaannya setelah data itu selesai digunakan setiap bulannya, untuk apa data itu disimpan? apakah dibuang, atau disimpan begitu saja hingga menjadi gunung data? Kalau disimpan terus menerus tentu membutuhkan biaya untuk penambahan kapasitas memori penyimpanan dan biaya perawatan. Solusi terbaik adalah dengan membuang data, tetapi sebelum data itu dimusnahkan maka data tersebut digali terlebih dahulu untuk mendapatkan pengetahuan baru, informasi baru yang sangat berarti dengan menggunakan teknik data mining. Data mining merupakan serangkaian proses untuk menggali nilai tambah dari suatu kumpulan data berupa pengetahuan yang selama ini tidak diketahui secara manual dari suatu kumpulan data. Defenisi lain data mining adalah sebagai proses untuk mendapatkan informasi yang berguna dari gudang basis data yang besar. Data mining juga diartikan sebagai pengekstrakan informasi baru yang diambil dari bongkahan data besar yang membantu dalam pengambilan
Sistem Pakar
100
keputusan. Istilah data mining kadang disebut juga knowledge discovery (Eko Prasetyo, 2012). Istilah data mining dan Knowledge Discovery in Database (KDD) sering kali digunakan secara bergantian untuk menjelaskan proses penggalian informasi tersembunyi dalam suatu basis data yang besar. Sebenarnya kedua istilah tersebut memiliki konsep yang berbeda, tetapi berkaitan satu sama lain. KDD adalah kegiatan yang meliputi pengumpulan, pemakaian data, historis untuk menemukan keteraturan, pola atau hubungan dalam set data yang berukuran besar (Budi Santoso , 2007a). Data mining didefinisikan sebagai proses menemukan pola-pola dalam data. Pola yang ditemukan harus penuh arti dan pola tersebut memberikan keuntungan. Karakteristik data mining sebagai berikut 8. Data mining berhubungan dengan penemuan sesuatu yang tersembunyi dan pola data tertentu yang tidak diketahui sebelumnya. 9. Data mining biasa menggunakan data yang sangat besar. Biasanya data yang besar digunakan untuk membuat hasil lebih dipercaya. Data mining berguna untuk membuat keputusan yang kritis, terutama dalam strategi (Davies, 2004), juga dapat digunakan untuk pengambilan keputusan di masa depan berdasarkan informasi yang diperoleh dari data masa lalu. Tergantung pada aplikasinya, data bisa berupa data mahasiswa, data pasien, data nasabah atau penjualan. Banyak kasus dalam kehidupan sehari-hari yang tanpa disadari bisa diselesaikan dengan data mining, diantaranya adalah 1. Memprediksi harga saham dalam beberapa bulan ke depan berdasarkan performansi perusahaan dan data-data ekonomi 2. Memprediksi berapa jumlah mahasiswa baru di perguruan tinggi berdasarkan data pendaftar pada tahun-tahun sebelumnya 3. Memprediksi nilai indeks prestasi mahasiswa berdasarkan nilai IP setiap semester sebelumnya 4. Produk apa yang akan dibeli pelanggan secara bersamaan jika membeli produk di swalayan
Sistem Pakar
101
5. Bagaimana mengetahui karakteristik nasabah yang kredit lancar atau macet dalam suatu perbankan atau finance 6. Mengelompokan customer berdasarkan minat, atau pola kebiasaan sehingga mempermudah menentukan target pemasaran 7. Dll. Tentu masih banyak lagi contoh-contoh dalam bidang lain atau kasus lain yang kaitannnya dengan penggalian data sehingga bisa menghasilkan pengetahuan baru dan informasi baru menjadi strategi dalam mengembangkan suatu bidang uasaha.
9.1.1. Data Warehouse Data warehouse merupakan kumpulan data dari berbagai sumber yang disimpan dalam suatu gudang data (repository) dalam kapasitas besar dan digunakan untuk proses pengambilan keputusan (Prabhu, 2007). Data warehouse menyatukan dan menggabungkan data dalam bentuk multidimensi. Pembangunan data warehouse meliputi pembersihan data, penyatuan data dan transformasi data dan dapat dilihat sebagai praproses yang penting untuk digunakan dalam data mining. Selain itu data warehouse mendukung On-line Analitycal Processing (OLAP), sebuah kakas yang digunakan untuk menganalisis secara interaktif dari bentuk multidimensi yang mempunyai data yang rinci. Sehingga dapat memfasilitasi secara efektif data generalization dan data mining. Banyak metodemetode data mining yang lain seperti asosiasi, klasifikasi, prediksi, dan clustering, dapat diintegrasikan dengan operasi OLAP untuk meningkatkan proses mining yang interaktif dari beberapa level dari abstraksi. Oleh karena itu data warehouse menjadi platform yang penting untuk data analisis dan OLAP untuk dapat menyediakan platform yang efektif untuk proses data mining. Menurut William Inmon, karakteristik dari data warehouse adalah sebagai berikut : 1. Subject oriented.
Sistem Pakar
102
Pada sistem operasional, data disimpan berdasarkan aplikasi. Set data hanya terdiri dari data yang dibutuhkan oleh fungsi yang terkait dan aplikasinya. Sedangkan pada data warehouse, data disimpan bukan berdasarkan aplikasi, melainkan berdasarkan subjeknya. Misalnya untuk sebuah perusahaan manufaktur subjek bisnis yang penting, yaitu penjualan, pengangkutan, dan penyimpanan barang. 2. Integrated. Data yang tersimpan dalam data warehouse terdiri dari berbagai system operasional. Oleh sebab itu terdapat kemungkinan bahwa terjadi beberapa perbedaan, yaitu dalam konvensi penamaan, representasi kode, atribut data dan pengukuran data. Keempat perbedaan tersebut harus disamakan terlebih dahulu sesuai dengan standar tertentu agar data yang nantinya tersimpan dalam data warehouse dapat terintegrasi. 3. Time variant. Pada data warehouse, data yang tersimpan adalah data historis dalam kurun waktu tertentu, bukan data terkini. Oleh karena itu data yang tersimpan mengandung keterangan waktu, misalnya tanggal, minggu, bulan, catur wulan,dan sebagainya. Karakteristik time variant pada data warehouse memiliki karakteristik sebagai berikut: a. Melakukan analisa terhadap hal di masa lalu. b. Mencari hubungan antara informasi dengan keadaan saat ini. c. Melakukan prediksi hal yang akan datang. 4. Non-volatile. Data dalam sistem operasional dapat di update sesuai transaksi bisnis. Setiap kali terjadi transaksi bisnis. Namun dalam data warehouse, data tidak dapat diubah karena bersifat read only. Arsitektur data warehouse (gambar 2.1) mencakup proses ETL (Extraction,Transformation, Loading) untuk memindahkan data dari operational data source dan sumber data eksternal lainnya ke dalam data warehouse . Data warehouse dapat dibagi menjadi beberapa data mart, berdasarkan fungsi bisnisnya (contoh: data mart untuk penjualan, pemasaran, dan keuangan). Data
Sistem Pakar
103
dalam data warehouse dan data mart diatur oleh satu atau lebih server yang mewakili multidimensional view dari data terhadap berbagai front end tool, seperti querytools, analysis tools, report writers, dan data mining tools.
Gambar 2.1 Arsitektur Data Warehouse (Prabhu, 2007)
2.1.2. Proses Data Mining Data mining merupakan rangkaian proses, data mining dapat dibagi menjadi beberapa tahap yang diilustrasikan di Gambar 2.2. Tahap-tahap tersebut bersifat interaktif, pemakai terlibat langsung atau dengan perantaraan knowledge base.
Sistem Pakar
104
Gambar 2.2. Tahapan Data Mining Karena data mining adalah suatu rangkaian proses, maka data mining dapat dibagi menjadi beberapa tahap seperti yang diilustrasikan pada gambar 2.2 1. Pembersihan data (membuang data yang tidak konsisten atau noise) Pembersihan data merupakan proses menghilangkan noise dan data yang tidak konsisten atau data tidak relevan. Pada umumnya data yang diperoleh, baik dari database suatu perusahaan maupun hasil eksperimen, memiliki isian-isian yang tidak sempurna seperti data yang hilang, data yang tidak valid atau juga hanya sekedar salah ketik 2. Integrasi data (penggabungan data dari beberapa sumber) Integrasi data merupakan penggabungan data dari berbagai database ke dalam satu database baru. Tidak jarang data yang diperlukan untuk data mining tidak hanya berasal dari satu database tetapi juga berasal dari beberapa database atau file teks. Integrasi data dilakukan pada atributaribut yang mengidentifikasikan entitas-entitas 3. Transformasi data (mengubah data menjadi bentuk lain) Data diubah atau digabung ke dalam format yang sesuai untuk diproses dalam data mining. Beberapa metode data mining membutuhkan format data yang khusus sebelum bisa diaplikasikan. Sebagai contoh beberapa metode standar seperti analisis asosiasi dan clustering hanya bisa menerima input data kategorikal. Oleh sebab itu data berupa angka/ numerik perlu dibagi-bagi menjadi beberapa interval. Proses ini sering disebut transformasi data 4. Aplikasi teknik data mining Merupakan suatu proses utama saat metode diterapkan untuk menemukan pengetahuan berharga dan tersembunyi dari data.
Sistem Pakar
105
5. Evaluasi dan Presentasi pengetahuan (dengan teknik visualisasi) Menyajikan pengetahuan mengenai metode yang digunakan untuk memperoleh pengetahuan yang diperoleh pengguna. Tahap terakhir dari proses data mining adalah bagaimana memformulasikan keputusan atau aksi dari hasil analisis yang didapat. Ada kalanya hal ini harus melibatkan orang-orang yang tidak memahami data mining. Karenanya presentasi hasil data mining dalam bentuk pengetahuan yang bisa dipahami semua orang adalah satu tahapan yang diperlukan dalam proses data mining
2.1.3. Teknik Data Mining Data mining berkaitan dengan bidang ilmu – ilmu lain, seperti database system, data warehousing, statistik, machine learning, information retrieval, dan komputasi tingkat tinggi. Selain itu, data mining didukung oleh ilmu lain seperti neural network, pengenalan pola, spatial data analysis, image database, signal processing. Pada dasarnya penggalian data dibedakan menjadi dua fungsionalitas, yaitu 1. Deskripsi memperoleh pola (correlation, trend,cluster, trajectory, anomaly) untuk menyimpulkan hubungan di dalam data 2. Prediksi memprediksikan nilai dari atribut tertentu berdasarkan nilai dari atribut lainnya. Atribut yang diprediksi dikenal sebagai target atau dependent variable, sedangkan atribut yang digunakan untuk membuat prediksi disebut penjelas atau independent variable Beberapa teknik yang sering terdapat dalam literatur data mining antara lain yaitu association rule mining, clustering, klasifikasi, neural network dan lainlain.
Sistem Pakar
106
a. Association rule mining adalah teknik mining untuk menemukan aturan assosiatif antara suatu kombinasi item. Contoh dari aturan assosiatif dari analisa pembelian di suatu pasar swalayan adalah bisa diketahui berapa besar kemungkinan seorang pelanggan membeli roti bersamaan dengan susu. Dengan pengetahuan tersebut, pemilik pasar swalayan dapat mengatur penempatan barangnya atau merancang kampanye pemasaran dengan memakai kupon diskon untuk kombinasi barang tertentu. Penting tidaknya suatu aturan assosiatif dapat diketahui dengan dua parameter, support yaitu persentase kombinasi item tersebut dalam database dan confidence yaitu kuatnya hubungan antar item dalam aturan assosiatif. b. Classification adalah proses untuk menemukan model atau fungsi yang menjelaskan atau membedakan konsep atau kelas data, dengan tujuan untuk dapat memperkirakan kelas dari suatu objek yang labelnya tidak diketahui. c. Decision tree adalah salah satu metode classification yang paling populer karena mudah untuk diinterpretasi oleh manusia. Setiap percabangan menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon menyatakan kelas data. Algoritma decision tree yang paling terkenal adalah C4.5, tetapi akhir-akhir ini telah dikembangkan algoritma yang mampu menangani data skala besar yang tidak dapat ditampung di main memory seperti RainForest. d. Clustering Berbeda dengan association rule dan classification dimana kelas data telah ditentukan sebelumnya, clustering melakukan pengelompokan data tanpa berdasarkan kelas data tertentu. Bahkan clustering dapat dipakai untuk memberikan label pada kelas data yang belum diketahui itu. Karena itu clustering sering digolongkan sebagai metode unsupervised learning. Prinsip clustering adalah memaksimalkan kesamaan antar anggota satu kelas dan meminimumkan kesamaan antar kelas/cluster. Clustering dapat dilakukan pada data yang
memiliki beberapa atribut yang dipetakan
sebagai ruang multidimensi.
Sistem Pakar
107
e. Neural Network Merupakan pendekatan perhitungan yang melibatkan pengembangan struktur secara matematis dengan kemampuan untukbelajar dan mampu menurunkan pengertian dari data yang kompleks dan tidak jelas dan dapat digunakan pula untuk mengekstrak pola dan mendeteksi trend-trend yang sangat kompleks untuk dibicarakan baik oleh manusia maupun teknik komputer lainnya. Jaringan syaraf buatan yang terlatih dapat dianggap sebagai pakar dalam kategori informasi yang akan dianalisis. Pakar ini dapatbdigunakan untuk memproyeksi situasi baru dari ketertarikan informasi
2.2. Metode Rough Set 2.2.1. Pengantar Rough Set Teori rough set adalah sebuah teknik matematik yang dikembangkan oleh Pawlack pada tahun 1980 (Chouchoulas, 1999). Rough Set salah satu teknik data mining yang digunakan untuk menangani masalah Uncertainty, Imprecision dan Vagueness dalam aplikasi Artificial Intelligence (AI). Rouh set merupakan teknik yang efisien untuk Knowledge Discovery in Database (KDD) dalam tahapan proses dan Data Mining. Secara umum, teori rough set telah digunakan dalam banyak aplikasi seperti medicine, pharmacology, business, banking, engineering design, image processing dan decision analysis. 1.
Representasi Data Dalam Rough Set
Rough set direpresentasikan dalam 2 elemen yakni Information Systems (IS) dan Decision Systems (DS). Information Systems (IS) adalah pasangan IS={U,A}, dimana
Sistem Pakar
108
U={e1, e2,…, em} dan A={a1, a2, …, an} merupakan sekumpulan example dan attribute kondisi secara berurutan. Definisi di atas memperlihatkan bahwa sebuah Information Systems terdiri dari sekumpulan example, seperti {e1, e2, …, em} dan attribute kondisi, seperti {a1, a2, …, an}. Sebuah Information Systems yang sederhana diberikan dalam tabel 2.1.
Tabel 2.1. Information Systems Example
Studies
Education
…..
Works
1
Poor
SMU
…..
Poor
2
Poor
SMU
…..
Good
3
Moderate
Diploma
…..
Poor
4
Moderate
MSc
…..
Poor
5
Poor
Diploma
…..
Good
6
Good
SMU
…..
Poor
7
Moderate
Diploma
…..
Poor
…
…
…
…..
…
…
…
…
…..
…
100
Good
MSc
…..
Good
Data di atas merupakan kumpulan data 100 orang dengan melihat tingkat pendapatan berdasarkan kriteria studies, education dan works . Dalam Information System,
tiap-tiap
baris
merepresentasikan
objek
sedangkan
column
merepresentasikan attribute yang terdiri dari m objek, U={e1, e2,…, em}: Example 1,2,3… A={a1, a2, …, an}: Studies, Education…Works Dalam banyak aplikasi, sebuah outcome / keputusan dari pengklasifikasian diketahui yang direpresentasikan dengan sebuah Decision Attribute, C={C 1, C2, …, Cp}. Maka Information Systems (IS) menjadi IS=(U,{A,C}). Decision Systems (DS) yang sederhana diperlihatkan pada table 2.2.
Sistem Pakar
109
Table 2.2. Sistem Informasi dan Keputusan Example
Studies
Education
…..
Works
Income (D)
1
Poor
SMU
…..
Poor
None
2
Poor
SMU
…..
Good
Low
3
Moderate
Diploma
…..
Poor
Low
4
Moderate
MSc
…..
Poor
Medium
5
Poor
Diploma
…..
Good
Medium
6
Good
SMU
…..
Poor
Low
7
Moderate
Diploma
…..
Poor
Medium
…
…
…
…..
…
…
…
…
…
…..
…
…
100
Good
MSc
…..
Good
High
Tabel 2.2. memperlihatkan sebuah Decision Systems yang sederhana, terdiri dari m objek, seperti E1, E2, …, Em, dan n attribute, seperti Studies, Education, …, Works dan Income (D). Dalam tabel ini, n-1 attribute, Studies, Education, …, Works, adalah attribute kondisi, sedangkan Income adalah decision attribute. 2. Equivalence Class Equivalence class adalah mengelompokan objek-objek yang sama untuk attribute A (U, A). Diberikan Decision Systems pada table 2.2, dapat memperoleh equivalence class (EC1-EC5) seperti digambarkan pada tabel-2.3 Tabel 2.3. Equivalen Class Class
Studies
Education
Works
Income
Jumlah
EC1
Poor
SMU
Poor
None
50
EC2
Poor
SMU
Good
Low
5
EC3
Moderate
SMU
Poor
Low
30
EC4
Moderate
Diploma
Poor
Low
10
EC5,1
Good
MSc
Good
Medium
4
EC5,2
Good
MSc
Good
High
1
Sistem Pakar
110
Class EC5 adalah sebuah indeterminacy yang memberikan 2 (dua) keputusan yang berbeda. Situasi ini dapat ditangani dengan teknik data cleaning karena kelas EC5,2 hanya memiliki 1objek. Kolom yang paling kanan mengindikasikan jumlah objek yang ada dalam Decision System untuk class yang sama.Contoh dalam table 2.4 disederhanakan kedalam numerical representation untuk mempermudah pengolahan datanya, dengan transformasi atribut sebagai berikut. S tu d ie s : Poor
: 1
M o d e ra te
: 2
G ood
: 3
E d u c a tio n : SM U
: 2
D ip lo m a
: 3
M Sc
: 5
Tabel 2.4 memperlihatkan numerical representation dari equivalence class dari table 2.3 Tabel 2.4. Equivalen Class(Transformasi) Class
Studies
Education
Works
Income
Jumlah
EC1
1
2
3
1
50
EC2
1
2
1
2
5
EC3
2
2
3
2
30
EC4
2
3
3
2
10
EC5,1
3
5
1
3
4
EC5,2
3
5
1
4
1
2.2.4. Discernibility Matrix
Sistem Pakar
111
Diberikan sebuah IS A=(U,A) and B A, discernibility matrix dari A adalah MB, dimana tiap-tiap entry MB(I,j) tediri dari sekumpulan attribute yang berbeda antara objek Xi dan Xj. Bandingkan setiap class, bila ada perbedaan pada atribut class kemudian tuliskan pada table discerdibility matrix, sedangkan jika semua atribut sama maka tuliskan dengan tanda kali (X). Atribut dimodelkan dengan: Studies
:A
Education
:B
Works
:C
Contoh: EC1 dengan EC1, semua atribut sama sehingga hasilnya X(Baris 2 kolom 2), EC1 dengan EC2, terdapat perbedaan yaitu atribut works, sehingga pada table 2.5 baris 2 kolom 3 hasilnya C, begitu selanjutnya. Tabel 2.5 memperlihatkan discerniblity matrix dari table 2.4.
Table 2.5. Discernibility Matrix EC1
EC2
EC3
EC4
EC5
EC1
X
C
A
AB
ABC
EC2
C
X
AC
ABC
AB
EC3
A
AC
X
B
ABC
EC4
AB
ABC
B
X
ABC
EC5
ABC
AB
ABC
ABC
X
2.2.5. Discernibility Matrix Modulo D Diberikan sebuah DS A=(U,A{d{) dan subset dari attribute B A, discernibility matrix modulo D dari A, MBd, didefinisikan seperti berikut dimana MB(I,j)
Sistem Pakar
112
adalah sekumpulan attribute yan berbeda antara objek Xi dan Xj dan juga berbeda attribute keputusan. Berdasarkan table 2.5, bandingkan setiap class berdasarkan decision/keputusan, jika keputusan(income) sama maka tuliskan tanda kali(X), jika income berbeda tuliskan perbedaan atributnya berdasarkan table 2.5. Contoh EC3 dengan EC2 income sama sehingga hasilnya : X (baris 4 kolom 3) Table 2.6. Discernibility Matrix Modulo D EC1
EC2
EC3
EC4
EC5
EC1
X
C
A
AB
ABC
EC2
C
X
X
X
AB
EC3
A
X
X
X
ABC
EC4
AB
X
X
X
ABC
EC5
ABC
AB
ABC
ABC
X
2.2.6. Reduct Reduct adalah penyeleksian attribut minimal (interesting attribute) dari sekumpulan attribut kondisi dengan menggunakan Prime Implicant
fungsi
Boolean. Kumpulan dari semua Prime Implicant mendeterminasikan sets of reduct. Discernibility matrix modulo D pada table 2.6 dapat ditulis sebagai formula CNF seperti diperlihatkan pada table 2.7. Gunakan aljabar Boolean untuk mencari prime implicant A+1=1+A=1 AA=A Class EC1 terdiri dari X,C,A,AB,ABC menjadi C^A^(AvB)^(AvBvC) =C^A^(AvB)^(AvBvC) =C^(AA+AB) ^(AvBvC) =C^(A+AB)^(AvBvC)
Sistem Pakar
113
=C^(A(1+B))^(AvBvC) =C^A^(AvBvC) =C^AA+AB+AC =C^A(1+B)+AC =C^A+AC =C^A(1+C) =C^A=A^C=AC Class EC2 terdiri dari C,X,X,X,AB menjadi C^(AvB) =AC+BC =AC,BC Class EC3 terdiri dari A,X,X,X,ABC menjadi A^(AvBvC) =AA+AB+AC =A(1+B)+AC =A+AC =A(1+C) =A Class EC4 terdiri dari AB,X,X,X,ABC menjadi (AvB)^(AvBvC) =AA+AB+AC+AB+BB+BC =A(1+B)+AC+AB+BB+BC =A+AC+AB+BB+BC =A(1+C)+AB+BB+BC
Sistem Pakar
114
=A+AB+BB+BC =A(1+B)+BB+BC =A+B(1+C) =A+B =A,B Calss
EC5
terdiri
dari
ABC,AB,ABC,ABC,X
(AvBvC)^(AvB)^(AvBvC)^(AvBvC) =(AvBvC)^(AvB)^(AvBvC)^(AvBvC) =AA+AB+AB+BB+AC+BC^(AvBvC)^(AvBvC) =A(1+B)+AB+BB+AC+BC^(AvBvC)^(AvBvC) =A+AB+BB+AC+BC^(AvBvC)^(AvBvC) =A(1+B)+BB+AC+BC^(AvBvC)^(AvBvC) =A+AC+BB+BC^(AvBvC)^(AvBvC) =A(1+C)+BB+BC^(AvBvC)^(AvBvC) =A+B(1+C)^(AvBvC)^(AvBvC) =A+B^(AvBvC)^(AvBvC) =B+A^(AvBvC)^(AvBvC) =B+AA+AB+AC^(AvBvC) =B+A(1+B)+AC^(AvBvC) =B+A+AC^(AvBvC) =B+A(1+C)^(AvBvC)
Sistem Pakar
115
menjadi
=B+A^(AvBvC) =B+AA+AB+AC =B+A(1+B)+AC =B+A+AC =B+A(1+C) =B+A=A,B Tabel 2.7. Reduce Class
CNF of Function Boolean
Prime Implicant
Reduce
EC1
C^A^(AvB)^(AvBvC)
A^C
{A,C}
EC2
C^(AvB)
C(AvB)
{A,C},{B,C}
EC3
A^(AvBvC)
A
{A}
EC4
(AvB)^(AvBvC)
AvB
{A},{B}
EC5
(AvBvC)^(AvB)
AvB
{A},{B}
2.2.7. Generating Rules Setelah mendapatkan reduce, maka dapat ditarik kesimpulan atau ditentukan rule dengan menyesuaikan reduce setiap equivalen class terhadap table 2.3(Equivalen Class). Contoh untuk EC1 reduce={A,C}. Pada table discerdibility matrix Studies dimodelkan dengan A, Education
: B dan Works : C, sehingga
rulenya adalah Jika studies=poor dan work=poor maka income=none. Berikut akan ditarik kesimpulan untuk semua kelas a. Class EC1 menghasilkan prime implicant {A,C}, Rulenya adalah 1. Jika studies=poor dan work=poor maka income=none b. Class EC2 menghasilkan prime implicant {AC},{BC}, Rulenya adalah
Sistem Pakar
116
2. Jika studies=poor dan work=good maka income=low 3. Jika education=SMU dan work=good maka income=low c. Class EC3 menghasilkan prime implicant {A}, Rulenya adalah 4. Jika studies=moderate maka income low d. Class EC4 menghasilkan prime implicant {A},{B}, Rulenya adalah 5. Jika studies=moderate maka income=low 6. Jika education=Diploma maka income=low e. Class EC5 menghasilkan prime implicant {A},{B}, Rulenya adalah 7. Jika studies=good maka income=moderate 8. Jika education=MSc maka income=moderate Dari 8 rule diatas dapat disimpulkan dengan menggunakan logika OR, menjadi 1. Jika studies=poor dan work=poor maka income=none 2. Jika (studies=poor dan work=good) atau(education=SMU dan work=good) atau studies=moderate ataueducation=Diploma maka income=low 3. Jika studies=good atau education=MSc maka income=moderate
2.3. Metode Association Rules 2.3.1. Pengantar Association Rules Analisis asosiasi atau association rule adalah teknik data mining untuk menemukan aturan assosiatif antara suatu kombinasi item. Aturan asosiasi merupakan pernyataan implikasi bentuk XY, dimana X dan Y adalah itemset yang lepas(disjoint)dan memenuhi persyaratan X ∩ Y={}(Eko Prasetyo, 2012), Sistem Pakar
117
Contoh aturan assosiatif dari analisa pembelian di suatu pasar swalayan adalah dapat diketahuinya berapa besar kemungkinan seorang pelanggan membeli gula bersamaan dengan susu. Dengan pengetahuan tersebut pemilik pasar swalayan dapat
mengatur
tata
letak
atau
penempatan
barang
dagangannya(Kantardzic,2003). Algoritma A Priori termasuk jenis aturan asosiasi pada data mining. Selain a priori, yang termasuk pada golongan ini adalah metode generalized rule induction dan algoritma hash based. Aturan yang menyatakan asosiasi antara beberapa atribut sering disebut affinity analysis atau market basket analysis. Analisis asosiasi menjadi terkenal karena aplikasinya untuk menganalisa isi keranjang belanja di pasar swalayan. Analisis asosiasi juga sering disebut dengan istilah market basket analysis. Analisis asosiasi dikenal juga sebagai salah satu teknik data mining yang menjadi dasar dari berbagai teknikdata mining lainnya. Khususnya salah satu tahap dari analisis asosiasi yang disebut analisis pola frequensi tinggi (frequent pattern mining) menarik perhatian banyak peneliti untuk menghasilkan algoritma yang efisien (Kantardzic, 2003). Penting tidaknya suatu aturan assosiatif dapat diketahui dengan dua parameter, support (nilai penunjang)yaitu persentase kombinasi item tersebut dalam database dan confidence (nilai kepastian) yaitu kuatnya hubungan antar item dalam aturan assosiatif. Nilai support untuk 2 item diperoleh dengan rumus Support(a ∩ b) =
Jumlah transaksi mengandung a dan b x 100% Total transaksi
Nilai confidence untuk 2 item diperoleh dengan rumus
Con idence
= p(b|a) =
Jumlah transaksi mengandung a dan b x 100% Total transaksi a
Aturan assosiatif biasanya dinyatakan dalam bentuk : {gula, kopi}{susu} (support = 60%, confidence = 50%) Yang artinya : "50% dari transaksi di database yang memuat item gula dan kopi juga memuat item susu. Sedangkan 60% dari seluruh transaksi yang ada di
Sistem Pakar
118
database memuat ketiga item itu." Dapat juga diartikan : "Seorang konsumen yang membeli gula dan susu mempunyai kemungkinan 50% untuk juga membeli susu. Aturan ini cukup signifikan karena mewakili 60% dari catatan transaksi selama ini." Analisis asosiasi didefinisikan suatu proses untuk menemukan semua aturan assosiatif yang memenuhi syarat minimum untuk support (minimum support) dan syarat minimum untuk confidence (minimumconfidence).
2.3.2. Terminologi Association Rule 1. I adalah himpunan yang tengah dibicarakan. Contoh:{Gula,Kopi,Susu, …,Mentega} 2. D adalah Himpunan seluruh transaksi yang tengah dibicarakan Contoh:{Transaksi 1, transaksi 2, …, transaksi n} 3. Proper Subset adalah Himpunan Bagian murni Contoh: -
Ada suatu himpunan A={a,b,c,}
-
Himpunan Kosong = {}
-
Himpunan 1 Unsur = {a},{b},{c}
-
Himpunan 2 Unsur = {a,b},{a,c},{b,c}
-
Himpunan 3 Unsur = {a,b,c,}
Proper subset nya adalah Himpunan 1 Unsur dan Himpunan 2 Unsur 4. Item set adalah Himpunan item atau item-item pada I Contoh: Ada suatu himpunan A={a,b,c,} Item set nya adalah{a};{b}:{c};{a,b};{a,c};{b,c} 5. K- item set adalah Item set yang terdiri dari K buah item yang ada pada I atau K adalah jumlah unsur yang terdapat pada suatu Himpunan Contoh:3-item set adalah yang bersifat 3 unsur 6. Item set Frekuensi adalah Jumlah transaksi di I yang mengandung jumlah item set tertentu. Intinya jumlah transaksi yang membeli suatu item set. Contoh:
Sistem Pakar
119
- frekuensi Item set yang sekaligus membeli susu dan roti adalah 3 - frekuensi item set yang membeli sekaligus membeli roti,susu dan kopi adalah 2 7. Frekuen Item Set adalah item set yang muncul sekurang-kurangnya sekian kali di D. Kata “sekian” biasanya di simbolkan dengan Ф. Ф merupakan batas minimum dalam suatu transaksi 8. Fk adalah Himpunan semua frekuen Item Set yang terdiri dari K item. 2.3.3. Langkah-Langkah Algoritma PadaAssociation Rule 1. Tentukan Ф 2. Tentukan semua Frekuen Item set 3. Untuk setiap Frekuen Item set lakukan hal sbb: 1.
Ambil sebuah unsur, namakanlah s
2.
Untuk sisanya namakanlah ss-s
3.
Masukkan unsur-unsur yang telah di umpamakan ke dalam rule If
(ss-s) then s Untuk langkah ke 3 lakukan untuk semua unsur. Contoh: Data Penjualan Transaksi
Item
1
Gula,Susu,Kopi
2
Roti,Susu,Mentega
3
Gula,Roti,Susu,Mentega
4
Roti,Mentega
Langkah 1: Pisahkan semua item Gula,Kopi,Susu,Roti, Mentega Langkah 2: Lakukan Transformasi Misalkan A:Gula, B:Roti, C:Susu, D:Kopi, E:Mentega, sehingga table data penjualan menjadi sbb Transaksi 1
Sistem Pakar
Item A,C,D
120
2
B,C,E
3
A,B,C,E
4
B,E
Langkah 3: Buat dalam matrix untuk menentukan jumlah item muncul dalam database Transaksi
A
B
C
D
E
1
1
0
1
1
0
2
0
1
1
0
1
3
1
1
1
0
1
4
0
1
0
0
1
Jumlah
2
3
3
1
3
Langkah 4: Tentukan frekuen item set(Ф), misalkan Ф =2 atau 50% Sesuai dengan frekuen item set yang telah ditentukan, maka item yang memenuhi adalah A,B,C,E, sedangkan D tidak termasuk karena hanya 1 kali muncul dalam database. Langkah 5: Tentukan item set a. 2 item set, merupakan kombinasi dari item yang memenuhi frekuen item set yaitu AB,AC,AE,BC,BE,CE b. Lakukan pengujian untuk calon 2 item set untuk mengetahui 2 item set yang memenuhi syarat sesuai frekuen item set yang telah ditentukan sebelumnya Item set AB Transaksi
A
B
Hasil
1
1
0
0
2
0
1
0
3
1
1
1
4
0
1
0
Total
1
Item set AC Transaksi
Sistem Pakar
A
C
121
Hasil
1
1
1
1
2
0
1
0
3
1
1
1
4
0
0
0
Total
2
Item set AE Transaksi
A
E
Hasil
1
1
0
0
2
0
1
0
3
1
1
1
4
0
1
0
Total
1
Item set BC Transaksi
B
C
Hasil
1
0
1
0
2
1
1
1
3
1
1
1
4
1
0
0
Total
2
Item set BE Transaksi
B
E
Hasil
1
0
0
0
2
1
1
1
3
1
1
1
4
1
1
1
Total
3
Item set CE
Sistem Pakar
Transaksi
C
E
Hasil
1
1
0
0
2
1
1
1
122
3
1
1
1
4
0
1
0
Total
2
Dari ke 6 calon 2 item set yang memenuhi syarat sesuai dengan frekuen item yaitu minimal 2 adalah AC,BC,BE,CE c. Tentukan 3 item set(bila diperlukan) Untuk menentukan calon 3 item set, merupakan kombinasi dari 2 item set yaitu dengan 2 item yang bersamaan, maka calon 3 item set adalah AC dengan BC: ABC AC dengan EC: AEC BC dengan EC: BCE d. Lakukan pengujian untuk calon 3 item set untuk mengetahui 3 item set yang memenuhi syarat sesuai frekuen item set yang telah ditentukan sebelumnya Item set ABC Transaksi
A
B
C
Hasil
1
1
0
1
0
2
0
1
1
0
3
1
1
1
1
4
0
1
0
0
Total
1
Item set AEC Transaksi
A
E
C
Hasil
1
1
0
1
0
2
0
1
1
0
3
1
1
1
1
4
0
1
0
0
Total
1
Item set BCE Transaksi
Sistem Pakar
B
C
123
E
Hasil
1
0
1
0
0
2
1
1
1
1
3
1
1
1
1
4
1
0
1
0
Total
2
Dari ke 3 calon 3 item set yang memenuhi syarat sesuai dengan frekuen item yaitu minimal 2 adalah BCE Langkah 6: Membuat rule Rule yang dipakai adalah if x then y, dimana x adalah antecendent dan y adalah consequent. Berdasarkanrule tersebut, maka dibutuhkan 2 buah item yang mana salah satunya sebagai antecedent dan sisanya sebagai consequent. Untuk antecedent boleh lebih dari 1 unsur, sedangkan untuk consequent terdiri dari 1unsur. a. Rule 2 item set (AC,BC,BE,CE) 1. If buy A then buy C 2. If buy C then buy A 3. If buy B then buy C 4. If buy C then buy B 5. If buy B then buy E 6. If buy E then buy B 7. If buy C then buy E 8. If buy E then buy C b. Rule 2 item set (BCE) 1. If buy B and C then buy E 2. If buy B and E then buy C 3. If buy C and E then Buy B
Langkah 7: hitung support dan confidence c. Kandidat association rule 2 item set Rule
Sistem Pakar
Support
124
Confidence
1. If buy A then buy C
2/4x100%=50%
2/2x100%=100% 2. If buy C then buy A
2/4x100%=50%
2/3x100%=75% 3. If buy B then buy C
2/4x100%=50%
2/3x100%=75% 4. If buy C then buy B
2/4x100%=50%
2/3x100%=75% 5. If buy B then buy E
3/4x100%=75%
3/3x100%=100% 6. If buy E then buy B
3/4x100%=75%
3/3x100%=100% 7. If buy C then buy E
2/4x100%=50%
2/3x100%=75% 8. If buy E then buy C
2/4x100%=50%
2/3x100%=75% d. Kandidat association rule 3 item set Rule
Support
1. If buy B and C then buy E
Confidence
2/4x100%=50%
2/2x100%=100% 2. If buy B and E then buy C
2/4x100%=50%
2/3x100%=68% 3. If buy C and E then Buy B
2/4x100%=50%
2/2x100%=100% Langkah 8: Lakukan perkalian support dan confidence, nilai paling tinggi itulah rule of the best sebagai rule association e. Untuk 2 item set, nilai paling tinggi adalah Rule 1.
If buy B then buy E
Support 3/4x100%=75%
3/3x100%=100%
Sistem Pakar
125
Confidence
2.
If buy E then buy B
3/4x100%=75%
3/3x100%=100% Jika membeli roti maka membeli mentega Jika membeli mentega maka memebeli roti f. Kandidat association rule 3 item set Rule
Support
4. If buy B and C then buy E
Confidence
2/4x100%=50%
2/2x100%=100% 5. If buy C and E then Buy B
2/4x100%=50%
2/2x100%=100%
2.4.Metode Clustering 2.4.1. Pengantar Clustering Kesamaan adalah dasar untuk mendefinisikan cluster , ukuran kesamaan antara dua pola yang diambil dari ruang fitur yang sama sangat penting di dalam algoritma clustering. Penentuan kesamaan sangat hati-hati karena kualitas proses pengelompokan tergantung pada keputusan ini(Kantardzic,2003). Custering
menganalisis
objek
data
yang digunakan untuk menghasilkan grup, grup tersebut didapatkan berdasarkan prinsip memaksimalkan kesamaan dalam kelas dan meminimalkan kesamaan antar kelas, artinya bahwa kelompok terbentuk sehingga objek dalam cluster memiliki kemiripan yang tinggi dibandingkan dengan yang lain, tetapi sangat berbeda dengan objek dalam cluster lain(Jiawei,2000). Salah satu metode yang diterapkan dalam KDD adalah clustering. Clustering adalah membagi data ke dalam grup‐grup yang mempunyai obyek dengan karakteristiknya sama. Clustering memegang peranan penting dalam aplikasi data mining,misalnya eksplorasi data ilmu pengetahuan, pengaksesan informasi dan textmining, aplikasi basis data spasial, dan analisis web. Clustering diterapkan dalam mesin pencari di Internet. Web mesin pencari akan mencari
Sistem Pakar
126
ratusan dokumen yang cocok dengan kata kunci yang dimasukkan. Dokumen dokumen tersebut dikelompokkan dalam cluster‐cluster sesuai dengan kata-kata yang digunakan(Sri Andayani, 2007). Pada dasarnya metode pengelompokan ada 2 yakni Hierarchical clustering method dan Non Hierarchical clustering method. Metode Hirarki digunakan jika jumlah kelompok tidak diketahui sebelumnya, sedangkan non hirarki digunakan jika jumlah kelompok sudah diketahui dari sejumlah objek. Salah satu algoritma yang termasuk dalam non hirarki adalah algoritma K-Means. Metode Hirarki memulai pengelompokan dengan dua atau lebih obyek yang mempunyai kesamaan paling dekat. Kemudian diteruskan pada obyek yang lain dan seterusnya hingga cluster akan membentuk semacam pohon dimana terdapat tingkatan (hirarki) yang jelas antar obyek, dari yang paling mirip hingga yang paling tidak mirip. Non Hirarki dimulai dengan menentukan terlebih dahulu jumlah cluster yang diinginkan (dua,tiga, atau yang lain). Setelah jumlah cluster ditentukan, maka proses cluster dilakukan dengan tanpa mengikuti proses hirarki
2.4.3. Algoritma K-Means Algoritma K‐Means adalah algoritma clustering yang popular dan banyak digunakan dalam dunia industri. Algoritma ini disusun atas dasar ide yang sederhana. Pada awalnya ditentukan berapa cluster yang akan dibentuk. Sebarang obyek atau elemen pertama dalam cluster dapat dipilih untuk dijadikan sebagai titik tengah (centroid point) cluster. Algoritma K‐Means selanjutnya akan melakukan pengulangan langkah‐langkah berikut sampai terjadi kestabilan (tidak ada obyek yang dapat dipindahkan). Konsep kesamaan adalah hal yang fundamental dalam analisis cluster. Kesamaan antar objek merupakan ukuran korespondensi antar objek. Ada tiga metode yang dapat diterapkan, yaitu ukuran korelasi, ukuran jarak, dan ukuran asosiasi. Dengan menggunakan ukuran jarak, ukuran kemiripan yang dapat digunakan adalah jarak dEeculidean dan dManhattan City. Jika objek pertama yang diamati adalah X=[X1,X2..Xp] dan Y=[Y1,Y2…Yp] antara 2 objek dari p dimensi maka
Sistem Pakar
127
dEculidean: ,
dManhattan: ,
=
=
∑ (
∑ |
−
−
)
|
Adapun pun langkah-langkahnya dengan menggunakan algoritma K-Means sebagai berikut 1.
Tentukan jumlah cluster
2.
Menentukan centroid(koordinat titik tengah setiap cluster), untuk iterasi pertama diambil secara random
3.
Menghitung jarak obyek ke centroid dengan menggunakan rumus jarakEuclidean atau Manhattan.
4.
Menentukan jarak setiap obyek terhadap koordinat titik tengah,
5.
mengelompokkan obyek‐obyek tersebut berdasarkan pada jarak terdekat
Berikut ditampilkan diagram alir dari algoritma K‐Means.
Sistem Pakar
128
Gambar 2.4. Algoritma K-Means Contoh: Mahasiswa
IPK
Alamat
Paijo
3,5
Siantar
Sarinem
2,9
Berastagi
Karsono
1,0
Tj. Morawa
Tukiman
1,8
Medan
ITERASI:I
Sistem Pakar
129
Langkah 1: lakukan transformasi, karena data harus dalam bentuk numeric sesuai dengan rumus kedekatan yang digunakan Distance Euqlidean
IPK
Mahasiswa
ALAMAT
IPK
Alamat
Paijo
5
4
Sarinem
4
3
Karsono
1
1
Tukiman
2
1
Langkah 2: tentukan grup(misalkan k=2) Langkah 3: Tentukan centroid, misalkan (C1:5,4|C2:4,3) Langkah 4: hitung objek terhadap centroid P(1,1)= (5 − 5) + (4 − 4) =0
P(1,1)= (5 − 4) + (4 − 3) =1,4 S(1,1)= (4 − 5) + (3 − 4) =1,4 S(1,1)= (4 − 4) + (3 − 3) =0
K(1,1)= (1 − 5) + (1 − 4) =5
Sistem Pakar
130
K(1,1)= (1 − 4) + (1 − 3) =3,6 T(1,1)= (2 − 5) + (1 − 4) =4,2 T(1,1)= (2 − 4) + (1 − 3) =2,8
Langkah 5: grupkan berdasarkan jarak terdekat Objek
IPK
Alamat
Jarak C1
Jarak C2
Grup
Paijo
5
4
0
1,4
1
Sarinem
4
3
1,4
0
2
Karsono
1
1
5
3,6
2
Tukiman
2
1
4,2
2,8
2
Grup baru : 1 2 2 2, iterasi pertama dianggap berpindah grup sehingga dilanjutkan ke iterasi ke 2, iterasi pertama belum ada grup karena centroid diambil secara acak ITERASI II Langkah 1 dan 2 sama dengan itetarsi ke 2 Langkah 3: Tentukan centroid Centroid I: 5|4 Centroid
II:
Tukiman=(
diambil )
)=2,3|=(
dari
grup
2
)
)=1,6
Langkah 4: hitung objek terhadap centroid P(1,1)= (5 − 5) + (4 − 4) =0
P(1,1)= (5 − 2,3) + (4 − 1,6) =3,6 S(1,1)= (4 − 5) + (3 − 4) =1,4
Sistem Pakar
131
yaitu
Sarinem,
Karsono
dan
S(1,1)= (4 − 2,3) + (3 − 1,6) =2,2 K(1,1)= (1 − 5) + (1 − 4) =5
K(1,1)= (1 − 2,3) + (1 − 1,6) =1,4 T(1,1)= (2 − 5) + (1 − 4) =4,2
T(1,1)= (2 − 2,3) + (1 − 1,6) =0,6
Langkah 5: grupkan berdasarkan jarak terdekat Objek
IPK
Alamat
Jarak C1
Jarak C2
Grup
Paijo
5
4
0
3,6
1
Sarinem
4
3
1,4
2,2
1
Karsono
1
1
5
1,4
2
Tukiman
2
1
4,2
0,6
2
Grup lama : 1 2 2 2 dan Grup baru : 1 1 2 2, terjadi perpindahan grup maka dilanjutkan iterasi berikutnya yaitu iterasi ke 3 ITERASI III Langkah 1 dan 2 sama dengan itetarsi ke 3 Langkah 3: Tentukan centroid Centroid I: diambil dari grup 1 yaitu Paijo dan Sarinem=(
)
)=4,5|=(
Centroid II: diambil dari grup 2 yaitu Karsono dan Tukiman=( Langkah 4: hitung objek terhadap centroid P(1,1)= (5 − 4,5) + (4 − 3,5) =0,7 P(1,1)= (5 − 1,5) + (4 − 1) =4,6 Sistem Pakar
132
)
)
)=3,5
)=1,5|=(
)
)=1
SP(1,1)= (4 − 4,5) + (3 − 3,5) =0,7 S(1,1)= (4 − 1,5) + (3 − 1) =3,2
KP(1,1)= (1 − 4,5) + (1 − 3,5) =4,3 K(1,1)= (1 − 1,5) + (1 − 1) =0,5
T(1,1)= (2 − 4,5) + (1 − 3,5) =3,5 T(1,1)= (2 − 1,5) + (1 − 1) =0,5
Langkah 5: grupkan berdasarkan jarak terdekat Objek
IPK
Alamat
Jarak C1
Jarak C2
Grup
Paijo
5
4
0,7
4,6
1
Sarinem
4
3
0,7
3,2
1
Karsono
1
1
4,3
0,5
2
Tukiman
2
1
3,5
0,5
2
Grup lama : 1 1 2 2 dan Grup baru : 1 1 2 2, tidak terjadi perpindahan grup maka stop dengan Centroid I: diambil dari grup 1 yaitu Paijo dan Sarinem=(
)
)=4,5|=(
Centroid II: diambil dari grup 2 yaitu Karsono dan Tukiman=( Secara grafik dapat digambarkan sebagai berikut
Sistem Pakar
133
)
)
)=3,5
)=1,5|=(
)
)=1
4,5 4
Alamat
3,5
Grup 1
3 2,5 2 1,5 1
Grup 2
0,5 0 0
1
2
3
4
5
6
IPK
Gambar 2.5. Hasil Clustering Dari gfarik di atas dapat ditarik kesimpulan Goup 1: IPK tinggi dan alamat jauh dari kampus Group 2: IPK rendah dan alamat dekat dengan kampus Sehingga disimpulkan mahasiswa yang rumahnya jauh dengan kampus akan memperoleh IPK tinggi
2.5. Artificial Neural Networ(ANN) 2.5.1. Pengantar Jaringan syaraf Tiruan Jaringan saraf tiruan (Artificial Nueral Network) atau disingkat JST adalah sistem komputasi dimana arsitektur dan operasi diilhami dari pengetahuan tentang sel saraf biologis di dalam otak manusia, yang merupakan salah satu representasi
Sistem Pakar
134
buatan dari otak manusia yang selalu mencoba menstimulasi proses pembelajaran pada otak manusia tersebut. Model saraf ditunjukkan dengan kemampuannya dalam emulasi, analisis, prediksi dan asosiasi. Kemampuan yang dimiliki JST dapat digunakan untuk belajar dan menghasilkan aturan atau operasi dari beberapa contoh atau input yang dimasukkan dan membuat prediksi tentang kemungkinan output yang akan muncul atau menyimpan karaktristik dari input yang disimpan kepadanya. Valluru B.Rao dan Hayagriva V.Rao (1993) mendefenisi jaringan saraf sebagai sebuah kelompok pengolahan elemen dalam suatu kelompok yang khusus membuat perhitungan sendiri dan memberikan hasilnya kepada kelompok kedua atau berikutnya. Setiap sub kelompok menurut gilirannya harus membuat perhitungan sendiri dan memberikan hasilnya untuk subgrup atau kelompok yang belum melakukan perhitungan. Pada akhirnya sebuah kelompok dari satu atau beberapa pengolahan elemen tersebut menghasilkan keluaran (output) dari jaringan. Setiap pengolahan elemen membuat perhitungan berdasarkan pada jumlah masukan (input). Sebuah kelompok pengolahan elemen disebut layer atau lapisan dalam jaringan. Lapisan pertama adalah input dan yang terakhir adalah output. Lapisan di antara lapisan input dan output disebut dengan lapisan tersembunyi (hidden layer). Jaringan saraf tiruan merupakan suatu bentuk arsitektur yang terdistribusi paralel dengan sejumlah besar node dan hubungan antar node tersebut. Tiap titik hubungan dari satu node ke node yang lain mempunyai harga yang diasosiasikan dengan bobot. Setiap node memiliki suatu nilai yang diasosiasikan sebagai nilai aktivasi node. Salah satu organisasi yang dikenal dan sering digunakan dalam paradigma jaringan saraf
buatan adalah perambatan Galat Mundur (back-propagation).
Sebelum dikenal adanya jaringan saraf perambatan Galat Mundur pada tahun 1950-1960-an,dikenal dua paradigma penting yang nantinya akan menjadi dasar dari saraf Perambatan Galat Mundur, yakni perceptron dan Adaline/Madaline
Sistem Pakar
135
(adaptive linier neuron/multilayer adaline). Dalam buku ini akan dibahas Perceptron dan Back Propagation( Arif Hermawan, 2006).
2.5.2. Perceptron Arsitektur pembelajaran perceptron yakni dengan mengenali pola dengan metode belajar terbimbing. Pola yang diklasifikasikan biasanya berupa bilangan biner (kombinasi 1 dan 0) dan kategori pengklasifikasian juga di wujudkan dalam bilangan biner. Perceptron dibatasi untuk dua lapisan pengolah dengan satu lapisan bobot yang dapat beradabtasi. Inputs x1 w1
Linear Combiner
Hard Limiter
Output Y
w2
x2
Threshold
Gambar 2.6. Arsitektur Perceptron Elemen pada Gambar
2.6 adalah unit pengolah dasar dari perceptron. Unit
pengolah ini mendapat masukan dari unit pengolah lain yang masing-masing dihubungkan melalui bobot interkoneksi Wi. Unit pengolah melakukan penjumlahan berbobot untuk masukannya, dengan rumus berikut ini. n
X xi wi i 1
Dengan: Wi=bobot sambungan dari unit input ke output Xi=masukan yang berasal dari unit input
Sistem Pakar
136
Sebuah nilai prasikap(fungsi aktivasi) diberikan sebagai tambahan masukan kepada unit pengolah. Nilai fungsi aktivasi ini pada umumnya menggunakan FA(Fungsi Aktivasi)Ystep yaitu 1 atau 0, dan dihubungkan dengan unit pegolah output melalui pembobot yang nilainya selalu beradaptasi selama jaringan mengalami pelatihan. Fungsi Aktivasi YStep
1, if X Y 1, if X
Gambar 2.7. Jenis-Jenis Fungsi Aktivasi Perceptron dilatih dengan menggunakan sekumpulan pola yang diberikan kepadanya secara berulang-ulang selama latihan. Setiap pola yang diberikan merupakan pasangan pola masukan dan pola yang diinginkan. Perceptron melakukan
penjumlahan
berbobot
menggunakan fungsi ambang
terhadap
tiap-tiap
masukannya
untuk menghitung keluaraannya. Keluaran ini
kemudian dibandingkan dengan hasil yang diinginkan dengan rumus
e( p) Yd ( p) Y ( p) Dimana
Sistem Pakar
dan
137
E=eror Yd=output destination(diharapkan) Yp=output actual Perbedaan yang dihasilkan dari perbandingan ini digunakan untuk merubah bobotbobot yang ada dalam jaringan. Demikian dilakukan berulang-ulang sehingga dihasilkan keluaran yang sesuai dengan hasil yang diinginkan. Langkah-langkah Penyelesaian Perceptron 1. Inisiali Tentukan input, bobot awal, output yang diharapkan, threshold dan training rate 2. Hitung keluaran(output actual) dengan rumus
n Y ( p ) step xi ( p ) wi ( p ) i 1 Gunakan fungsi aktivasi Y step untuk menentukan output actual
1, if X 0 Y 0, if X 0 3. Hitung eror dengan menggunakan rumus
e( p) Yd ( p) Y ( p) 4. Update bobot dengan menggunakan rumus
wi ( p 1) wi ( p) wi ( p) wi ( p) xi ( p) e( p) 5. Lakukan iterasi Contoh Penerapan Input
Output yg
Bobot awal
diharapkan X1
X2
Sistem Pakar
Yd
Output Error
Bobot akhir
actual W1
W2
138
Ya
e
W1
W2
0
0
0
0
1
0
1
0
0
1
1
1
0,3
-0,1
Threshold: = 0.2; learning rate: = 0.1
Dengan arsitektur 2-1(2 input dan 1 output) Inputs x1 w1
Linear Combiner
Hard Limiter
Y
w2
x2
Threshold Epoch I Iterasi 1 1. Hitung output actual
n Y ( p ) step xi ( p ) wi ( p ) i 1 n Y (1) step (0 x0,3) (0 x 0,1) 0,2 i 1
Y (1) step 0,2 Y (1) 0
2. Hitung error
e( p) Yd ( p) Y ( p) e(1) 0 0 0
3. Update bobot
Sistem Pakar
Output
139
a. Bobot w1
wi ( p 1) wi ( p) wi ( p) wi (1,1) 0,3 0 0,3 wi ( p) xi ( p) e( p) wi (1,1) 0,1x0 x0 0 b. Bobot w2
wi ( p 1) wi ( p) wi ( p) wi (1,2) 0,1 0 0,1 wi ( p) xi ( p) e( p) wi (1,2) 0,1x0 x0 0 Hasil iterasi 1 sebagai berikut: Input
Output yg
Bobot awal
diharapkan
Output
Error
Bobot akhir
actual
X1
X2
Yd
W1
W2
Ya
e
W1
W2
0
0
0
0,3
-0,1
0
0
0,3
-0,1
0
1
0
0,3
-0,1
1
0
0
1
1
1
Iterasi 2 1. Hitung output actual
n Y (2) step (0 x0,3) (1x 0,1) 0,2 i 1
Y (2) step 0,3 Y ( 2) 0
2. Hitung error e ( 2) 0 0 0
3. Update bobot
Sistem Pakar
140
c. Bobot w1
wi (2,1) 0,3 0 0,3 wi ( p) xi ( p) e( p) wi (2,1) 0,1x0 x0 0 d. Bobot w2
wi (2,2) 0,1 0 0,1 wi (2,2) 0,1x1x0 0 Hasil iterasi 2 sebagai berikut: Input
Output yg
Bobot awal
diharapkan
Output
Error
Bobot akhir
actual
X1
X2
Yd
W1
W2
Ya
e
W1
W2
0
0
0
0,3
-0,1
0
0
0,3
-0,1
0
1
0
0,3
-0,1
0
0
0,3
-0,1
1
0
0
0,3
-0,1
1
1
1
Iterasi 3 1. Hitung output actual
n Y (3) step (1x0,3) (0 x 0,1) 0,2 i 1
Y (3) step0,1 Y (3) 1
2. Hitung error e(3) 1 0 1
3. Update bobot e. Bobot w1
wi (3,1) 0,3 0,1 0,2 wi (3,1) 0,1x1x 1 0,1 f. Bobot w2
Sistem Pakar
141
wi (3,2) 0,1 0 0,1 wi (3,2) 0,1x0 x 1 0 Hasil iterasi 3 sebagai berikut: Input
Output yg
Bobot awal
diharapkan
Output
Error
Bobot akhir
actual
X1
X2
Yd
W1
W2
Ya
e
W1
W2
0
0
0
0,3
-0,1
0
0
0,3
-0,1
0
1
0
0,3
-0,1
0
0
0,3
-0,1
1
0
0
0,3
-0,1
1
-1
0,2
-0,1
1
1
1
0,2
-0,1
Output
Error
Iterasi 4 4. Hitung output actual
n Y (4) step (1x0,2) (1x 0,1) 0,2 i 1
Y (4) step 0,1 Y ( 4) 0
5. Hitung error e ( 4) 1 0 1
6. Update bobot g. Bobot w1
wi (4,1) 0,2 0,1 0,3 wi (4,1) 0,1x1x1 0,1 h. Bobot w2
wi (3,2) 0,1 0,1 0 wi (4,2) 0,1x1x1 0,1 Hasil iterasi 4 sebagai berikut: Input
Sistem Pakar
Output yg
Bobot awal
142
Bobot akhir
diharapkan
actual
X1
X2
Yd
W1
W2
Ya
e
W1
W2
0
0
0
0,3
-0,1
0
0
0,3
-0,1
0
1
0
0,3
-0,1
0
0
0,3
-0,1
1
0
0
0,3
-0,1
1
-1
0,2
-0,1
1
1
1
0,2
-0,1
1
1
0,3
0
Untuk epoch I hingga iterasi ke-4 error belum nol(0), masih terdapat error -1 dan 1 untuk iterasi ke 3 dan 4, maka harus dilanjutkan untuk epoch selanjutnya untuk mencapai error 0 untuk semua input. Jika dilanjutkan ke epoch berikutnya maka hasilnya sebagai berikut
Epoch
I
II
III
IV
Input
Output yg
Bobot
Output
diharapkan
awal
actual
Error
Bobot akhir
X1
X2
Yd
W1
W2
Ya
e
W1
W2
0
0
0
0,3
-0,1
0
0
0,3
-0,1
0
1
0
0,3
-0,1
0
0
0,3
-0,1
1
0
0
0,3
-0,1
1
-1
0,2
-0,1
1
1
1
0,2
-0,1
0
1
0,3
0
0
0
0
0,3
0
0
0
0,3
0
0
1
0
0,3
0
0
0
0,3
0
1
0
0
0,3
0
1
-1
0,2
0
1
1
1
0,2
0
1
1
0,2
0
0
0
0
0,2
0
0
0
0,2
0
0
1
0
0,2
0
0
0
0,2
0
1
0
0
0,2
0
1
-1
0,1
0
1
1
1
0,1
0
0
1
0,2
0,1
0
0
0
0,2
0,1
0
0
0,2
0,1
0
1
0
0,2
0,1
0
0
0,2
0,1
1
0
0
0,2
0,1
1
-1
0,1
0,1
Sistem Pakar
143
IV
1
1
1
0,1
0,1
1
0
0,1
0,1
0
0
0
0,1
0,1
0
0
0,1
0,1
0
1
0
0,1
0,1
0
0
0,1
0,1
1
0
0
0,1
0,1
0
0
0,1
0,1
1
1
1
0,1
0,1
1
0
0,1
0,1
Error 0 dicapai pada poch ke-5, dikatakan cerdas dan dapat digunakan untuk memprediksi.
2.5.3. BACK PROPAGATION(Perambatan Galat Mundur) 2.5.3.1. Pengantar Back Propagation Jaringan perambatan galat mundur (backpropagation) adalah salah satu algoritma yang sering digunakan dalam menyelesaikan masalah-masalah yang rumit. Hal ini dimungkinkan karena pelatihan dengan menggunakan metode belajar terbimbing. Pada jaringan back propagation diberikan sepasang pola yang terdiri atas pola masukan dan pola yang diinginkan. Ketika suatu pola diberikan kepada jaringan, maka bobot-bobot diubah untuk memperkecil perbedaan pola keluaran dan pola yang diinginkan. Latihan ini dilakukan berulang-ulang sehingga semua pola yang dikeluarkan jaringan dapat memenuhi pola yang diinginkan.
Sistem Pakar
144
Algoritma pelatihan jaringan saraf perambatan galat mundur terdiri atas dua langkah,yaitu perambatan maju
dan perambatan mundur. Langkah
perambatan mundur ini dilakukan pada jaringan untuk setiap pola yang diberikan selama jaringan mengalami pelatihan. Jaringan perambatan galat mundur terdiri atas tiga lapisan atau lebih unit pengolah. In p u t s ig n a ls 1
x1 x2
2 i
xi
1
y1
2
y2
k
yk
l
yl
1
2
w ij
j
w jk
m n
xn In p u t la y e r
H id d e n la y e r
O u tp u t la y e r
E r r o r s ig n a ls
I
J
K
Gambar 2.8. Arsitektur Backpropagation Gambar 2.8 menunjukkan jaringan perambatan galat mundur dengan tiga lapisan pengolah, bagian kiri sebagai masukan, bagian tengah disebut sebagai lapisan tersembunyi dan bagian kanan disebut lapisan keluaran. Ketiga lapisan ini terhubung secara penuh. Perambatan maju dimulai dengan memberikan pola masukan ke lapisan masukan. Pola masukan ini merupakan nilai aktivasi unit-unit masukan. Dengan melakukan perambatan maju dihitung nilai aktivasi pada unitunit di lapisan berikutnya. Pada setiap lapisan,tiap unit pengolah melakukan penjumlahan berbobot dan menerapkan fungsi sigmoid untuk menghitung keluarannya. Keluaran Hiden layer dengan menggunakan rumus
n Yj( p ) Sigmoid xi ( p ) x wij ( p ) j i 1
Sistem Pakar
145
Dimana Yj=keluaran unit j Sigmoid=fungsi aktivasi Xi=input dari unit i Wij=bobot dari unit i ke j
j =batas ambang unit j P=iterasi Keluaran Output layer dengan menggunakan rumus
m Yk sigmoid Xjk ( p ) x Wjk ( p ) k j 1 Dimana Yk=keluaran unit k Sigmoid=fungsi aktivasi Xjk=input dari unit j Wjk=bobot dari unit j ke k k =batas ambang unit k
P=iterasi Menentukan Erorr dengan menggunakan rumus
ek ( p) Yd , k ( p) Yk ( p) Dimana ek=error unit k(output layer)
Sistem Pakar
146
Ydk=output yang diharapkan pada unit k Yk=output actual pada unit k P=iterasi Fungsi Aktivasi Ysigmoid Sigmoid
Y
1 1 e X
Dimana x=nilai Yj/Yk Gradien error Hidden
k ( p) Yk ( p) x 1 Yk ( p) x ek ( p) Gradien error Input l
j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p ) k 1
Langkah-Langkah Penyelesaian Backpropagation 1. Inisialisasi Tentukan input, output yang diharapkan, bobot input, bobot hidden, treshold hidden, threshold output, training rate, 2. Hitung keluaran hidden
n Yj( p ) Sigmoid xi( p ) x wij ( p ) j i 1 Gunakan fungsi aktivasi Ysigoid untuk menentukan keluaran hidden dan output layer dengan rumus Sigmoid
Y
1 1 e X
3. Hitung keluaran output
Sistem Pakar
147
m Yk sigmoid Xjk ( p ) x Wjk ( p ) k j 1 4. Hitung error dengan rumus
ek ( p) Yd , k ( p) Yk ( p) 5. Update bobot hidden(Wjk) a. Hitung gradien error
k ( p) Yk ( p) x 1 Yk ( p) x ek ( p) b. Update bobot
Wjk ( p 1) Wjk ( p) Wjk ( p) Wjk ( p) x Yj( p) x k ( p) 6. Update bobot input(Wij) a. Hitung gradient error l
j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p ) k 1
b. Update bobot
Wij( p 1) Wij( p) Wij( p) Wij( p) x Xi( p) x j ( p) 7. Lakukan iterasi Contoh Penerapan Back Propagation
1 0.8, 2 0.1, 3 0.3 , = 0.3 Dengan arsitektur 3-2-1(3 input, 2 hidden dan 1 output)
Sistem Pakar
148
Iterasi 1 4. Hitung output actual a. Keluaran hidden layer
n Yj( p ) Sigmoid xi( p ) x wij ( p ) j i 1 n Yj(1) Sigmoid (0 x0,2) (1x0,4) (1x0,5) 0,8 i 1
Yj(1) Sigmoid 0,1 Sigmoid
Y Sigmoid
Y
1 1 e X
1 1 e 0,1
Yj(1) 0,52
n Yj(2) Sigmoid (0 x0,2) (1x0,3) (1x 0,3) 0,1 i 1
Yj(2) Sigmoid 0,1 Sigmoid
Y
1 1 e 0,1
Yj(2) 0,47 b. Keluaran output layer
n Yj(3) Sigmoid (0,52 x0,4) (0,47 x0,6) 0,3 i 1
Yj(3) Sigmoid 0,19 Sigmoid
Y Sigmoid
Y
Sistem Pakar
1 1 e X
1 1 e 0,19 149
Yj(3) 0,54 5. Hitung error
ek ( p) Yd , k ( p) Yk ( p) ek (1) 0,54 1 0,46 Error tidak sama dengan nol, sehingga penelusura mundur(back) sambil memperbaharui bobot hingga error =0 3. Update bobot hidden(Wjk) a. Hitung gradien error output layer
k ( p) Yk ( p) x 1 Yk ( p) x ek ( p) k (1) 0,54 x 1 0,54 x 0,46 k (1) 0,11
b. Update bobot hidden layer(Wjk1)
Wjk ( p) x Yj( p) x k ( p) Wjk (1) 0,3 x 0,52 x 0,11 Wjk (1) 0,01 Wjk ( p 1) Wjk ( p) Wjk ( p) Wjk (1) 0,4 (0,01) 0,39 c. Update bobot hidden layer (Wjk2)
Wjk ( p) x Yj( p) x k ( p) Wjk (2) 0,3 x 0,47 x 0,11 Wjk (2) 0,01 Wjk ( p 1) Wjk ( p) Wjk ( p) Wjk (2) 0,6 (0,01) 0,59
4. Update bobot input(Wij) a. Hitung gradient error hidden(Y1) l
j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p ) k 1
Sistem Pakar
150
j (1) 0,52 x 1 0,52 x (0,11) x0,4 j (1) 0,0110
b. Hitung gradient error hidden(Y2) l
j ( p ) Yj( p ) x 1 Yj( p ) x k ( p ) x Wjk ( p ) k 1
j (2) 0,47 x 1 0,47 x (0,11) x0,6 j ( 2) 0,0164
c. Update bobot input layer(Wij1)
Wij( p) x Xi( p) x j ( p) Wij(1) 0,3 x 0 x (0,0110) 0 Wij( p 1) Wij( p) Wij( p) Wij(1) 0,2 0 0,2 d. Update bobot input layer(Wij2)
Wij( p) x Xi( p) x j ( p) Wij(2) 0,3 x 1 x (0,0110) 0,0033 Wij( p 1) Wij( p) Wij( p) Wij(2) 0,4 0,0033 0,4033 e. Update bobot input layer(Wij3)
Wij( p) x Xi( p) x j ( p) Wij(3) 0,3 x 1 x (0,0110) 0,0033 Wij( p 1) Wij( p) Wij( p) Wij(2) 0,5 0,0033 0,5033 f. Update bobot input layer(Wij4)
Wij( p) x Xi( p) x j ( p) Wij(4) 0,3 x 0 x (0,0164) 0 Wij( p 1) Wij( p) Wij( p) Wij(4) 0,2 0 0,2 g. Update bobot input layer(Wij5)
Sistem Pakar
151
Wij( p) x Xi( p) x j ( p) Wij(5) 0,3 x 1 x (0,0164) 0,0049 Wij( p 1) Wij( p) Wij( p) Wij(5) 0,3 (0,0049) 0,2051 h. Update bobot input layer(Wij6)
Wij( p) x Xi( p) x j ( p) Wij(6) 0,3 x 1 x (0,0164) 0,0049 Wij( p 1) Wij( p) Wij( p) Wij(6) 0,3 (0,0049) 0,3049 Untuk iterasi 1 sudah selesai dan hasil akhir setelah dilakukan update bobot adalah
untuk mencapai error=0 harus dilanjutkan perhitungan untuk iterasi selanjutnya dan melakukan update bobot
2.6. Decision Tree(Pohon Keputusan) 2.6.1. Pengantar Decision Tree
Sistem Pakar
152
Decision tree salah satu metode learning yang dapat mendefenisikan atau menemukan aturan secara otomatis dan dapat berlaku umum untuk data-data yang belum pernah di ketahui. Decision tree juga salah satu metode belajar yang sangat populer dan banyak digunakan secara praktis karena dengan Decison tree akan berusaha menemukan fungsi-fungsi pendekatan yang bernilai diskrit dan tahan terhadap data-data yang terdapat kesalahan(noise data) serta mampu mempelajari ekspresi-ekspresi disjunctive(ekpresi OR). Ada beberapa algoritma yang termasuk dalam decision tree yaitu ASISTANT, C. 45 dan ID3. Dalam buku ini fokus pembahasan tentang algoritma ID3(Iterative Dychotomizer version 3). Dengan ID3 berusaha membangun pohon keputusan secara top-down(dari atas ke bawah) yang dimulai dengan penentuan atribut sebagai akar(root). Untuk menentukan root dengan cara mengevaluasi semua atribut dengan ukuran statistik yaitu information gain dengan tujuan mengukur efektifitas atribut dalam mengklasifikasikan kumpulan sampel data. Information Gain yang paling besar adalah atribut sebagai root (Suyanto, 2011). Table 2.8. Contoh Data Penerima Beasiswa Nim
IPK
Kehadiran
Attitude
Dapat Beasiswa
001
Bagus
Tinggi
Baik
Ya
002
Bagus
Sedang
Baik
Ya
003
Bagus
Sedang
Kurang
Ya
004
Bagus
Rendah
Kurang
Tidak
005
Cukup
Tinggi
Baik
Ya
006
Cukup
Sedang
Baik
Ya
007
Cukup
Sedang
Kurang
Ya
008
Cukup
Rendah
Kurang
Tidak
009
Kurang
Tinggi
Baik
Ya
010
Kurang
Sedang
Kurang
Tidak
011
Kurang
Rendah
Baik
Ya
Sistem Pakar
153
1. Entropy Untuk menghitung information gain, terlebih dahulu dengan menghitung entropy sebagai parameter untuk mengukur heterogenitas(keberagaman) dari suatu kumpulan sampel. Jika kumpulan sampel data semakin heterogen maka nilai entropy nya semakin besar. Secara matematis dituliskan sebagai berikut Entropy(S) =
−pi log pi
Dimana C : jumlah nilai atribut target(jumlah kelas klasifikasi) pi: jumlah sampel untuk kelas i
Tabel 2.8. menunjukkan data penerima mahasiswa, yang dikatakan target adalah dapat beasiswa(Decision system) jumlah kelas=2 yaitu ya dan tidak, berarti c=2. Jumlah data=11, untuk kelas ya=8 dan kelas tidak=3, maka entropynya adalah: entropy(S)=−(8/11)*log2(8/11) − (3/11)*log2(3/11) 2. Iformation Gain Setelah mendapatkan hasil entropy, berikut mengukur mengukur evektivitas suatu atribut dalam mengklasifikasikan data. Ukuran evektivitas ini disebut sebagai information gain, secara matematis information gain dari suatu atribut dituliskan sebagai berikut:
Gain(S, A) =
( )−
≡
( )
|Sv| Entropy(Sv) |S|
Di mana: A
: atribut
V
: menyatakan suatu nilai yang mungkin untuk atribut A
Sistem Pakar
154
A,
Values(A)
: himpunan nilai-nilai yag mungkin untuk atribut A
|Sv|
: jumlah sampel untuk nilai v
|S|
: jumlah seluruh sampel data
Entropy(Sv)
: entropy untuk sampel_sampel yang memiliki nilai v
Untuk memahami information gain lebih detail, perhatikan bagaimana menghitung information gain untuk IPK di bawah ini :
Pada table 2.8 di atas atribut dapat beasiswa =’Ya’ dikatakan sebagai sampel positif (+),dan atribut dapat beasiswa =’Tidak’ dikatakan sebagai sampel negatif (-), dari sampel data pada table 2.8 didapatkan: Values(IPK)=Bagus,Cukup,Kurang S=[8+,3-],|S|=11 SBagus=[3+,1-],|SBagus|=4 SCukup=[3+,1-],|SCukup|=4 SKurang=[2+,1-],|SKurang|=3
Selanjutnya,nilai-nilai
entropy
untuk
information gain untuk IPK adalah: Entropy(S)=-(8/11)log2(8/11)-(3/11)log2(3/11) =0,8454 Entropy(SBagus)=-(3/4)log2(3/4)-(1/4)log2(1/4) =0,8113 Entropy(SCukup) =-(3/4)log2(3/4)-(1/4)log2(1/4) =0,8113 Entropy(SKurang)=-(2/3)log2(2/3)-(1/3)log2(1/3) =0,9183
Sistem Pakar
155
S,
SBagus,SCukup,SKurang
dan
Gain(S,IPK)= Entropy(S)-(4/11)Entropy(SBagus)-(4/11)Entropy(SCukup) – 3/11)Entropy(SKurang) =0,8454-(4/11)0,8113-(4/11)0,8113-(3/11)0,9183 =0,0049 2.6.2. AlgoritmaID3 IDE3 adalah algoritma decision tree learning (algoritma pembelajaran pohon keputusan ) yang paling dasar. Algoritma ID3 melakukan pencarian secara rakus/menyeluruh (greedy) pada semua kemungkinan pohon keputusan. Alogoritma IDE3 dapat diimplementasikan mengunakan fungsi rekursif (fungsi yang memangil dirinya sendiri ),sebagai berikut: Function IDE3 (Kumpulan sampel,Atribut Target,Kumpulan Atribut ) 1. Buat simpul Root 2. If semua sampel adalah kelas i,maka Return pohon satu simpul Rootn dengan label=i 3. If kumpulan Atribut kosong ,Return pohon satu simpul Root dengan label =nila atribut target yang paling umum (yang paling sering muncul) Else
A←Atribut yang merupakan the best classifer (dengan information gain terbesar)
Atribut untuk keputussan untuk root←A
For vi (setiap nilai pada A)
Tambahkan suatu cabang di bawah Root sesuai nilai vi
Buat satu variabel ,misalnya sampel
vi,sebagai
himpunan
bagian(subset)dari kumpulan sampel yang bernilai atribut A
If sampel vi kosong
Then
Sistem Pakar
156
vi
pada
di bawah cabang ini tambahkan suatu simpul daun(leaf node,simpul yang tidak punya anak di bawahnya )dengan label=nilai atribut target yang paling umum(yang pling sering muncul) Else di
bawah
cabang
ini
tambahkan
subtree
dengan
memanggil fungsi ID3(Sampelvi,Atribut Target Atribut{A}
End End End 4.Retrun Root Agar lebih memehami algoritma ID3 di atas,marilah kita terapkan algoritma tersebut untuk menemukan decision tree yang tepat untuk data tabel 2.8 tentang data penerima beasiswa sebagai berikut: Rekursi level 0 interasi ke-1 Memanggil fungsi ID3 dengan kumpulan sampel berupa semua sampel data=[8+,3-],Atribut
Target=’diterima’,dan
kumpulan
atribut={IPK,Kehadiran,Attitude}. Pada halaman sebelumnya, kita sudah menghitung information gain untuk IPK, yaitu Gain(S,IPK)=0,0049. Untuk menemukan atribut yang merupakan the best classifer dan di letakkan sebagai Root ,kita perlu menghitung information gain untuk 2 atribut yang lain, yaitu Kehadiran dan Attitude. Dari tabel 2.8 dengan cara yang sama pada proses penghitungan gain(S,IPK),kita dapatkan Gain (S,Kehadiran): Values(Kehadiran)=Tinggi, Sedang, Rendah S=[8+3-],|S|=11
Sistem Pakar
157
STinggi=[3+.0-],|STinggi|=3,Entropy(STinggi)=0 SSedang=[4+,1-] ,|SSedang|=5,Entropy(SSedang)=0,7219 SRendah=[1+,2-],|SRendah|=3,Entropy(SRendah)=0,9183 Gain(S,Kehadiran)=Entropy(S)-(3/11)Entropy(STinggi) -(5/11) Entropy(SSedang)(3/11)Entropy(SRendah) =0,8454-(3/11)0-(5/11)0,7219-(3/11)0,9183 =0,2668 Dari tabel 2.8 dan dengan cara yang sama
pada proses penghitungan gain
(S,IPK),kita dapatkan Gain(S,Attitude): Values(Attitude)=Baik,Buruk S=[8+,3-),|S|=11 SBaik=[6+,0-),|SBaik|=6, Entropy(SBaik)=0 SBuruk=[2+,3-],|SBuruk|=5 Entropy(SBuruk)=0,9710 Gain (S, Attitude)= Entropy(S)-(6/11) Entropy(SBaik)-(5/11) Entropy(SBuruk) =0,8454-(6/11)0-(5/11)0,9710 =0,4040 Dari tiga nilai information gain di atas,Gain(S, Attitude)adalah yang terbesar, sehingga Attitude adalah atribut yang merupakan the best classifer dan harus di letakkan sebagai Root. Selanjutnya ,setiap nilai pada atribut Attitude akan dicek apakah perlu di buat subtree di level berikutnya atau tidak. Untuk nilai ‘baik’ terdapat 6 sampel ,berarti SampleBaik tidak kosong .Sehingga ,perlu memanggil fungsi ID3 dengan kumpulan sampel berupa SampleBaik=[6+,0-],AtributTarget =’Diterima’,dan Kumpulan Atribut={IPK,Kehadiran }.Pada tahap ini ,diperoleh struktur pohon pada gambar 2.9 berikut ini
Sistem Pakar
158
Attitude Baik
Gambar 2.9. Pohon keputusan yang dihasilkan pada rekursi level 1 iterasi ke-1 Rekursi Level 1 iterasi ke-1 Memangil fungsi ID3 dengan kumpulan sampel berupa SampleBaik=[6+,0-] Atribut Target=’Diterima’,dan KumpulanAtribut ={IPK,Kehadiran }.Karena semua sample pada SampleBaik termasuk dalam kelas ‘ya’,maka fungsi ini akan berhenti dan menggembalikan satu simpul tunggal Root dengan label ‘ya’ pada tahap ini,dihasilkan pohon pada gambar 5-3 selanjutnya,proses akan kembali ke rekkursi level o ke 2.
Attitude
Baik
Ya
Gambar 2.10. Pohon keputusan yang di hasilkan pada rekursi level 1 iterasi ke-1
Sistem Pakar
159
Rekursi Level o Iterasi ke-2 Pada rekursi level 0 iterasi ke-1 sudah dilakukan pengecekan untuk atribut ‘Attitude’ dengan nilai ’baik’. Selanjutnya,dilakukan pengecekan untuk atribut ’Attitude’ dengan nilai ’Buruk’. Untuk nilai ‘Buruk’ terdapat 5 sampel, berarti sample
Buruk
tidak kosong, sehingga perlu memenggil fungsi ID3 dengan
kumpulan sampel berupa sampleBuruk =[2+,3-], Atribut Target=’diterima’, dan kumpulan atribut ={IPK,Kehadiran}, pada tahap ini dihasilkan pohon sebagai berikut. Attitude
Baik
Buruk
Ya
Gambar 2.11 : pohon keputasan yang dihasilkan pada rekursi level 0 iterasi ke-2 Rekursi Level 1 iterasi ke-2 Memanggil SampleBuruk=[2+,3-
fungsi ]
ID3
dengan
kumpulan
sampel
,AtributTarget=’Diterima’,dan
berupa kumpulan
atribut={IPK,Kehadiran}. Pada tahap ini,dilakukan perhitungan information gain untuk atribut IPK dan Kehadiran, tetapi kumpulan semple yang diperhitungkan adalah sampleBuruk
dengan 5 sample data,yaitu [2+,3-].dengan kata lain
,S=SampleBuruk
Sistem Pakar
160
Values(IPK)=Bagus,Cukup,Kurang S=SampleBuruk=[2+,3-],|S|=5 SBagus=[1+,1-],|SBagus|=2 SCukup=[1+,1-],|SCukup|=2 SKurang=[0+,1-],|SKurang|=1 Selajutnya, nilai-nilai entropy untuk S, SBagus, SCukup, SKurang,dan information gain untuk IPK adalah: Entropy(S)=-(2/5)log2,(2/5)-(3/5)log2(3/5) =0,9710 Entropy(SBagus)=-(1/2)log2(1/2)-(1/2)log2(1/2) =1 Entropy(SCukup)=-(1/2)log2(1/2)-(1/2)log2(1/2) =1 Entropy(SKurang)=(0)log2(0)-(1)log2(1) =0 Gain(S,IPK)= Entropy(S) - (2/5)Entropy(SBagus) - (2/5)Entropy(SCukup) (1/5)Entropy(SKurang) =0,9710-(2/5)1-(2/5)1-(1/5)0 =0,1710 Values(Kehadiran)=Tinggi,Sedang,Rendah S=SampleBuruk=[2+,3-],|S|=5, Entropy(S)=0,9710 STinggi=[0+,0-],|STinngi|=0,Entropy(STinggi)=0
Sistem Pakar
161
SSedang=[2+,1-]|SSedang|=3 Entropy(SSedang)=0,9183 SRendah=[0+,2-],|SRendah|=2, Entropy(SRendah)=0 Gain(S, Kehadiran)= Entropy(S) - (0/5)Entropy(STinggi) - (3/5)Entropy(SSedang) (2/5)Entropy(SRendah) =0,9710-(0/5)0-(3/5)0,9183-(2/5)0 =0,4200 Dari dua nilai information gain di atas ,gain (S, Kehadiran) adalah yang terbesar, sehingga Kehadiran adalah adalah atribut yang merupakan the best classifer dan harus di letakkan sebagai simpul di bawah simpul ‘Attitude ‘ pada cabang nilai ‘Buruk’ . Selanjutnya ,setiap nilai pada atribut Kehadiran akan di cek apakah perlu di buat subtree di level berikut nya atau tidak .Utuk nilai ‘Tinggi ‘(Pada kumpulan sampel berupa SampleBuruk=[2+,3-]),terdapat 0 sampel, berarti SampleTinggi kosong. Sehingga perlu dibuat satu simpul daun (leaf node,simpul yang tidak punyak anak di bawahnya) dengan label yang paling sering muncul pada SampleBuruk yaitu ‘tidak’. Kemudian dilakukan pengecekan untuk atribut Kehadiran bernilai
’sedang’. Untuk nilai ‘Sedang’ (Pada Kumpulan Sampel
berupa SampleBuruk =[2+,3-]),terdapat tiga sample ,berarti sampleSedang tidak kosong. Sehingga perlu memangil fungsi IDE3 dengan kumpulan sample berupa SampleSedang=[2+,1-], Atribut Target =’Diterima’ ,dan kumpulan Atribut ={IPK}.pada tahap ini ,di proleh keputusan pada gambar 2.11 di bawah ini.
Sistem Pakar
162
Attitude
Baik
Buruk
Kehadiran
Ya
Tinggi
Sedang
Tidak
Gambar 2.11: pohon keputusan yang dihasilkan pada rekursi level 1 iterasi ke-2 Rekursi level 2 iterasi ke-1 Memanggil funggsi ID3 dengan kumpulan Sample berupa SampleSedang=[2+,1],Atribut Target=’Diterma’, dan kumpulan Atribut={IPK}, karena kumpulan Atribut hanya berisi 1 Atribut(yaitu IPK), maka Atribut yang menjadi the best classifier adalah IPK dan harus diletakkan sebagai simpul di bawah simpul ‘Kehadiran’pada cabang nilai ‘Sedang’. Selanjutnya,setiap nilai pada Atribut IPK akan dicek apakah perlu di buat sub tree di level berikutnya atau tidak. Untuk nilai ’Bagus’(pada kumpulan sampel berupa SampleSedang =[2+,1-]), terdapat 1 sampel ,berarti sample bagus tidak kosong .Sehingga pelu memanggil fungsi ID3 dengan kumpulan sample bagus=[1+,0-], Atribut Target =’Diterima’ dan kumpulan Atribut={}. Sehingga,diperoleh pohon pad gambar 2.12 di bawah ini.
Sistem Pakar
163
Attitude
Baik
Buruk
Kehadira n
Ya
Tinggi
Tidak
Sedang
IPK
Bagus
Gambar 2.12: pohon keputusan yang dihasilkan pada rekursi level 2 iterasi ke-1 Rekursi Level 3 iterasi ke-1 Memangil
fungsi ID3 dengan kumpulanSampel berupa SampleBagus=[1+,0-],
AtributTarget =’Diterima’ dan kumpulan Atribut ={}. Karena semua sampel pada SampleBagus termasuk dalam kelas ‘Ya’ maka fungsi ini akan berhenti dan mengembalikan satu simpul tunggal Root dengan label ‘Ya’ . Sehingga dihasilkan pohon pada gambar 2.13 di bawah ini .Selanjutnnya ,proses akan kembali ke rekursi level 2 untuk iterasi ke -2
Sistem Pakar
164
Attitude
Baik
Buruk
Ya
Kehadiran
Tidak
Tinggi
Sedang
IPK
Bagus
Ya
Gambar 2.13: pohon keputusan yang dihasilkan pada rekursi level 3 iterasi ke-1 Rekursi Level 2 iterasi ke-2 Pada rekursi Level 2 iterasi ke-1, sudah dilakukan pengecekan atribut IPK untuk nilai ‘Bagus‘. Selanjutnya pengecekan dilakukan pada atribut IPK untuk nilai ‘Cukup’ .Ternyata ,terdapat 1 sampel pada kumpulan sampel dimana Attitude bernilai ’Buruk’ dan Kehadiran bernilai ‘Sedang’. Karena SampleCukup tidak kosong, maka perlu memanggil fungsi ID3 dengan kumpulan Sampel berupa
Sistem Pakar
165
SampleCukup=[1+,0-] ,AtributTarget =’Diterima ‘,dan kumpulan Atribut ={}. Sehingga diproleh pohon pada gambar 2.14 di bawah ini.
attitude
Baik
Buruk
Ya Hadir
Tidak
Sedang
Tinggi IPK
Bagus Cukup
Ya
Gambar 2.14. Pohon keputusan yang dihasilkan pada rekursi level 2 iterasi ke-2
Sistem Pakar
166
Rekursi Level 3 iterasi ke-2 Memangil fungsi ID3 dengan KumpulanSampel berupa SampleCukup=[1+,0-], AtributTargget =’Diterima’ dan KumpulanAtribut ={}.karena semua sampel pada SampleCukuptermasuk ke dalam kelas ‘ya’. Sehinga dihasilkan pohon pada gambar 2.15 di bawah ini. Selanjutnya proses akan kembali ke rekursi level 2 untuk iterasi ke-3.
Atitude
Baik
Buruk
Ya Hadir
Tidak
Sedang
Tinggi IPK
Bagus
Cukup
Ya Ya
Gambar 2.15. Pohon keputusan yang dihasilkan pada rekursi level 3 iterasi ke-2
Sistem Pakar
167
Rekursi Level 2 iterasi ke-3 Pada rekursi level 2 iterasi ke-1 dan ke-2, sudah dilakukan pengecekan atribut IPK untuk nilai ‘Bagus’ dan ‘Cukup’. Selanjutnya, pengecekan dilakukan atribut IPK untuk nilai ‘Kurang’.ternyata, terdapat 1 sampel pada kumpulan sampel dimana Wawancara bernilai ‘Buruk’ dan psikologi bernilai’Sedang’. Karena Sample Kurang tidak kosong ,maka perlu memanggil fungsi ID3 dengan kumpulsn sampel berupa SapleKurang=[o+,1-], AtributTarget =’Diterma’,dan Kumpulan Atribut ={}.pada tahap ini ,diproleh pohon pada gambar 2.16 di bawah ini:
Attitude
Baik
Buruk
Ya
Hadir
Tidak
Tinggi
Sedang
IPK
Bagus
Cukup
Kurang
Gambar 2.16. Pohon keputusan yang di hasilkan pada rekursi level 2 itersai ke-3 Ya Ya
Psikologi
a Sistem Pakar
Psikologi
168
a
Rekursi Level 3 iterasi ke-3 Memanggil funsi ID3 dengan kumpulan sampel berupa sampleKurang =[0+,1],AtributTarget=’Diterima’ dan kumpulanAtribut ={}. Karena sumua sampel pada SampleKurangtermasuk kedalam kelas’Tidak’ ,maka fungsi ini akan berhenti dan mengembalikan satu simpul tunggal Root dengan label’Tidak’ .sehinga dihasilkan pohon pada gambar 2.17 di bawah ini. Selanjutnya,proses akan kembali ke rekursi level1untuk iterasi ke-3.
Atttude
Baik
Buruk
Ya
Hadir
Tidak
Tinggi
IPK
Bagus
Ya
Sistem Pakar
169
Sedang
Cukup
Ya
Kurang
Tidak
Gambar 2.17. Pohon keputusan yang dihasilkan pada rekursi level 3 iterasi ke-3 Rekursi level 1 interasi ke-3 Pada rekursi level 1 iterasi ke-2,sudah dilakukan pengecekan atribut Kehadiran untuk nilai ‘Tinggi’ dan ‘Sedang’ . Selanjutnya pengecekan dilakukan pada atribut Kehadiran untuk nilai’Rendah’ .ternyata ,terdapat 2 sampel pada kumpulan sampel dimana attutude bernilai ‘Buruk’ dan kehadiran bernilai’Rendah’. Karena SampleRendahtidak klosong,maka perlu memanggil fumgsi ID3 dengan kumpulan sampel
berupa
SampleRendah
=[0+,2-],
AtributTarget
=’Diterima’
,dan
KumpulanAtribut ={IPK}.pada tahap ini, di piproleh pohon pada gambar 5-12 di bawah ini.Selanjutnya, proses akan kembali kerekursi level 2 untuk iterasi ke-4. Attitude
Buruk
Baik
Hadir
Ya
Tidak
Tinggi
IPK
Bagus
Ya Sistem Pakar
170
Sedang
Cukup
Ya
Kurang
Tidak
Gambar 2.18. Pohon keputusan yang dihasilkan pada rekursi level 1 iterasi ke-3 Rekursi level 2 interasi ke-4 Memangiil fungsi ID3 dengan kumpulan sample berupa SampleRendah=[0+,2],AtributTarget=’Diterima’,dan kumpulan Atribut={IPK}.karna semua Sample pada Sample Rendah termasuk dalam kelas’Tidak’,maka fungsi ini akan berhenti dan mengembalikan 1 simpul tunggal’Root’dengan label’Tidak‘.proses selesai dan mengembalikan pohon keputusan pada Gambar
2.19 dibawah ini.
attitude
Buruk
Baik
Ya
Hadir
Tidak
Sedang
Kurang
IPK
Bagus
Ya
Cukup
Kurang
Ya
Gambar 2.19. Pohon keputusan akhir yang dihasilkan oleh fungsi ID3 .
Sistem Pakar
171
Tidak
Ilustrasi langkah-langkah algoritma ID3 di atas menunjukkan bahwa ID3 melakukan strategi pencarian hill-climbing: dimulai dari pohon kosong, kemudian secara
progresif
berusaha
menemukan
sebuah
pohon
keputusan
yang
mengklasifikasikan sampel-sampel data secara akurat tanpa kesalahan.pada akhir proses ,ID3 mengembalikan sebuah pohon keputusan (lihat gambar 5-13 di atas) yang manpu mengklasifikasikan 11 sampel data pada tabel 5-1 secara akurat tanpa kesalahan. Pohon keputusan tersebut dapat di tuliskakn dalam first order logic pada persamaan di bawah ini .konversi dilakukan dengan melihat leaf node yang bernilai ‘Ya’ .lakukan penelusuran mulai dari simpul root menuju ke tiga leaf node tersebut.lakukan operasi conjunction (^)pada setiap simpul yang dikunjungi sampai ditemukan leaf node ‘Ya’ .kemudian ,lakukan operasi disjunction (V) pada ketiga hasi penelusuran tersebut. Dengan demikian persamaan
ini bisa
menggantikan pohon keputusan tersebut dalam mengklasifikasikan sampel data ke dalam kelas ‘Ya’ dan ‘Tidak’ (attiude=’Baik,)V ((attitude=’Buruk’)^(kehadiran=’Sedang’)^ (IPK=’Bagus’))V ((attitude=’Buruk’)^(kehadiran=’Sedang’)^(IPK=’Cukup’)) =>Diterima=’Ya’
Tetapi, apakah pohon keputusan yang dihasilkan tersebut adalah yang baik?suatu proses decision Tree learning (pembelajaran pohon keputusan) di katakan berhasil jika pohon keputusan yang dihasilkan bisa mengklasifikasikan sampel-sampel data lainnya yang belum pernah di perlajari. Pohon keputusan gambar 2.19 tersebut di hasilkan dari proses belajar terhadap 11 sampel data yang telah tersedia pada tabel 2.8. Masih ada 7 sample data lainnya yang belum pernah dipelajari. Pertanyaannya,apakah pohon keputusan tersebut juga mampu mengklasifasikan ke tujuh sampel data lainnya secara akurat? misalkan,ketujuh sample data yang lain adalah seperti pada tabel 2.9 di bawah ini. Ternyata,ketujuh sample data berhasil di klasifikasikan secara akurat oleh pohon keputusan tersebu. Kejadian
Sistem Pakar
172
seperti ini bisa jadi hanya 1 kebetulan saja karna jumlah sample data yang belum pernah di pelajari lebih sedikit di bandingkan jumlah data yang sudah pernah di pelajari.bagaimana jika kita menghadapi masalah dimana sample data yang belum pernah di pelajari berjumlah sangat besar? masing-masing
atribut
memiliki
3
Misalkan terdapat 20 atribut yang nilai
berbeda,
sehingga
terdapat
3,486,784.401sample data yang mungkin. Tetapi,kita hanya memiliki 10.000 sample data untuk dilatihkan ke ID3. Apakah pohon keputusan yang di hasilkan akan mampu mengklasifasikan 3,486,784.401 sample data lainnya secara akurat? tentu saja kemungkinannya sangat kecil. Tabel 2.9: Tujuh sample data uji. Nim 012 013 014 015 016 017 018
IPK Bagus Bagus Cukup Cukup Kurang Kurang Kurang
Kehadiran Tinggi Rendah Tinggi Rendah Tinggi Sedang Rendah
Attitude Buruk Baik Buruk Baik Buruk Baik Buruk
Dapat Beasiswa Tidak Ya Tidak Ya Tidak Ya Tidak
2.6.2. Permasalahan pada Decision Tree Learning Pada aplikasi dunia nyata, terdapat
lima permasalahan pada decision tree
learning, yaitu berapa ukuran pohon keputusan yang tepat? selain informasion Gain, adakah ukuran pemilihan atribut yang lain? bagaimana jika atribut nya bernilai kontinyu? Bagaimana menangani sample data yang atributnya bernilai kosong? dan bagaimana menangani atribut-atribut yang memiliki biaya yang berbeda?
Sistem Pakar
173
BAB III SISTEM PAKAR
3.1. Sekilar Tentang Artificial Inteligence Manusia diciptakan dengan kecerdasan yang sangat luar biasa. Pada usia 3 tahun seorang balita sudah mampu berkomunikasi dengan baik menggunakan bahasa ibunya, mampu mengenali berbagai benda meskipun hanya terlihat bagian tertentu dari benda tersebut. Seiring bertambahnya usia maka sianak pun juga berkembang kecerdasannya dengan sangat pesat, baik kecerdasan kognitif, emosional maupun spritualnya, sampai sampai saat ini belum ada satu mesinpun yang mampu menyamai kecerdasan manusia secara keseluruhan (Suyanto, 2011). Kecerdasan buatan ( artificial inteligence ) merupakan salah satu bagian ilmu komputer yang membuat agar mesin ( komputer) dapat melakukan pekerjaan seperti yang sebaik dilakukan manusia (Sri Kusumadewi, 2003). Artificial inteligence adalah bidang ilmu komputasi yang memungkinkan untuk memahami, bernalar dan bertindak. Dari persfektif defenisi ini, artificial inteligence berbeda dengan sebagian besar psikologi sebab penekanan pada komputasi, dan berbeda dengan kebanyakan ilmu komputer sebab adanya penekanan pada persepsi penalaran dan tindakan. Dari persfektif tujuan, artificial inteligence dapat dipandang sebagai bagian ilmu teknik dan bagian ilmu pengetahuan 1. Tujuan teknik berarti memecahkan masalah dunia nyata dengan menggunakan kecerdasan buatan sebagai senjata bagi gagasan tentang penyajian pengetahuan, penggunaan pengetahuan dan penyusunan sistem 2. Tujuan ilmiah berarti untuk menentukan gagasan mana yang berkenaan dengan penyajian pengetahuan, penggunaan pengetahuan dan penyususunan sistem yang menjelaskan berbagai macam inteligensi.
Sistem Pakar
174
Pengertian kecerdasan buatan dapat di pandang dari berbagai sudut pandang, antara lain : 1. Sudut pandang kecerdasan. Kecerdasan buatan akan membuat mesin menjadi cerdas dalam arti mampu berbuat seperti apa yang dilakukan manusia. 2. Sudut pandang penelitian. Kecerdasan buatan adalah suatu studi bagaimana membuat agar komputer dapat melakukan sesuatu sebaik yang dikerjakan manusia. 3. Sudut pandang bisnis. Kecerdasan buatan adalah kumpulan peralatan yang sangat powerful dan metodologis dalam mnyelesaikan masalah-masalah bisnis. 4. Sudut pandang pemrograman. Kecerdasan meliputi studi tentang pemrograman simbolik, penyelesaian masalah dan pencarian. Lingkup Utama dari kecerdasan buatan adalah sebagai berikut : 1. Sistem Pakar ( Expert System ). Disini komputer digunakan untuk menyimpan pengetahuan para pakar. 2. Pengelolaan Bahasa Alami ( Natural Language Processing ). Dengan pengolahan bahasa alami ini diharapkan user dapat berkomunikasi dengan komputer dengan menggunakan bahasa sehari-hari. 3.
Pengenalan Ucapan ( Speech Recognition ). Melalui pengenalan ucapan diharapkan manusia dapat berkomunikasi dengan komputer dengan menggunakan suara.
4.
Robotika & Sistem Sensor ( Robotics & Sensory System).
5. Computer Visio, mencoba untuk dapat menginterprestasikan gambar atau obyek-obyek tampak melalui komputer. 6. Intelligent Computer-aided Instruction.Komputer dapat digunakan sebagai tutor dalam melatih dan mengajar. 7. Game Playing.
Sistem Pakar
175
Beberapa karakteristik yang ada pada sistem yang menggunakan artificial inteligence adalah pemrograman yang cenderung bersifat simbolik ketimbang algoritmik, bisa mengakomodasi input yang tidak lengkap. Ada beberapa konsep yang harus dipahami dalam kecerdasan buatan, diantaranya (Kusrini, 2006) : 1. Turing Test – Metode pengujian kecerdasan buatan. Merupakan sebuah metode pengujian kecerdasan buatan yang dibuat oleh Alan Turing. 2. Pemrosesan Simbolik. Sifat penting dari AI adalah bahwa AI merupakan bagian ilmu komputer yang melakukan proses secara simbolik dan non-algoritmik dalam penyelesaian masalah. 3. Heuristic Merupakan suatu strategi untuk melakukan proses pencarian (search) ruang problem secara selektif, yang memandu proses pencarian yang dilakukan sepanjang jalur yang memiliki kemungkinan sukses paling besar. 4. Penarikan Kesimpulan (Inferencing) AI mencoba membuat mesin memiliki kemampuan berfikir atau mempertimbangkan
(reasoning).
Kemampuan
berfikir
termasuk
didalamnya proses penarikan kesimpulan berdasarkan fakta-fakta dan aturan dengan menggunakan metode heuristik atau metode pencarian lainnya. 5. Pencocokan Pola (Pattern matching) AI bekerja dengan mencocokkan pola yang berusaha untuk menjelaskan objek, kejadian atau proses, dalam hubungan logik atau komputasional. Jika dibandingkan dengan kecerdasan alami (kecerdasan yang dimiliki manusia)
Kecerdasan buatan memiliki beberapa keuntungan secara komersial, antara lain : 1. Lebih Permanen.
Sistem Pakar
176
2. Memberikan kemudahan dalam duplikasi dan penyebaran. 3. Relatif lebih murah dari kecerdasan alamiah. 4. Konsisten dan teliti. 5. Dapat didokumentasikan. 6. Dapat mengerjakan beberapa task dengan lebih cepat dan lebih baik dibandingkan manusia
3.1.1. Pengertian Sistem Pakar Sistem Pakar ( Expert System ) adalah sistem yang berusaha mengadopsi pengetahuan manusia ke komputer, agar komputer dapat menyelesaikan masalah seperti biasa yang dilakukan para ahli (Sri Kusumadewi, 2003). Sistem pakar (expert system) mulai dikembangkan pada pertengahan tahun 1960-an oleh Artificial Intelligence Corporation. Sistem pakar yang muncul pertama kali adalah General-purpose Problem Solver (GPS) yang merupakan sebuah predecessor untuk menyusun langkah-langkah yang dibutuhkan untuk mengubah situasi awal menjadi state tujuan yang telah ditentukan sebelumnya dengan menggunakan domain masalah yang kompleks. Sistem pakar dapat diterapkan untuk persoalan di bidang industri, pertanian, bisni, kedokteran, militer, komunikasi dan transportasi, pariwisata, pendidikan, dan lain sebagainya. Permasalahan tersebut bersifat cukup kompleks dan terkadang tidak memiliki algoritma yang jelas di dalam pemecahannya, sehingga dibutuhkan kemampuan seorang atau beberapa ahli untuk mencari sistematika penyelesaiannya secara evolutif. Sistem pakar merupakan program yang dapat menggantikan keberadaan seorang pakar. Alasan mendasar mengapa sistem pakar dikembangkan menggantikan seorang pakar adalah sebagai berikut : 2.
Dapat menyediakan kepakaran setiap waktu dan di berbagai lokasi.
6. Secara otomatis mengerjakan tugas-tugas rutin yang membutuhkan seorang pakar. 7. Seorang pakar akan pensiun atau pergi. 8. Menghadirkan atau menggunkan jasa seorang pakar memerlukan biaya yang mahal.
Sistem Pakar
177
9. Kepakaran dibutuhkan juga pada lingkungan yang tidak bersahabat (hostile environment).
3.1.2. Konsep Dasar Sistem Pakar Pengetahuan dari suatu sistem pakar mungkin dapat direpresentasikan dalam
sejumlah
cara.
Salah
satu
metode
yang
paling
umum
untuk
merepresentasikan pengetahuan adalah dalam bentuk tipe aturan (rule) IF..Then (Jika..maka). Walaupun cara diatas sangat sederhana, namun banyak hal yang berarti dalam membangun sistem pakar dengan mengekspresikan pengetahuan pakar dalam bentuk aturan diatas. Konsep dasar dari suatu sistem pakar mengandung beberapa unsur/elemen, yaitu: (Muhammad Arhami, 2005) 1. Keahlian Keahlian merupakan suatu penguasaan pengetahuan dibidang tertentu yang didapatkan dari pelatihan, membaca atau pengalaman. 2. Ahli Seorang ahli adalah seorang yang mampu menjelaskan suatu tanggapan, mempelajari hal-hal baru seputar topik permasalahan (domain), menyusun kembali pengetahuan, memecah aturan-aturan jika diperlukan dan menentukan relevan tidaknya keahlian mereka. 3. Pengalihan keahlian Pengahlian keahlian dari para ahli ke komputer untuk kemudian dialihkan lagi keorang lain yang bukan ahli (tujuan utama sistem pakar). Proses ini membutuhkan 4 aktivitas, yaitu: tambahan pengetahuan (dari para ahli atau sumber-sumber lainnya), representasi pengetahuan yang berupa fakta dan prosedur
(ke
komputer),
inferensi
pengetahuan ke pengguna. 4. Inferensi
Sistem Pakar
178
pengetahuan
dan
pengalihan
Mekanisme inferensi merupakan perangkat lunak yang melakukan penalaran
dengan
menggunakan
pengetahuan
yang
ada
untuk
menghasilkan suatu kesimpulan atau hasil akhir. 5. Aturan Aturan merupakan informasi tentang cara bagaimana memperoleh fakta baru dari fakta yang telah diketahui. 6. Kemampuan menjelaskan. Kemampuan komputer untuk memberikan penjelasan kepada pengguna tentang sesuatu informasi tertentu dari pengguna dan dasar yang dapat digunakan oleh komputer untuk dapat menyimpulkan suatu kondisi.
3.1.3. Ciri-Ciri Sistem Pakar Sistem pakar yang baik harus memiliki ciri-ciri sebagai berikut : 1. Memiliki fasilitas informasi yang handal, baik dalam menampilkan langkah-langkah maupun dalam menjawab pentanyaan-pertanyaan tentang proses penyelesaian. 2. Mudah dimodifikasi, yaitu dengan menambah atau menghapus suatu kemampuan dari basis pengetahuannya. 3. Heuritik
dalam
menggunakan
pengetahuan
untuk
mendapatkan
penyelesaiannya. 4. Dapat digunakan dalam berbagai jenis komputer. 5. Memiliki kemampuan untuk beradaptasi.
Bidang-Bidang Pengembangan Sistem Pakar Ada beberapa kategori pengembangan sistem pakar, antara lain: 1. Kontrol. Contoh pengembangan banyak ditemukan dalam kasus pasien di rumah sakit, di mana dengan kemampuan sistem pakardapat dilakukan kontrol terhadap cara pengobatan dan perawatan melalui sensor data atau kode alarm dan memeberikan solusi terapi pengobatan yang tepat bagi pasien yang sakit.
Sistem Pakar
179
2. Desain. Contoh sistem pakar di bidang ini adalah PEACE yang dibuat Dincbas untuk membantu desain pengembangan sirkuit elektronik dan sistem pakar yang membantu desain komputer dengan komponen-komponennya. 3. Diagnosis. Pengembangan sistem pakar terbesar adalah di bidang diagnosis, seperti diagnosis penyakit, diagnosis kerusakan mesin kendaraan bermotor, diagnosis kerusakan komponen komputer, dan lain-lain. 4. Instruksi. Instruksi merupakan pengembangan sistem pakar yang sangat berguna dalam bidang ilmu pengetahuan dan pendidikan, di mana sistem pakar dapat memberikan instruksi dan pengajaran tertentu terhadap suatu topik permasalahan. Contoh pengembangan sistem pakar di bidang ini adalah sistem pakar untuk pengajaran bahasa inggris, sistem pakar buntuk pengajaran astronomi, dan lain-lain. 5. Interprestasi. Sistem pakar yang dikembangkan dalam bidang interprestasi melakukan pemahaman akan suatu situasi dari beberapa informasi yang direkam. Contoh sistem yang dikembangkan dewasa ini adalah sistem untuk melakukan sensor gambar dan suara kemudian menganalisisnya dan kemudian membuat suatu rekomendasi berdasarkan rekaman tersebut. 6. Monitor. Sistem pakar dalam bidang ini banyak digunakan militer, yaitu menggunakan sensor radar kemudian menganalisisnya dan menentukan posisi objek berdasarkan posisi radar tersebut. 7. Perencanaan. Perencanaan banyak digunakan dalam bidang bisnis dan keuangan suatu proyek, di mana sistem pakar dalam membuat perencanaan suatu pekerjaan berdasarkan jumlah tenaga kerja, biaya dan waktu sehingga pekerjaan menjadi lebih efisien. 8. Prediksi.
Sistem Pakar
180
Sistem pakar dapat memprediksi kejadian masa mendatang berdasarkan informasi dan model permasalahan yang dihadapi. Biasanya sistem meberikan simulasi kejadian masa mendatang tersebut, misalnya memprediksi tingkat kerusakan tanaman apabila terserang hama dalam jangka waktu tertentu. 9. Seleksi. Sistem pakar dengan seleksi mengidentifikasikan pilihan terbaik dari beberapa daftar pilihan kemungkinan solusi. 10. Simulasi. Sistem ini memproses operasi dari beberapa variasi kondisi yang ada dan menampilkannya dalam bentuk simulasi. Contoh yaitu program untuk menganalisis hama dengan berbagai kondisi suhu dan cuaca.
3.1.4. Struktur Sistem Pakar Sistem pakar disusun oleh dua bagian utama, yaitu: lingkungan pengembangan (consultation
(development environment)
environment) (Muhammad
dan
lingkungan
Arhami,
2005).
konsultasi Lingkungan
pengembangan sistem pakar digunakan untuk memasukkan pengetahuan pakar kedalam lingkungan sistem pakar, sedangkan lingkungan konsultasi digunakan oleh pengguna yang bukan pakar guna memperoleh pengetahuan pakar.
Komponen-komponen yang terdapat dalam sistem pakar antara lain adalah sebagai berikut : 2. Antarmuka pengguna (user interface) User interface merupakan mekanisme yang digunakan oleh pengguna dan sistem pakr untuk berkomunikasi. Antarmuka menerima informasi dari pemakai dan mengubahnya kedalam bentuk yang dapat diterima oleh sistem. Pada bagian ini terjadi dialog antara program dan pemakai, yang
Sistem Pakar
181
memungkinkan sistem pakar menerima instruksi dan informasi (input) dari pemakai, juga memberikan informasi (output) kepada pemakai. 3. Basis Pengetahuan Basis pengetahuan berisi pengetahuan-pengetahuan dalam penyelesaian masalah dalam domain tertentu.Ada dua bentuk pendekatan basis pengetahuan yang sangat umum digunakan, yaitu : a) Penalaran berbasis aturan (Rule-Based Reasoning) Pengetahuan direpresentasikan dengan menggunakan aturan berbentuk : IFTHEN. Bentuk ini digunakan apabila memiliki sejumlah pengetahuan pakar pada suatu permasalahan tertentu, dan pakar dapat menyelesaikan masalah tersebut secara berurutan. b) Penalaran berbasis kasus (Case-Based Reasoning) Basis pengetahuan berisi solusi-solusi yang telah dicapai sebelumnya, kemudian akan diturunkan suatu solusi untuk keadaan yang terjadi sekarang. 3. Akuisisi Pengetahuan (knowledge acquisition) Akuisisi pengetahuan adalah akumulasi, transfer, dan transformasi keahlian dalam menyelesaikan masalah dari sumber pengetahuan kedalam program komputer. Dalam tahap ini knowledge engineer berusaha menyerap pengetahuan
untuk
selanjutnya
di
transfer
ke
dalam
basis
pengetahuan.Terdapat empat metode utama dalam akuisisi pengetahuan, yaitu: wawancara, analisis protocol, observasi pada pekerjaan pakar dan induksi aturan dari contoh. 4. Mesin inferensi Mesin inferensi merupakan perangkat lunak yang melakukan penalaran dengan menggunakan pengetahuan yang ada untuk menghasilkan suatu kesimpulan atau hasil akhir. Dalam komponen ini dilakukan permodelan proses berfikir manusia. 5. Workplace Workplace merupakan area dari sekumpulan memori kerja yang digunakan untuk merekam hasil-hasil dan kesimpulan yang dicapai. Ada tiga tipe keputusan yang direkam, yaitu :
Sistem Pakar
182
a) Rencana : Bagaimana menghadapi masalah. b) Agenda : Aksi-aksi yang potensial yang sedang menunggu untuk eksekusi. c) Solusi : calon aksi yang akan dibangkitkan. 6. Fasilitas penjelasan Fasilitas penjelasan adalah komponen tambahan yang akan meningkatkan kemampuan sistem pakar. Komponen ini menggambarkan penalaran sistem kepada pemakai dengan cara menjawab pertanyaan-pertanyaan. 7. Perbaikan pengetahuan Pakar memiliki kemampuan untuk menganalisis dan meningkatkan kinerjanya serta kemampuan untuk belajar dan kinerjanya. Komponen-komponen sistem pakar dalam kedua bagian tersebut dapat dilihat pada gambar 2.1 berikut ini:
Gambar 3.1 Komponen sistem pakar (sumber: M.Arhami (2005))
3.1.5. Keuntungan Sistem Pakar Sistem pakar merupakan paket perangkat lunak atau paket program komputer yang ditujukan sebagai penyedia nasehat dan sarana bantu dalam menyelesaikan masalah di bidang-bidang spesialisasi tertentu. Ada beberapa keunggulan dari sistem pakar, diantaranya dapat : 1. Menghimpun data dalam jumlah yang sangat besar.
Sistem Pakar
183
2. Menyimpan data tersebut untuk jangka waktu yang panjang dalam suatu bentuk tertentu. 3. Mengerjakan perhitungan secara cepat dan tepat dan tanpa jemu mencari kembali data yang tersimpan dengan kecepatan tinggi. Ada banyak keuntungan yang dapat diperoleh dengan adanya sistem pakar antara lain sebagai berikut : 1. Memungkinkan orang awam dapat mengerjakan pekerjaan para ahli. 2. Dapat melakukan proses berulang secara otomatis. 3. Menyimpan pengetahuan dan keahlian para pakar. 4. Meningkat output dan produktivitas. 5. Meningkatkan kualitas. 6. Mampu mengambil dan melestarikan keahlian para pakar. 7. Mampu beroperasi dalam lingkungan yang berbahaya. 8. Memiliki kemampuan untuk mengakses pengetahuan. 9. Memiliki reliabilitas. 10. Meningkatkan kapabilitas sistem komputer. 11. Memiliki kemampuan untuk bekerja dengan informasi yang tidak lengkap dan mengandung ketidakpastian. 12. Sebagai media pelengkap dalam pelatihan.
3.1.6. Representasi pengetahuan Representasi pengetahuan merupakan metode yang digunakan untuk mengkodekan
pengetahuan
dalam
sebuah
sistem
pakar
yang
berbasis
pengetahuan. Perepresentasian dimaksudkan untuk manangkap sifat-sifat penting problema dan membuat informasi itu dapat diakses oleh prosedure pemecahan problema (Kusrini, 2006). Bahasa representasi harus dapat membuat seorang perogram mampu mengekspresikan pengetahuan yang diperlukan untuk mendapatkan
solusi
problema,
dapat
diterjemahkan
ke
dalam
bahasa
pemrograman dan dapat disimpan. Harus dirancang agar fakta-fakta dan pengetahuan lain yang terkandungdi dalamnya dapat digunakan untuk penalaran.
Sistem Pakar
184
3.1.7. Model Representasi Pengetahuan Pengetahuan dapat direpresentasikan dalam bentuk yang sederhana atau kompleks, tergantung dari masalahnya. Beberapa model representasi pengetahuan yang penting, adalah: 1. Logika (logic) Logika merupakan suatu pengkajian ilmiah tentang serangkaian penalaran, sistem kaidah, dan prosedur yang membantu proses penalaran. Logika merupakan representasi pengetahuan yang paling tua. Bentuk logika komputasional ada 2 macam, yaitu: a) Logika Proporsional atau Kalkulus Logika proporsional merupakan logika simbolik untuk memanipulasi proposisi. Proposisi merupakan pernyataan yang dapat bernilai benar atau salah yang dihubungkan dengan operator logika diantaranya operator And (dan), Or (atau), Not (tidak), Impilikasi (if..then), Bikondisional (if and only if). Contohnya: Jika hujan turun sekarang maka saya tidak akan ke pasar, dapat dituliskan dalam bentuk: ( p => q) b) Logika Predikat Logika predikat adalah suatu logika yang seluruhnya menggunakan konsep dan kaidah proposional yang sama dengan rinci. Suatu proposisi atau premis dibagi menjadi dua bagian, yaitu: argumen (objek) dan predikat (keterangan). Predikat adalah keterangan yang membuat argument dan predikat. Contohnya: Mobil berada dalam garasi, dapat dinyatakan menjadi Di dalam (mobil,garasi). Di dalam = keterangan, mobil = argumen, garasi = argumen. 2. Jaringan semantik (semantic nets) Representasi jaringan semantic merupakan penggambaran grafis dari pengetahuan yang memperlihatkan hubungan hirarkis dari objek-objek yang terdiri
atas
simpul
(node)
dan
penghubung
(link).
Contohnya
:
Merepresentasikan pernyataan bahwa semua komputer merupakan alat elektornik, semua PC merupakan komputer, dan semua komputer memiliki monitor. Dari pernyataan tersebut dapat diketahui bahwa semua PC memiliki
Sistem Pakar
185
monitor dan hanya sebagian alat elektronik yang memiliki monitor, hal ini dapat dilihat pada gambar 3.2 berikut ini:
Gambar 3.2 Representasi Jaringan Semantik 4. Object-Atributte-Value (OAV) Object dapat berupa bentuk fisik atau konsep, Attribute adalah karakteristik atau sifat dari object tersebut, Value (nilai) - besaran spesifik dari attribute tersebut yang berupa numeric, string atau boolean. Contoh: Object: mangga ; Attribute: berbiji ; Value: tungggal. 4. Bingkai (frame) Bingkai berupa ruang (slots) yang berisi atribut untuk mendeskripsikan pengetahuan yang berupa kejadian. Binkai memuat deskripsi sebuah objek dengan menggunakan tabulasi informasi yang berhubungan dengan objek. Contoh: Bingkai penyakit yang dilihat pada gambar 3.3 berikut ini:
Gambar 3.3. Bingaki Penyakit 5. Kaidah produksi (production rule).
Sistem Pakar
186
Kaidah menyediakan cara formal untuk merepresentasikan rekomendasi, arahan, atau strategi. Kaidah produksi dituliskan dalam bentuk jika-maka (ifthen)
yang
menghubungkan
anteseden
dengan
konsekuensi
yang
diakibatkannya. Berbagai struktur kaidah if-then ynag menghubungkan obyek atau atribut adalah sebagai berikut : JIKA premis MAKA konklusi JIKA masukan MAKA keluaran JIKA kondisi MAKA tindakan JIKA anteseden MAKA konsekuen JIKA data MAKA hasil JIKA tindakan MAKA tujuan
4.1.8. Inferensi Inferensi merupakan proses untuk menghasilkan informasi dari fakta yang diketahui atau diasumsikan. Inferensi adalah konklusi logis (logical conclusion) atau implikasi berdasarkan informasi yang tersedia dalam hal ini akan digunakan metode inferensi dalam pengambilan kesimpulan. Ada dua metode inferensi yang penting dalam sistem pakar untuk menarik kesimpulan, yaitu: 1. Runut Maju (Forward Chaining) Pelacakan ke depan adalah pendekatan yang dimotori data (data-driven). Dalam pendekatan ini pelacakan dimulai dari informasi masukan dan selanjutnya mencoba menggambarkan kesimpulan. Pelacakan ke depan mencari fakta yang sesuai dengan bagian IF dari aturan IF-THEN. Gambar 3.4 menunjukkan proses Forward Chaining.
Sistem Pakar
187
Gambar 3.4. Proses Forward Chaining 2. Runut Balik ( Backward Chaining ) Runut balik adalah pendekatan yang dimotori tujuan (goal-driven). Dalam pendekatan ini pelacakan dimulai dari tujuan, selanjutnya dicari aturan yang memiliki tujuan tersebut untuk kesimpulannya. Selanjutnya proses pelacakan menggunakan premis untuk aturan tersebut sebagai tujuan baru dan mencari aturan lain dengan tujuan baru sebagai kesimpulannya. Selanjutnya, proses pelacakan menggunakan premis untuk aturan tersebut sebagai tujuan baru dan mencari aturan lain dengan tujuan baru sebagai kesimpulannya. Proses berlanjut sampai semua kemungkinan ditemukan. Gambar 3.5 menunjukkan proses Backward Chaining.
Gambar 3.5. Backward Chaining (Runut Balik)
4.2. Metode Bayes Classification adalah proses untuk menemukan model atau fungsi yang menjelaskan atau membedakan konsep atau kelas data, dengan tujuan untuk dapat memperkirakan kelas dari suatu objek yang labelnya tidak diketahui. Model itu sendiri bias berupa aturan “jika- -‐maka”. Dalam teknik classification terdapat beberapa algoritma yang bias digunakan antara lain teoremabayes, decisiontree, adaptive naïve bayes, logistic regression dan support vectormachine.
Proses
classification biasanya dibagi menjadi dua fase: learning dan test. Pada fase learning, sebagian data yang telah diketahui kelas datanya diumpankan untuk membentuk model perkiraan. Kemudian pada fase test model yang sudah terbentuk diuji dengan sebagian data lainnya untuk mengetahui akurasi dari model
Sistem Pakar
188
tersebut. Bila akurasinya mencukupi model ini dapat dipakai untuk prediksi kelas data yang belum diketahui. Metode Bayes dikembangkan oleh Reverend Thomas Bayes apda abad ke18 dan dikembangkan secara luas dalam statistic inferensial. Aplikasi banyak untuk Decission Support System dan Rehability. Bayesian Classification didasarkan pada Teorema Bayesian. Konsep dasar teori bayes pada dasarnya adalah peluang bersyarat P(H|X). Dimana dalam Bayesian H adalah posterior dan X adalah prior. Prior adalah pengetahuan kita tentang karakteristik suatu parameter (bias dibaca sebagai pengalaman dimasa lalu atas suatu parameter atau juga bias berdasarkan teori), sedangkan posterior adalah karakteristik yang akan kita duga pada kejadian yang akan datang. Teorema Bayesian berguna untuk melakukan kalkulasi probabilitas posterior, P(H|X), dari P(H),P(X) dan P(X|H).Teori Bayesa dalah sebagai berikut: Misalnya peristiwa-peristiwa A1, A2, …, Ak membentuk suatu partisi di dalam ruang sampel S sedemikian hingga P(Ai) > 0 dengan i bernilai 1, 2, …, k dan B sembarang peristiwa sedemikian hingga P(B) > 0, maka
( | )=
∑
( ) ( | ) ( ) ( | )
Teorema Bayes memberikan aturan sederhana untuk menghitung probabilitas bersyarat peristiwa jika telah terjadi, yaitu jika masing-masing probabilitas tak bersyarat dan probabilitas bersyarat dengan diketahui (Soejoeti dan Soebanar, 1988).
3.2.1. Prior Proporsi p mempunyai rentang nilai 0 sampai 1. Dalam paradigma Bayesian, seseorang mengungkapkan suatu keyakinan dalam sebuah proporsi populasi sebelum mengobservasi data melalui densitas probabilitas pada satu unit interval. Densitas probabilitas ini yang disebut sebagai densitas prior selama hal
Sistem Pakar
189
tersebut merefleksikan kepercayaan subjektif seseorang. Box dan Tiao (1973) membagi prior menjadi 2 kelompok berdasarkan fungsi Likelihoodnya : 1. Berkaitan dengan bentuk distribusi hasil identifikasi pola datanya a. Prior konjugat, mengacu pada acuan analisis model terutama dalam pembentukan fungsi likelihoodnya sehingga dalam penentuan prior konjugat selalu dipikirkan mengenai penentuan pola distribusi prior yang mempunyai bentuk konjugat dengan fungsi densitas peluang pembangun likelihoodnya. b. Prior
non-konjugat,
pemberian
prior
pada
model
tidak
mempertimbangkan pola pembentuk fungsi likelihoodnya. 2. Berkaitan dengan penentuan masing-masing parameter pada pola distribusi prior tersebut. a. Prior informatif mengacu pada pemberian parameter dari distribusi prior yang telah dipilih baik distribusi prior konjugat atau tidak. Pemberian nilai parameter pada distribusi prior ini akan sangat mempengaruhi bentuk distribusi posterior yang akan didapatkan pada informasi data yang diperoleh. b. Prior non-informatif, apabila pemilihan distribusi priornya tidak didasarkan pada informasi yang ada sebelumnya. Apabila pengetahuan tentang priornya sangat lemah, maka bisa digunakan prior berdistribusi normal dengan mean nol dan varian besar. Efek dari penggunaan prior dengan mean nol adalah estimasi parameternya dihaluskan menuju nol. Tetapi, karena pemulusan ini dilakukan oleh varian, maka pemulusan tersebut bisa diturunkan dengan meningkatkan varian (Galindo-Garre dan Vermunt, 2004).
3.2.2. Posterior Probabilitas bersyarat B apabila A diketahui dirumuskan sebagai : ( | )=
Sistem Pakar
190
( ∩ ) ( )
Probabilitas bayes merupakan salah satu cara untuk mengatasi ketidakpastian data dengan
cara
menggnkan
formula
bayes
yangdinyatakan
dengan
\
( | )∗ ( ) ( )
( | )=
Dimana
P(H|E)=probabilitas hipotesis H benar jika evidence E P(E|H)=probabilitas munculnya evidence E, jika diketahui hipotesis H benar P(H)=probabilitas hipotesis E tanpa memandang evidence apapun P(E)=probabilitas evidence E Secara umum teorema bayes dengan E kejadian dan hipotesis H dapat dituliskan dalam bentuk (
=
| )= ∑
=
∑
( |
( |
( |
( ∩ ) ( ∩
) (
) (
) ( ( )
) )
)
)
Setelah dilakukan pengujian terhadap hipotesis, kemudian muncul lebih dari satu evidence. Maka persamaannya menjadi
Dimana
( | , )= ( | )
( | , ) ( | )
E=evidence lama E=evidence baru P(H|E,e)=probabilitas hipotesis H benar jika muncul evidence baru E dari evidence lama e P(H|E)=probabilitas hipotesis H benar jika diberikan evidence E P(e|E,H)=kaitan antara e dan E jika hipotesis H benar P(e|E)=kaitan antara e dan E tanpa memandang hipotesis apapun (Sri Winarti, 2008)
I.
Probabilitas Bersyarat
Sistem Pakar
191
( ∩ ) ( )
( | )=
Probabilitas B di dalam A adalah probabilitas interseksi B dan A dari probabilitas A, atau dengan bahasa lain P(B|A) adalah presentase banyaknya B didalam A Contoh Tabel 3.1. Data Penerimaan beasiswa Nim
IPK
Kehadiran
Attitude
Dapat Beasiswa
001
Bagus
Tinggi
Baik
Ya
002
Bagus
Tinggi
Baik
Ya
003
Cukup
Sedang
Baik
Tidak
004
Bagus
Tinggi
Kurang
Ya
005
Cukup
Sedang
Kurang
Tidak
006
Bagus
Tinggi
Baik
Ya
1. Banyaknya data dapat beasiswa=ya adalah 4 dari 6 data, maka dituliskan P(beasiswa=Ya) = 4/6,
Banyaknya data IPK=bagus dan dapat
beasiswa=ya adalah 4 dari 6 data, maka dituliskan P(IPK=bagus dan beasiswa=ya) = 4/6. (
=
|
=
)=
/ /
=1
2. Banyaknya data dapat beasiswa=ya adalah 4 dari 6 data, maka dituliskan P(beasiswa=Ya) = 4/6, Banyaknya data IPK=bagus dan attitude=baik dan dapat beasiswa=ya adalah 4 dari 6 data, maka dituliskan P(IPK=bagus dan beasiswa=ya) = 3/6. ( 2.
=
|
=
|
=
)=
/ /
=3/4
Probabilitas Bayesian Menurut Sri Hartati dan Iswanti Sari (2008, h. 108), Probabilitas Bayesian
adalah salah satu cara untuk mengatasi ketidakpastian dengan menggunakan Formula Bayes. Yang dinyatakan sebagai berikut :
Sistem Pakar
192
( | )=
( | ) ( ) ( )
..................(1)
Di mana
P(H | E) : probabilitas hipotesa H jika terdapat evidence E P(E | H) : probabilitas munculnya evidence E jika diketahui hipotesis H P(H)
: probabilitas hipotesa H tanpa memandang evidance apapun
P(E)
: probabilitas evidance E Penerapan teorema Bayes untuk mengatasi ketidakpastian, jika muncul
lebih dari satu evidence dituliskan sebagai barikut : ( | , )= ( | )
( | , ) ( | )
...........(2)
Di mana e
: evidence lama
E
: evidence baru
P(H|E,e)
: probabilitas adanya hipotesa H, jika muncul evidence baru E dari evidence lama e
P(e|E,H)
: probabilitas kaitan antara e dan E tanpa jika hipotesa H benar
P(e | E)
: probabilitas kaitan antara e dan E tanpa memandang hipotesa apapun
P(H | E)
Sistem Pakar
: probabilitas hipotesa H jika terdapat evidence E
193
3.2.3. Penerapan Metode Bayes Berdasarkan jurnal Relita Buaton dan Sri Astuti dengn judul Perancangan Sistem Pakar Tes Kepribadian Dengan Menggunakan Metode Bayes. Dengan tujuan dan manfaat penelitian adalah : 1. Penerapan
teorema
Bayes
untuk
mengatasi
ketidakpastian
type
kepribadian 2. Menentukan peluang terjadinya peristiwa antar type kepribadian Sedangkan manfaat penelitian ini adalah : 1. Untuk memudahkan seseorang dalam mengenali tipe kepribadianya. 2. Membantu kesulitan seseorang dalam mengetahui kelemahan dan kekurangan yang dimilikinya. I.
Analisa Sistem Prinsip kerja sistem pakar Tes Kepribadian MBTI adalah sebagai berikut :
1. Membuat basis pengetahuan yang mampu menampung kriteria - kriteria Kepribadian MBTI. 2. Membangun basis pengetahuan untuk menganalisa suatu masalah tertentu yang selanjutnya akan mencari tipe kepribadian apa yang dimiliki oleh client dan saran pengembangan yang diberikan. 3. Merancang antarmuka pemakai yang dapat menjangkau semua kebutuhan client tanpa mempersulit atau membingungkan user dalam penggunaan sistem. II.
Basis Pengetahuan Basis pengetahuan merupakan representasi dari proses akuisi pengetahuan
dimana dalam akuisisi pengetahuan ini dilakukan pengumpulan data – data pengetahuan yang menjadi satu masalah dari seorang pakar dan dijadikan dokumentasi untuk diolah dan diorganisasikan menjadi pengetahuan. Pengetahuan yang diperoleh harus direpresentasikan menjadi basis pengetahuan yang selanjutnya didokumentasikan, diorganisasikan dan digambarkan dalam bentuk rancangan lain menjadi bentuk yang dapat menunjukan suatu kecerdasan. Pengetahuan yang diperoleh direpresentasikan kedalam metode dan kaidah proses pemecahan masalah. Dalam memecahkan permasalahan metode yang digunakan
System Pendukung Keputusan
152
adalah Bayes, proses awal yang dilakukan dalam pembentukan kepakaran adalah pembentukan tabel keputusan, lalu pengkonversian tabel dan hasil kesimpulan dimasukan kedalam metode yaitu Bayes untuk mendapatkan solusi dari kesimpulan yang diperoleh. Pembentukan
tabel
keputusan
merupakan
suatu
cara
untuk
mendokumentasikan pengetahuan dimana tabel keputusan ini mendeskripsikan pengetahuan. Pada bagian ini diberikan contoh proses akuisisi dan representasi pengetahuan suatu perangkat dalam hal ini adalah karakter – karakter dan kepribadian, seperti pada tabel berikut :
Tabel 3.2. Tabel Keputusan Kepribadian Ekstravert dan Introvert NO
X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
Tipe
1
2
3
4
5
6
7
8
9
10
Kepribadian
Tidak Ya
INTROVERT
1
Tidak Ya
2
Tidak Tidak Tidak Tidak Tidak Tidak Tidak Ya
Tidak Tidak INTROVERT
3
Tidak Ya
Tidak Tidak Ya
Tidak Tidak Ya
Tidak Tidak EXTRAVERT
4
Tidak Ya
Tidak Tidak Ya
Ya
5
Tidak Ya
Ya
Tidak Tidak Tidak Tidak Tidak EXTRAVERT
6
Tidak Tidak Tidak Ya
7
Tidak Ya
Tidak Tidak Ya
Tidak Tidak Tidak Tidak Tidak EXTRAVERT
8
Tidak Ya
Ya
Tidak Tidak Tidak Tidak Tidak INTROVERT
9
Tidak Ya
Tidak Tidak Ya
Tidak Tidak Ya
Ya
10
Tidak Ya
Tidak Ya
Tidak Tidak Ya
Tidak Ya
EXTRAVERT
11
Ya
Ya
Ya
Ya
Ya
INTROVERT
12
Ya
Ya
Tidak Tidak Ya
13
Tidak Ya
Tidak Tidak Tidak Tidak Tidak Tidak Tidak Tidak INTROVERT
14
Tidak Ya
Ya
Tidak Tidak Tidak Tidak Ya
Ya
Tidak EXTRAVERT
15
Ya
Ya
Tidak Ya
Ya
Ya
Ya
Tidak Tidak Tidak Ya
Tidak Ya
Ya
Ya
Tidak Tidak Tidak INTROVERT
Tidak Tidak Tidak Tidak Tidak Tidak INTROVERT
Ya
Ya
Tidak Ya
System Pendukung Keputusan
Tidak Ya
Ya
Ya
Tidak Tidak Ya
Tidak Tidak Ya
153
Tidak INTROVERT
Ya
Tidak Tidak EXTRAVERT
EXTRAVERT
16
Tidak Ya
17
Tidak Tidak Ya
18
Tidak Ya
Tidak Tidak Ya
Ya
19
Ya
Ya
Tidak Ya
20
Tidak Tidak Tidak Tidak Ya
Tidak Tidak Tidak Ya
21
Tidak Tidak Ya
Tidak Tidak Tidak Tidak Tidak INTROVERT
22
Ya
23
Tidak Ya
Ya
24
Ya
Tidak Tidak Ya
25
Tidak Ya
Tidak Tidak Tidak Tidak Ya
26
Tidak Ya
Tidak Ya
27
Tidak Tidak Ya
28
Tidak Ya
Tidak Tidak Ya
29
Ya
Ya
Tidak Tidak Tidak Ya
30
Ya
Ya
Ya
Ya
31
Tidak Ya
Ya
Tidak Ya
32
Tidak Ya
Tidak Tidak Ya
33
Tidak Tidak Ya
Tidak Tidak Tidak Ya
34
Ya
Tidak Ya
Tidak Ya
EXTRAVERT
35
Tidak Tidak Tidak Tidak Tidak Tidak Tidak Tidak Tidak Ya
INTROVERT
36
Ya
37
Tidak Ya
Ya
Ya
Ya
Tidak Ya
38
Tidak Ya
Tidak Ya
Ya
Ya
Tidak Tidak Ya
39
Ya
Tidak Ya
Tidak Ya
Ya
Tidak Ya
Tidak Tidak INTROVERT
40
Ya
Ya
Ya
Tidak Ya
Ya
Tidak EXTRAVERT
41
Tidak Ya
Tidak Tidak Tidak Tidak Tidak Tidak Ya
Tidak INTROVERT
42
Tidak Tidak Tidak Ya
Tidak Ya
43
Tidak Tidak Tidak Ya
Tidak Tidak Tidak Tidak Tidak Tidak INTROVERT
44
Tidak Ya
Ya
45
Ya
Ya
Ya
Ya
Ya
Ya
Tidak Tidak Tidak Tidak Ya Tidak Tidak Ya
Tidak Ya
Tidak Ya
Tidak Ya
Ya
Tidak Ya
Tidak Ya
Ya
Tidak Tidak Tidak Ya
Tidak Ya
Ya
Ya
Ya
Ya
Ya
INTROVERT
Tidak Ya
Ya
INTROVERT
Tidak Ya
Tidak Tidak Ya
Tidak INTROVERT
Tidak EXTRAVERT
Tidak Ya
EXTRAVERT
Tidak Tidak Tidak INTROVERT
Tidak Tidak Tidak Ya
EXTRAVERT
Tidak Tidak Tidak Tidak Tidak INTROVERT Ya
Tidak Tidak Tidak Ya Tidak Ya
Tidak Ya Ya
Tidak Tidak INTROVERT
Tidak Tidak Ya
Tidak Tidak Tidak Ya Ya
Tidak INTROVERT
Tidak INTROVERT
Tidak Tidak EXTRAVERT Tidak EXTRAVERT
Tidak Tidak Ya
Tidak Tidak Ya
154
Tidak EXTRAVERT
Tidak Tidak INTROVERT
Tidak Ya
Tidak Tidak Ya
Ya
EXTRAVERT
Tidak Tidak Tidak EXTRAVERT
Tidak Tidak Ya
Tidak Tidak Tidak Tidak Ya
System Pendukung Keputusan
Tidak Tidak Tidak EXTRAVERT
Tidak Ya
Ya
Tidak EXTRAVERT
Tidak Tidak Tidak Tidak Tidak INTROVERT
Tidak Ya
Tidak Ya
Ya
Ya
INTROVERT
Tidak Tidak EXTRAVERT
Tidak Tidak Tidak Tidak EXTRAVERT
46
Ya
Ya
Ya
Ya
Tidak Tidak Ya
47
Ya
Ya
Ya
Tidak Tidak Tidak Tidak Ya
48
Tidak Ya
Tidak Ya
Tidak Ya
49
Tidak Ya
Tidak Ya
Tidak Ya
50
Tidak Ya
Ya
Tidak Ya
Tidak Tidak Tidak INTROVERT Ya
Tidak EXTRAVERT
Tidak Ya
Ya
Tidak INTROVERT
Tidak Ya
Tidak Tidak EXTRAVERT
Tidak Tidak Tidak Tidak Tidak INTROVERT
Asumsi : Y
: Tipe Kepribadian
X1
: Senang Berinteraksi
X2
: Senang Berkelompok
X3
: Bertindak atau bicara dulu baru berfikir
X4
: Penuh energi
X5
: Fokus keluar
X6
: Cerewet
X7
: Senang variasa dan suasana hidup
X8
: Terbuka
X9
: Berfikir sambil bicara
X10
: Senang diskusi
Fakta Menunjukan P (Y = Ekstravert) = 23/50 → P (Y = Introvert) = 27/50 Table 3.3 Tabel Keputusan Kepribadian Sensorik vs Kepribadian Intuitif NO
X1 1
X2 2
X3 3
X4
X5
4
5
X6 6
X7
X8
X9
X10
7
9
9
10
Tipe Kepribadian
1
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
INTUITIF
2
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Ya
Tidak
Tidak
SENSORIK
3
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
INTUITIF
4
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Ya
Ya
SENSORIK
5
Tidak
Tidak
Ya
Ya
Tidak
Ya
Ya
Ya
Tidak
Tidak
INTUITIF
6
Ya
Tidak
Tidak
Tidak
Ya
Ya
Ya
Ya
Tidak
Ya
SENSORIK
7
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
INTUITIF
8
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Ya
Ya
Tidak
SENSORIK
9
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Ya
Tidak
SENSORIK
System Pendukung Keputusan
155
10
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Ya
Tidak
Tidak
INTUITIF
11
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Tidak
Ya
SENSORIK
12
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
SENSORIK
13
Tidak
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
INTUITIF
14
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
SENSORIK
15
Tidak
Tidak
Tidak
Ya
Tidak
Ya
Tidak
Ya
Tidak
Ya
SENSORIK
16
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Ya
SENSORIK
17
Tidak
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Ya
Tidak
Tidak
INTUITIF
18
Ya
Ya
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Ya
SENSORIK
19
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
INTUITIF
20
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
INTUITIF
21
Tidak
Ya
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
SENSORIK
22
Tidak
Ya
Ya
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
SENSORIK
23
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
SENSORIK
24
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
INTUITIF
25
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
SENSORIK
26
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
INTUITIF
27
Tidak
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
Tidak
Tidak
SENSORIK
28
Tidak
Ya
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
INTUITIF
29
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
INTUITIF
30
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Ya
SENSORIK
31
Tidak
Ya
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
INTUITIF
32
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
INTUITIF
33
Tidak
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
SENSORIK
34
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
Ya
Tidak
Ya
SENSORIK
35
Ya
Tidak
Tidak
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
INTUITIF
36
Tidak
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Ya
SENSORIK
37
Tidak
Ya
Tidak
Ya
Ya
Tidak
Ya
Ya
Tidak
Ya
INTUITIF
38
Tidak
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
SENSORIK
39
Tidak
Ya
Tidak
Ya
Tidak
Ya
Tidak
Ya
Tidak
Tidak
INTUITIF
40
Tidak
Ya
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
Tidak
SENSORIK
41
Ya
Tidak
Tidak
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
INTUITIF
42
Tidak
Ya
Tidak
Ya
Tidak
Ya
Ya
Ya
Tidak
Tidak
SENSORIK
43
Ya
Tidak
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
SENSORIK
44
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Ya
Tidak
Tidak
INTUITIF
45
Tidak
Ya
Tidak
Tidak
Ya
Ya
Tidak
Ya
Tidak
Ya
SENSORIK
System Pendukung Keputusan
156
46
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Ya
Ya
Ya
INTUITIF
47
Ya
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Ya
SENSORIK
48
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Tidak
Tidak
SENSORIK
49
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
INTUITIF
50
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
SENSORIK
Asumsi : Y
: Tipe Kepribadian
X1
: Lebih suka pada fakta-fakta dan informasi konkrit
X2
: Lebih tertarik pada hal-hal yang bersifat aktual
X3
: Lebih tertarik pada hal-hal khusus
X4
: Lebih praktis dan realistik
X5
: Fokus pada hari ini
X6
: Lebih suka pada nilai-nilai umum
X7
: Bersifat pragmatis
X8
: Percaya pada pengalaman masa lalu
X9
: Cenderung ingin sesuatu dengan apa adanya
X10
: Tidak suka berandai-andai tentang hal-hal yang belum pasti
P (Y = Sensorik) = 28/50 → P (Y = Intuitif) = 22/50
Table 3.4. Keputusan Kepribadian Thinking vs Kepribadian Feeling
NO
X1 1
X2 2
X3
X4
X5
X6
X7
X8
3
4
5
6
7
8
X9 9
X10 10
Tipe Kepribadian
1
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
FEELING
2
Ya
Ya
Ya
Tidak
Ya
Ya
Tidak
Tidak
Ya
Tidak
FEELING
3
Tidak
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
THINKING
4
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
5
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Ya
FEELING
6
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
THINKING
7
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
FEELING
8
Ya
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
THINKING
System Pendukung Keputusan
157
9
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Ya
Tidak
FEELING
10
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
11
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
THINKING
12
Tidak
Tidak
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Ya
FEELING
13
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
14
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
15
Tidak
Ya
Ya
Ya
Tidak
Tidak
Tidak
Ya
Ya
Ya
THINKING
16
Tidak
Ya
Ya
Tidak
Ya
Tidak
Ya
Ya
Tidak
Tidak
FEELING
17
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Ya
THINKING
18
Ya
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Ya
Ya
Tidak
FEELING
19
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
THINKING
20
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
FEELING
21
Tidak
Ya
Ya
Tidak
Tidak
Ya
Ya
Tidak
Ya
Tidak
FEELING
22
Tidak
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
THINKING
23
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
24
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Ya
Tidak
THINKING
25
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Ya
FEELING
26
Tidak
Ya
Ya
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
THINKING
27
Tidak
Tidak
Ya
Tidak
Ya
Tidak
Ya
Tidak
Ya
Tidak
THINKING
28
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
FEELING
29
Ya
Tidak
Tidak
Tidak
Ya
Ya
Tidak
Ya
Ya
Tidak
THINKING
30
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
FEELING
31
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
THINKING
32
Tidak
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
FEELING
33
Tidak
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
FEELING
34
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
Tidak
Ya
Tidak
FEELING
35
Tidak
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
Tidak
Ya
THINKING
36
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Ya
FEELING
37
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
FEELING
38
Ya
Tidak
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Ya
THINKING
39
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
FEELING
40
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
FEELING
41
Tidak
Ya
Ya
Tidak
Ya
Ya
Tidak
Ya
Tidak
Ya
THINKING
42
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Ya
FEELING
43
Tidak
Ya
Ya
Tidak
Ya
Ya
Tidak
Ya
Tidak
Tidak
THINKING
44
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
FEELING
System Pendukung Keputusan
158
45
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Ya
THINKING
46
Ya
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
FEELING
47
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Ya
THINKING
48
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
49
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
FEELING
50
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
Ya
Tidak
Ya
THINKING
Asumsi : Y
: Tipe Kepribadian
X1
: Suka menganalisis masalah
X2
: objektif dan meyakinkan dengan akalnya
X3
: Terus terang
X4
: Nilai-nilai keahlian
X5
: Menentukan semua hal pakai kepalanya
X6
: Nilai-nilai keadilan
X7
: Tidak sensitif
X8
: Pintar mengkritik orang
X9
: Jarang memasukan kedalam hati
X10
: Senang mengkritik atau mengkoreksi orang dan blak-blakan
P (Y = Thinking) = 20/50 → P (Y = Feeling) = 30/50 Table 3.5. Keputusan Kepribadian Judging vs Kepribadian Perceiving X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
Tipe
1
2
3
4
5
6
7
8
9
10
Kepribadian
1
Ya
Ya
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
PERCEIVING
2
Ya
Tidak
Tidak
Ya
Ya
Tidak
Tidak
Ya
Tidak
Tidak
JUDGING
3
Tidak
Tidak
Tidak
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
PERCEIVING
4
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
JUDGING
5
Tidak
Ya
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
Ya
JUDGING
6
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Ya
Tidak
Tidak
Ya
PERCEIVING
7
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
JUDGING
8
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
JUDGING
NO
System Pendukung Keputusan
159
9
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
JUDGING
10
Tidak
Ya
Ya
Tidak
Ya
Tidak
Ya
Ya
Tidak
Tidak
PERCEIVING
11
Ya
Ya
Tidak
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
JUDGING
12
Ya
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
PERCEIVING
13
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
JUDGING
14
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
Tidak
PERCEIVING
15
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
Tidak
Tidak
JUDGING
16
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
JUDGING
17
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
JUDGING
18
Ya
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
PERCEIVING
19
Tidak
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
JUDGING
20
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
JUDGING
21
Ya
Ya
Tidak
Ya
Ya
Tidak
Tidak
Ya
Ya
Tidak
PERCEIVING
22
Ya
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
Tidak
Ya
PERCEIVING
23
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Ya
JUDGING
24
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Tidak
PERCEIVING
25
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
JUDGING
26
Ya
Tidak
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
PERCEIVING
27
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Ya
Ya
Tidak
JUDGING
28
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
JUDGING
29
Ya
Tidak
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Ya
JUDGING
30
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
PERCEIVING
31
Ya
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
Ya
Ya
Tidak
JUDGING
32
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
JUDGING
33
Ya
Ya
Tidak
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
PERCEIVING
34
Ya
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
Ya
Tidak
JUDGING
35
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
Tidak
JUDGING
36
Tidak
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
PERCEIVING
37
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Tidak
Tidak
Tidak
JUDGING
38
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Ya
Tidak
Tidak
JUDGING
39
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
PERCEIVING
40
Tidak
Ya
Tidak
Ya
Tidak
Ya
Ya
Ya
Ya
Tidak
JUDGING
41
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
JUDGING
42
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
PERCEIVING
43
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
JUDGING
44
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
PERCEIVING
System Pendukung Keputusan
160
45
Ya
Ya
Ya
Tidak
Ya
Tidak
Tidak
Ya
Tidak
Ya
PERCEIVING
46
Ya
Tidak
Ya
Ya
Tidak
Ya
Ya
Ya
Ya
Tidak
JUDGING
47
Tidak
Tidak
Ya
Ya
Ya
Tidak
Tidak
Ya
Ya
Ya
PERCEIVING
48
Tidak
Ya
Tidak
Tidak
Tidak
Tidak
Ya
Ya
Tidak
Tidak
JUDGING
49
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
JUDGING
50
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
Tidak
Tidak
Ya
PERCEIVING
Asumsi : Y
: Tipe Kepribadian
X1
: Mencari ketetapan
X2
: Percaya pada struktur
X3
: Rencanakan semua hal
X4
: Senang ketertiban
X5
: Kerja dulu main nanti
X6
: Senang menyelesaikan pekerjaan
X7
: Berorientasi pada tujuan
X8
: Lebih Rapi
X9
: Seang segalanya teratur
X10
: Tepat waktu
P (Y = Judging) = 30/50 → P (Y = Perceiving) = 20/50 III.
Pembahasan Misalkan untuk mengetahui tipe kepribadian dengan karakter, X1 = ya, X2
= Ya, X3 = Ya, X4 = Ya, X5 = Ya, X6 = Tidak, X7 = Ya, X8 = Tidak, X9 = Tidak, X10 = Tidak, maka tipe kepribadian apa yang dimiliki oleh client berdasarkan basis pengetahuan pada tabel 3.2 Fakta : (
=
| =
(
=
| =
(
=
| =
9 23 6 )= 27 21 )= 23
System Pendukung Keputusan
)=
161
(
=
| =
(
=
| =
(
=
(
=
(
=
( ( ( (
= (
(
=
=
= =
=
(
=
(
=
( ( (
=
=
=
16 27 11 )= 23 10 )= 27 9 )= 23 6 )= 27 15 )= 23 14 )= 27 )=
| = | = | = | = | =
| =
)=
| =
| =
| = | =
| = | =
| =
19 27 4 )= 23 7 )= 27 10 )= 23 18 = 27 15 ) 23 18 )= 27 18 ) 23 )=
| =
(
14 23
=
| =
)=
21 27
HMAP dari keadaan ini dapat dihitung dengan : Perhitungan Nilai Ekstravert (E) P ( X1 = Ya, X2 = Ya, X3 = Ya, X4 = Ya, X5 = Ya, X6 = Tidak, X7 = Ya, X8 = Tidak, X9 = Tidak, X10 = Tidak | Y = Ekstravert) = { P (X1 = Ya | Y = Ekstravert) . P (X2 = Ya | Y = Ekstravert) . P (X3 = Ya | Y = Ekstravert) . P (X4 = Ya | Y = Ekstravert) . P (X5 = Ya | Y = Ekstravert) . P (X6 =
System Pendukung Keputusan
162
Tidak | Y = Ekstravert) . P (X7 = Ya | Y = Ekstravert) . P (X8 = Tidak | Y = Ekstravert) . P (X9 = Tidak | Y = Ekstravert) . P (X10 = Tidak | Y = Ekstravert) } . P ( Y = Ekstravert) = { 9 23 . (21 23) . (11 23) . (9 23) . (15 23) . (14 23) . (4 23) . (10 23) . (15 23) . (17 23) } . (23 50) = 0.391 . 0.913 . 0.478 . 0.391 . 0.652 . 0.608 . 0.173 . 0.434 . 0.652 . 0.739 . 0.5 = 0.00095 Perhitungan Nilai Introvert (I) P ( X1 = Ya, X2 = Ya, X3 = Ya, X4 = Ya, X5 = Ya, X6 = Tidak, X7 = Ya, X8 = Tidak, X9 = Tidak, X10 = Tidak | Y = Introvert) = { P (X1 = Ya | Y = Introvert) . P (X2 = Ya | Y = Introvert) . P (X3 = Ya | Y = Introvert) . P (X4 = Ya | Y = Introvert) . P (X5 = Ya | Y = Introvert) . P (X6 = Tidak | Y = Introvert) . P (X7 = Ya | Y = Introvert) . P (X8 = Tidak | Y = Introvert) . P (X9 = Tidak | Y = Introvert) . P (X10 = Tidak | Y = Introvert) } . P ( Y = Introvert) = { 6 27 . (16 27) . (10 27) . (6 27) . (14 27) . (19 27) . (7 27) . (18 27) . (18 27) . (21 27) } . (27 50) = 0.222 . 0.592 . 0.370 . 0.222 . 0.518 . 0.703 . 0.259 . 0.666 . 0.666 . 0.777 . 0.54 = 0.00035 Karena nilai (P|Ekstravert) lebih besar dari nilai (P|Introvert) maka keputusannya adalah “Ekstravert” (E)
3.3.Fuzzy Sistem Dua buah logic yang kita bahas di atas adalah untuk masalah-masalah yang pasti. Bagaimana merepresentasikan masalah yang mengandung ketidak
System Pendukung Keputusan
163
pastian kedalam suatu bahasa formal yang dipahami komputer? Untuk masalah seperti ini,kita bisa menggunakan fuzzy logic.Beberapa kalangan menerjemahkan istilah ini sebagai logika samar.tetapi di buku ini,kita akan tetap menggunakan istilah fuzzy logic. Teori tentang fuzzy set atau himpunan samar pertama kali dikemukakan oleh Lotfi Zadeh sekitar tahun 1965 pada sebelum makalah yang berjudul ‘Fuzzy Sets’.setelah itu,sejak pertengahan 1970-an, para peneliti jepang berhasil mengaplikasikan teori ini ke dalam berbagai permasalahan praktis. Dengan teori fuzzy set,kita dapat merepresentasikan dan menangani masalah ketidakpastian yang dalam hal ini bisa berarti keraguan,ketidaktepatan,kekurangan lengkapan informasi,dan kebenaran yang bersifat sebagian. Di dunia nyata,seringkali kita menghadapi suatu masalah yang informasinya sangat sulit untuk diterjemahkan ke dalam suatu rumus atau angka yang tepat kerena informasi tersebut bersifat kualitatif (tidak bisa diukur secara kuantitatif).
3.3.1 Fuzziness dan Probabilitas Banyak peneliti berbeda pendapat tentang teori fuzzy dan teori probabilitas. Apakah tidak cukup menyelesaikan masalah ketidakpastian dengan menggunakan teori probabilitas? Kenapa harus menggunakan teori fuzzy? Sebenarnya, kedua teori tersebut memang sama-sama untuk menangani masalah ketidakpastian.tetapi perbedaannya adalah pada jenis ketidakpastian yang ditangani 3.3.2 Fuzzy Set Fuzzy set merupakan dasar dari fuzzy logic dan fuzzy systems.sebelum membahas fuzzy set secara mendalam,perhatikan permasalahan berikut tentang pemberian beasiswa di bawah ini. Memahami masalah tersebut dengan matang akan membuat kita lebih mudah memahami fuzzy set.
System Pendukung Keputusan
164
Kita ingin memutuskan apakah seorang mahasiswa layak mendapatkan beasiswa atau tidak. Misalkan, kita hanya memperhatikan dua parameter, yaitu indeks prestasi(IP) dan dihasilkan tes psikologi(TP). Mahasiswa A memiliki IP=3,00 dan TP=8,00, sedangkan masiswa B memiliki IP=2,999999 dan TP=8,50. Ssuatu universitas X membuat suatu aturan keputusan bahwa mahasiswa yang layak mendapat beasiswa adalah mahasiswa yang memiliki IP≥ 3,00 dan TP≥ 8,00, dengan aturan tersebut, maka dapat diputuskan bahwa mahasiswa A layak mendapatkan beasiswa sedangkan masiswa B tidak layak. Membuat keputusan dengan cara seperti ini bisa dianggap tidak adil oleh kalangan mahasiswa. Kenapa mahasiswa B tidak layak mendapatkan beasiswa? Padahal dia memiliki TP yang jauh lebih besar dibandingkan dengan mahasiswa A dan IP-nya sedikit lebih kecil dari IP mahasiswa A (perbedaanya hanya sebesar 0,000001). Pada kasus di atas, universitas X membuat keputusan dengan aturan yang jelas dan membedakan secara tegas. Dalam bahasa inggris hal ini disebut sebagai crisp yang dalam kamus oxford diartikan ssebagai clear and distinct. Untuk membuat keputusan yang adil,terkadang kita tidak bisa melihat masalah sebagai hitam dan putih. Terdapat hal-hal bernilai abu-abu yang jika diperhatikan akan membantu kita untuk membuat keputusan yang secara intuitif dan lebih adil. Crisp Set Himpunan yang membedakan anggota dan non anggotanya dengan batasan yang jelas disebut crisp set. Misalnya jika C={X|x integer,x > 2}, maka anggota C
adalah 3,4,5, dan seterusnya. Sedangkan yang bukan anggota C adalah 2,1,0,1,dan seterusnya. Fuzzy Set Misalkan U adalah universe (semesta)objek dan x anggota U. Suatu fuzzy set A dan di dalam U didefinisikan sebagai suatu fungsi keanggotaan
(X),yang
memetakan setiap objek di U menjadi suatu nilai real dalam interval [0,1].nilainilai
A (X) menyatakan derajat keanggota x di dalam A. Sebagai ilustrasi,
System Pendukung Keputusan
165
perhatikan tabel 3-6 berikut ini. Misalkan,x{5,10,20,30,40,50,60,70,80} adalah crisp set usia dalam satuan tahun. Balita, Dewasa, Muda, dan Tua adalah empat buah fuzzy set yang merupakan subset dari x. Tabel 3-6:suatu crisp set usia dan empat fuzzy set:Balita,Dewasa,Muda,Tua. X
Balita
Dewasa
Muda
Tua
5
0
0
1
0
10
0
0
1
0
20
0
0.8
0.8
0.1
30
0
1
0.5
0.2
40
0
1
0.2
0.4
50
0
1
0.1
0.6
60
0
1
0
0.8
70
0
1
0
1
80
0
1
0
Pada tabel diatas,terdapat empat buah fuzzy set (yang merupakan subset dari x), dengan anggota dan derajat keanggotannya,sebagai berikut:
Balita ={}
Dewasa
={20,30,40,50,60,70,80,},di
mana
derajat
keanggotaannya
dinyatakan oleh µ Dewasa={0.8,1,1,1,1,1,1,1}
Muda
={5,10,20,30,40,50,},dimana
derajat
keanggotaannya
oleh
µ muda={1,1,0.8,0.5,0.2,0.1}
Tua={20,30,40,50,60,70,80},dimana derajat keanggotaannya dinyatakan oleh µ Tua={0.1,0.2,0.4,0.6,0.8,1,1
Konversi penulisan fuzzy set Konversi untuk menuliskan fuzzy set yang dihasilkan dari universe U yang diskrit adalah sebagai berikut:
System Pendukung Keputusan
166
(
=
)
+
(
)
+⋯ = ∑
(
)
.
Sedangkan jika U adalah kontinyu.maka fuzzy set A di notasikan sabagai: = ∫
∈
( )
.
Pada contoh diatas fuzzy set tua di tuliskan sebagai: =∑
=0.1/20+0.2/30+0.4/40+0.6/50+0.8/60+1/70+1/80.
Penulisan notasi di ats hanyalah deskripsi
formal dan tanda ‘/’ menyatakan
pasangan (bukan operasi pembagian).sedangkan tanda ‘+’ menyatakan functiontheoritic union(bukan operasi penjumlahan).
Membership functions (Fungsi –fungsi keanggotaan) Di dalam fuzzy system, fungsi keanggotaan memainkan peran yang sangat penting untuk merepresentasikan masalah dan menghasilkan keputusan yang akurat.terdapat banyak sekali fungsi keanggotaan yang bisa digunakan.di sini, kita hanya membahas empat pungsi keanggotaan yang sering digunakan di dunia nyata,yaitu 1.Fungsi Sigmoid Sesuai dengan namanya, fungsi ini berbentuk kurva sigmoidal seperti huruf S. Setiap nilai x (anggota crisp set) dipetakan ke dalam interval [0,1]. Grafik dan notasi matematika untuk fungsi ini adalah sebagai berikut: 0,x≤a 2(((x-a)/(c-a))2 ,a<x≤b Sigmoid(x, a, b, c) = 2 ⎨1-2(((x-c)/(c-a)) ,b<x≤c ⎩ 1,c<x ⎧
2.fungsi phi
System Pendukung Keputusan
167
Disebut fungsi phi karena bentuk seperti simbol phi.pada pungsi keanggotaan ini,hanya terdapat satu nilai x yang memiliki derajat keanggotaan sama dengan 1,yaitu ketiaka x=c. Nilai-nilai di sekitar c memiliki derajat keanggotaan yang masih mendekati 1. Grafik dan notasi matematika dari fungsi ini adalah sebagai berikut:
µ(x)
1
c-b
c-b/2
c
c+b/2
c+b
X
Gambar 3.6. Grafik Fungsi Phi
phi(x,b,c)=
ℎ
1− ℎ
3.Fungsi segitiga
, − , − ,
, , + , +
,
,
≤
>
Sama dengan fungsi phi,pada fungsi ini juga terdapat hanya 1 nilai x yang memiliki derajat keanggotaan sama dengan 1,yaitu ketika x=b.tetapi,nilai-niali di sekitar b memiliki derajat keanggotaan yang turun cukup tajam (menjauhi 1).grafik dan notasi matematika dari fungsi segitiga adalah sebagai berikut:
System Pendukung Keputusan
168
µ(x) 1
a
b
c
x
Gambar 3.7. Grafik Fungsi Segitiga 0, ≤ , ≥ ( − )/( − ), < ≤ ( , , , ) −( − )/( − ), < ≤ 4.Fungsi trafesium Berbeda dengan fungsi segitiga,pada pungsi ini terdapat beberapa nilai x yang yang memiliki derajat keanggotaan untuk
a <x
karakteristik yang sama denagn fungsi segitiga.garfik dan notasi matematika dari fungsi trapesium adalah sebagai berikut: µ(x)
1
x a
b
System Pendukung Keputusan
c 169
d
Gambar 3.8. Grafik Fungsi Trafesium 0, ≤ , ≥ ( − )/( − ), < < ( , , , , ) 1, ≤ ≤ −( − )/( − ), < ≤ 3.3.3 Fuzzy logic Di buku ini, fuzzy logic didefinisikan sebagai suatu jenis logic yang bernilai ganda dan berhubungan dengan ketidakpastian dan kebenaran parsial. Objek dasar dari suatu logic adalah proposition (proposi) atau pernyataan yang menyatakan suatu fakta.
Crips input
µ Fuzzification
Fuzzy input
Fuzzy rules
Inference
Fuzzy output
Defuzzification
System Pendukung Keputusan
170 Crisp value Crisp value
output µ
Gambar 3.9. diagram blok yang lengkap untuk system berbasis aturan fuzzy
Variabel linguistik Varibel linguistik adalah suatu interval numerik dan mempunyai nilai-nilai linguistik, yang sematiknya didefinisikan oleh fungsi keanggotaannya. Misalnya suhu adalah suatu variabel linguistik yang bisa didefinisikan pada interval [-10℃ ,40℃].
Variabel
tersebut
bisa
memiliki
nilai-nilai
linguistik
seperti
‘Dingin’,’Hangat’,’Panas’yang sematiknya didefinisikan oleh fungsi-fungsi keanggotaan yang telah ditentukan.
Suatu sistem berbasis aturan fuzzy yang lengkap terdiri dari tiga komponen utama: Fuzzycation,Inference dan Defuzzification (lihat gambar 3.9 di atas). Fuzzification mengubah masukan-masukan yang nilai kebenarannya bersifat pasti (crisp input) ke dalam bentuk fuzzy input, yang berupa nilai linguistik yang sematiknya ditentukan berdasarkan fungsi keanggotaan tertentu. Inference melakukan penalaran menggunakan fuzzy infut dan fuzzy rules yang telah ditentukan
sehingga menghasilkan fuzzy output. Sedangkan Defuzzification
mengubah fuzzy output menjadi crisp value berdasarkan fungsi keanggotaan yang telah ditentukan. Sebagai ilustrasi untuk memperjelas pemahaman tentang sistem berbasis aturan fuzzy,perhatikan permasalahan berikut.
System Pendukung Keputusan
171
Studi Kasus: Sprinker control system (sistem kontrol untuk penyiram air) Misalkan kita ingin membangun sistem untuk mengontrol alat penyiram air. Input untuk sistem tersebut adalah:suhu udara(dalam ℃ ) dan Kelembaban tanah (dalam %). Sedangkan output diinginkan adalah durasi penyiraman (dalam satuan
menit). Misalkan,nilai crisp yang diterima oleh sensor suhu adalah 37℃ dan nilai crisp yang diterima sensor kelembaban adalah 12%. Berapa lama durasi penyiraman yang harus dilakukan? Untuk menentukan berapa lama durasi penyiraman,maka proses yang di lakukan adalah:
1. Fuzzification :mengubah kedua nilai crisp input tersebut menjadi fuzzy input menggunekan fungsi-fungsi keanggotaan: 2. Rule evaluation: melakukan resoning menggunakan nilai-nilai fuzzy input tersebut fuzzy rule sehingga di hasilkan fuzzy output: 3. Defuzzification : mengubah fuzzy out put menjadi nilai crips(dalam satuan detik )berdasarkan fungsi keanggotaan untuk output. Bagaimanapun, pada masalah tertentu, bisa saja output yang kita butuhkan adalah suatu nilai fuzzy. Sehingga kita tidak perlu melakukan proses defuzzification.
Fuzzification Masukan-masukan yang nialai kebenarannya
bersifat pasti(crips input )di
konversikan ke bentuk fuzzy input ,yang berupa nilai linguistik yang sematiknya ditentukan berdasarkan fungsi keanggotaan. Misalnya , suhu 20℃ dikonversikan menjadi hangat dengan derajat keanggotaan sama dengan 0,7. Inference
System Pendukung Keputusan
172
Untuk membedakan dengan first-order logic,secara sintaks,suatu aturan fuzzy di tuliskan sebagai: IF
antecendent
THEN
consequent.
( Dalam suatu sistem aturan fuzzy, proses inference memperhitungkan semua aturan yang ada dalam basis pengetahuan. Hasil dari proses inference di representasikan oleh suatu fuzzy set
untuk setiap kali variabel bebas (pada
consequent). Derajat keanggotaan setiap nilai variabel tidak bebas menyatakan ukuran kompatibilitas terhadap variabel bebas (pada antecedent). Misalkan ,terdapat suatu sistem dengan n variabel bebas X1 ,…..Xn dan m variabel tidak bebas Y1,…..Ym. Misalkan R adalah suatu basis dari sejumlah r aturan fuzzy IF P1(X1,…..,Xn)THEN Q1(Y1,…..Ym), IFPr(X1,………Xn)THEN Qr(Y1,…..Ym), Di mana P1,…..,Pr menyatakan fuzzy predicate untuk variabel bebas,dan Q1,…..,Qr menyatakan fuzzy predicate untuk variabael tidak bebas. Terdapat dua model aturan fuzzy yang digunakan secara luas dalam berbagai aplikasi,yaitu:
Model Mamdani Pada model ini ,aturan fuzzy di definisikan sebagai : IFx1 is A1 AND ….AND xn is An THEN y is B,
Di mana P1,…..,Pr menyatakan fuzzy predicate untuk variabel bebas,dan Q1,…..,Qr menyatakan fuzzy predicate untuk variabael tidak bebas. Terdapat dua model aturan fuzzy yang digunakan secara luas dalam berbagai aplikasi,yaitu: Di mana A1,…..,An,dan B adalah nilai-nilai linguistik (atau fuzzy set)”x1 is A1”menyatakan bahwa nilai variabel x1 adalah anggota fuzzy set A1
System Pendukung Keputusan
173
Model Sugeno
Model ini dikenal juga sebagai Takagi-Sugeno-Kang (TSK)model,yaitu suatu varian dari model mamdani.model ini menggunakan aturan yang berbentuk : IF x1 is A1 AND….AND xn is An THEN y=f (x1,….xn), Di mana f bisa berupa sembarang fungsi dari variabel-variabel input yang nilainya berada dalam
interval output.biasanya,fungsi ini dibatasi dengan
menyatakan f sebagai kombinasi linier dari variabel-variabel input: F(x1,….,xn)=wo+w1x1 +…….+ wn xn Di mana w0,w1,…..,wn adalah konstanta yang berupa bilangan real yang merupakan bagian dari spesifikasi aturan fuzzy. Defuzzification Terdapat berbagai metode Defuzzification yang telah berhasil di aplikasikan untuk berbagai macam masalah . di sini,kita hanya membahas 5 metode saja,yaitu:
Centroid method
Metode ini di sebut juga sebagai Center of Area atau Center
Of
Gravity.metode ini merupakan metode yang paling penting dan menarik di antara semua metode yang ada.metode ini menghitung nilai crisp mengunakan rumus:
y
∫ μ ( ) ∗ ∫μ ( )
Di mana y* suatu nilai crisp. Fungsi integration dapat di ganti dengan fungsi summation jika nilai bernilai diskrit,sehinga menjadi: ∑ μ ( ) ∑μ ( ) y∗
System Pendukung Keputusan
174
Di mana y adalah nilai crisp dan
(y) adalah derajat keanggotaan dari y.
Height method
Metode ini di kenal juga sebagai prinsip keanggotaan maksimum karna metode ini secara sederhana memiliki nilai crisp yang memiliki derajat keanggotaan maksimum.oleh karna itu, metode ini hanya bisa di pakai untuk fungsi keanggotaan yang memilki derajat keanggotan 1 pada suatu nilai crisp dan 0 pada semua nilai crisp yang lain.
First (or Last) of Maxima
Metode ini juga merupakan generalisasi dari height method untuk kasus di mana fungsi ke anggotaan out put memilki lebih dari 1 nilai maxsimum.sehingga,nilai crisp yang di gunakan adalah salah satu dari nilai yang dihasilkan dari maksimum pertama atau maksimum terahir(tergantung pada aplikasi yang akan di bangun ).
Mean-Max method
Metode ini di sebut juga sebagai Middle of Maxima.metode ini merupakan generalisasi dari Height methoad untuk kasus di mana terdapat lebih dari 1 nilai crisp yang memiki derajat keangotaan maxsimum.sehingga y*di definisikan sebagai titik tengah antara nilai crisp terkecil dan nilai crisp terbesar : ∗
Di mana m adalah nilai crisp yang paling kecil dan M adalah nilai crisp yang paling besar
Weighted Average
Metode ini mengambil nilai rata-rata dengan menggunakan pembobotan berupa derajat keanggotaan .sehingga y*di definisikan sebagai:
System Pendukung Keputusan
175
∗ ∑
( ) ( )
Di mana y adalah nilai crisp dan µ(y) adalah derajat keanggotaan dri nilai crisp y. Studi kasus Teori tentang fuzzy set dan fuzzy logic banyak di gunakan untuk membangun system berbasis aturan fuzzy untuk masalah kontrol. Perhatikan kembali masalah Sprinkler control system (Sistem kontrol penyiram air). Misalkan,nilai crisp yang di terima oleh sensor suhu adalah 37℃ dan nilai crisp yang di terima sensor kelembaban adalah 12%. Berapa lama durasi penyiraman yang harus di lakukan? Proses fuzzyfication Misalkan,untuk suhu udara kita menggunakan fungsi keanggotaan trapesium dengan lima variabel linguistik: Cold,Cool,Normal,Warm, Hot dengan funsi ini,maka crisp input suhu 37℃ dikonversi ke nilai fuzzy dengan cara :
Suhu 37℃ berada pada nilai linguistik Warm dan Hot
Semantik atau derajat keanggotaan untuk Warm di hitung menggunakan rumus
–(x-d)/(d-c),c<x ≤d (lihat notasi mate-matika
untuk fungsi trapezium),dimana c=36,dan d=39.sehingga derajat keanggotaanWarm=-(37-39)/(39-36)=2/3.
Derajat keanggotaan untuk hot dihitungkan menggunakan rumus (x-a)/(b-a),a<x
µ
Could
1
Cool
2/3 System Pendukung Keputusan
Normal
176
Warm
Hot
Gambar 3.10. fungsi keanggotaan trapesium untuk suhu udara . Misalkan,kita juga menggunakan fungsi keangggotaan Trapesium untuk Kelembaban tanah.dengan pungsi ini,maka crisp input kelembaban 12% dikonversi menjadi nilai fuzzy dengan cara berikut ini:
Kelembaban 12% berada pada nilai linguistik Dry dan Moist.
Semantik atau derajat keanggotaan untuk Dry dihitung menggunakan rumus -(x-d)/(d-c),c<x≤d,dimana c=10,dan d=20(lihat gambar 3-15). Sehingga derajat keanggotaan untuk Moist di hitung menggunkan rumus (x-a)/(ba),a<x
a=10,dan b=20.sehingga derajat keanggotaan
Moist=(12-10)/(20-10)=1/5. µ Dry
Moist
Wet
1 4/5
1/5 Kelembaban(%) 0
10
System Pendukung Keputusan
40
20 177
50
70
Gambar 3.11. Fungsi keanggotaan trapesium untuk kelembaban Tanah. µ
Short
0
Medium
20
28
Long
40
48
90
Durasi (menit)
Gambar 3.12. Fungsi keanggotaan trapesium untuk Durasi Penyiraman.
Jadi proses fuzzification menghasilkan empat fuzzy input: suhu udara=warm(2/3) dan hot(1/3),dan kelembaban tanah=dry (4/5)dan moist(1/5). Proses inferensi Terdapat berbagai macam cara dalam menentukan aturan fuzzy.misalkan,untuk durasi penyiraman kita menggunakan fungsi keanggotaan trapesium dengan tiga nilai linguistik:short,medium,dan long . Sebagai contoh, misalkan kita mendefinisikan aturan fuzzy seperti pada gambar 3.13 Antecedent 1 (suhu udara)
System Pendukung Keputusan
178
Antecedent 2 (kelembaban)
Cold Long Long Short
Dry Moist Wet
Cool Long Medium Short
Normal Long Medium Short
Warm Long Medium Short
Hot Long Medium Short
Gambar 3.13. Aturan Fuzzy Dengan definisi aturan fuzzy pada gambar 3.13 di atas,kita mempunyai 3x5=15 aturan fuzzy,yaitu: IF
Suhu=Cold
AND
Kelembaban=Dry
THEN
IF
Suhu=Hot
AND
Kelembaban=Wet
THEN
Durasi=Long
Durasi=Short Di sini kita akan membahas penggunaan inferensi menggunakan model mamdani dan model sugeno.kita akan melihat perbedaan kedua model tersebut.
Proses inference menggunakan model mamdani Jika kita menggunakan model mamdani, kita bisa menggunakan dua cara inferensi,yaitu clipping(alpha-cut) atau scaling. Metode yang paling umum digunakan
adalah
clipping
karena
mudah
diimplementasikan
dan
bila
diagregasikan dengan fungsi lain akan menghasilkan bentuk yang mudah didefuzzification. Dari
empat
data
fuzzy
input
tersebut,Warm(2/3),hot(1/3),Dry(4/5)dan
Moist(1/5),maka kita mendapatkan empat aturan (dari 15 aturan)yang dapat diaplikasiakan IF Suhu is Warm AND Kelembaban is Dry THEN Durasi Long
System Pendukung Keputusan
179
IF Suhu Warm AND Kelembaban is Moist THEN Durasi is Medium IF Suhu is Hot AND Kelembaban is Dry THEN Durasi is Long IF Suhu is Hot AND Kelembaban is THEN Durasi is Medium Dari empat aturan fuzzy dan empat fuzzy input tersebut, maka proses inference yang terjadi adalah sebgai berikut(misal kita menggunakan inferensing clipping).
Gunakan aturan conjuction(^)dengan memilih derajat keanggotaan minimum dari nilai-nilai linguistik yang di hubungkan oleh ^ (lihat persamaan 3-21) dan lakukan Clipping pada fungsi keanggotaan trapesium untuk durasi Peyiraman.sehingga di proleh
IF Suhu is Warm (2/3) AND Kelembaban is Dry (4/5) THEN Durasi is Long (2/3) IF Suhu is Warm (2/3) AND Kelembaban is Moist (1/5) THEN Durasi is Medium (1/5) IF Suhu is Hot (1/3) AND Kelembaban is Dry (4/5) THEN Durasi is Long (1/3) IF Suhu is Hot (1/3)AND Kelembaban is Moist (1/5)THEN Durasi is Medium (1/5)
Gunakan aturan Disjunction ( ) dengan memilih derajat keanggotaan Maximum dari nilai-nilai linguistik yang dihubungkan oleh v, dari ‘Durasi is Long (2/3) v Durasi is Long (1/3)’ dihasilkan ‘Durasi is Long (2/3)’. Sedangkan, dari ‘Durasi is Medium (1/5) v Durasi is Medium (1/5)’ dihasilkan’Durasi is Medium (1/5)’. Dengan demikain, kita memproleh dua pernyataan: Durasi Long (2/3) dan Durasi is Medium (1/5). Prose inferensi menggunakan proses Clipping menghasilkan dua area abu-abu
System Pendukung Keputusan
180
Proses inference menggunakan Model Sugeno Model Sugeno menggunakan fungsi keanggotaan yang lebih sederhana dibandingkan Model Mamdani. Fungsi keanggotaan tersebut adalah Singleton, yaitu fungsi keanggotaan 1 pada suatu nilai crisp tunggal dan 0 pada semua nilai crisp yang lain. Misalkan kita definisikan fungsi singleton untuk durasi Penyiraman berikut ini: Dengan cara yang sama seperti pada Model Mamdani, di proleh:Durasi is Long (4/5) dan Durasi is Medium (1/5). Prose inferensi menggunakan Model Sugeno menghasilkan dua derajat keanggotaan
Proses defuzzyficatition Sebelum
defuzzyficatition, kita harus melakukan proses composition, yaitu
agregasi hasil Clipping dari semua aturan fuzzy sehingga kita dapatkan satu fuzzy set tunggal. Proses defuzzyfication menggunakan Model Mamdani Proses composition dari dua fuzzy set,durasi is Medium (1/5) dan (b) Durasi is Long (2/3) menghasilkan satu fuzzy set tunggal. Misalkan,kita menggunakan Centroid method untuk proses defuzzyfication. Untuk mendapatkan nilai crisp menggunakan Centroid method.Untuk memudahkan penghitungan, menentukan titik sembarang pada area abu-abu tersebut, misalkan:24,28,32,36,40,48,60,70,80 dan 90, diproleh hasil sebagai berikut:
∗
(
/
/
/
/ ∗
System Pendukung Keputusan
) / / ,
(
=
181
/
/ ,
,
/
=60,97
/
) / /
Jadi dengan menggunakan Model Mamdani, untuk Suhu Udara 37℃ dan Kelembaban tanah 12%, maka sprinkle secara otomatis akan menyiramkan air selama 60,97 menit Proses defuzzyfication menggunakan Model Sugeno Proses composition dari dua fuzzy set, Durasi is Medium (1/5) dan (b) Durasi is long (2/3), menghasilkan satu fuzzy set tunggal. Jika kita menggunakan Height method untuk proses defuzzyfication,maka dari dua fuzzy set,Medium (1/5) dan long (2/3),dipilih nilai maksimumnya yaitu long (2/3).karena nilai crisp untuk long adalah 60,maka proses defuzzyfication menghasilkan nilai crisp sebesar 60. Dengan demikian, Durasi penyiraman adalah 60 menit. Jika kita menggunakan Weighted Average untuk proses defuzzyfication,maka ∗
/ (
/
)
/ ( /
)
= 55,38
Dengan demikian, jika kita menggunakan Model Sugeno dengan defuzzyfication berupa Weighted Avarage, maka Durasi penyiraman adalah 55,38 menit Pada kasus di atas,model Mamdani dan model Sugeno menghasilkan output yang berbeda. Hal ini tentu saja sangat dipengaruhi oleh dua hal: 1)perbedaan dalam mendefinisikan fungsi keanggotaan untuk Durasi penyiraman ;dan 2) perbedaan dalam penggunaan metode defuzzyfication. Dari ilustrasi kedua model di atas, terlihat bahwa model Sugeno menggunakan perhitungan yang libih sederhana dibandingkan model Mamdani. Tetapi,model Mamdani dapat memberikan output yang lebih intutif dan lebih sesuai dengan pola pikir manusia dibandingkan dengan model sugeno. Model Sugeno sering digunakan untuk masalah non linier yang dinamis, seperti sistem kontrol, karena waktu prosesnya yang sangat cepat dan output yang dihasilkan masih bisa diterima.
System Pendukung Keputusan
182
Pada kasus diatas,sistem berbasis aturan fuzzy menggunakan model Mamdani bisa menghasilkan output yang berupa bilangan real (yaitu 60,97).
3.4.
Certainty Factor
3.4.1. Pengertian Faktor Kepastian ( Certainty Factor ) Dalam menghadapi suatu masalah sering ditemukan jawaban yang tidak memiliki kepastian penuh. Ketidakpastian ini bisa berupa probabilitas atau kebolehjadian yang tergantung dari hasil suatu kejadian. Hasil yang tidak pasti disebabkan oleh dua faktor yaitu aturan yang tidak pasti dan jawaban pengguna yang tidak pasti atas suatu pertanyaan yang diajukan oleh sistem. Ada tiga penyebab ketidakpastian aturan yaitu
aturan
tunggal,
penyelesaian konflik
dan
ketidakcocokan
(incompatibility) antar konskuen dalam aturan. Aturan tunggal yang dapat menyebabkan ketidakpastian dipengaruhi oleh tiga hal, yaitu kesalahan, probabilitas dan kombinasi gejala (evidence). Kesalahan dapat terjadi karena (Kusrini, 2006) adalah sebagai berikut : 1. ambiguitas, sesuatu didefinisikan dengan lebih dari satu cara. 2. ketidaklengkapan data 3. kesalahan informasi 4. ketidakpercayaan terhadap suatu alat 5. adanya bias Probabilitas disebabkan ketidakmampuan seorang pakar merumuskan suatu aturan secara pasti. Misalnya jika seseorang mengalami sakit kepala, demam dan bersin-bersin ada kemungkinan orang tersebut terserang penyakit flu, tetapi bukan berarti apabila seseorang mengalai gejala tersebut pasti terserang penyakit flu. Certainty Factor (CF) menujukkan ukuran kepastian terhadap suatu fakta atau aturan.Notasi Faktor Kepastian(Sri Kusumadewi, 2003) adalah sebagai berikut :
System Pendukung Keputusan
183
CF[h,e] = MB[h,e] – MD[h,e] dengan CF[h,e] : Faktor Kepastian MB[h,e] : ukuran kepercayaan terhadap hipotesis h , jika diberikan evidence e ( antara 0 dan 1 ). MD[h,e] : ukuran ketidakpercayaan terhadap evidence h,jika diberikan evidence e ( antara 0 dan 1 )
3.4.2. Kombinasi Aturan
Metode MYCIN untuk menggabungkan evidence pada antecedent sebuah aturan yang ditunjukka pada tabel berikut ini : Tabel 3. 7. Aturan Kombinasi Mycin Evidence,E
Antecedent Ketidakpastian
E1 dan E2
Min[CF(H,E1),CF(H,E2)]
E1 or E2
Max[CF(H,E1), CF(H,E2)]
Tidak E
-CF(H,E)
Bentuk dasar rumus certainty factor sebuah aturan JIKA E MAKA H adalah sebagai berikut : CF(H,e) = CF(E,e) * CF(H,E) Di mana : CF(E,e)
: Certainty Factor evidence E yang dipengaruhi ileh
evidence e CF(H,E) : Certainty Factor hipotesis dengan asumsi evidence diketahui dengan pasti, yaitu ketika CF(E,e) = 1 CF(H,e) : Certainty Factor hipotesis yang dipengaruhi oleh evidence e Jika semua evidence dan antecedent pasti maka rumusnya menjadi
System Pendukung Keputusan
184
diketahui dengan
CF(H,e) = CF (H,E) Dalam diagnosis suatu penyakit , hubungan antara gejala dengan hipotesis sering tidak pasti. Sangat dimungkinkan beberapa aturan
menghasilkan satu
hipotesis dan suatu hipotesis menjadi evidence bagi aturan lain. Kondisi tersebut dapat digambarkan sebagai berikut :
Gambar 3.14. Jaringan penalaran certainty factor Dari gambar di atas ditunjukkan bahwa certainty factor dapat digunakan untuk menghitung perubahan derajat kepercayaan dari hipotesis F ketika A dan B bernilai benar. Hal ini dapat dilakukan dengan mengkombinasikan semua certainty factor pada A dan B menuju F menjadi sebuah alur hipotesis certainty factor seperti di bawah ini: JIKA (A DAN B) MAKA F Kondisi ini juga dapat digambarkan sebagai berikut: AB Kombinasi seperti ini disebut kombinasi paralel ,sebagaimana ditunjukkan oleh gambar di bawah ini :
System Pendukung Keputusan
185
Gambar 3.15. Kombinasi Paralel Certainty Factor Pada kondisi ini evidence E1 dan E2 mempengaruhi hipotesis yang sama, yaitu H. Kedua Certainty
Factor
menghasilkan certainty dikombinasikan
CF(H,E1) factor
dan
CF(H,E2)
CF(H,E1,E2).
Certainty
sehingga menghasilkan certainty
factor
dikombinasikan kedua CF(H,E’).
aturan Untuk
menghitung kombinasi tersebut digunakan rumus berikut CF(H,E’) = CF(E,E’) * CF (H,E)
3.4.3. Perhitungan Certainty Factor
Berikut ini adalah contoh ekspresi logika yang mengkombinasikan evidence : E=(E1 DAN E2 DAN E3) ATAU (E4 DAN BUKAN E5) Gejala E akan dihitung sebagai : E = max[min(E1,E2,E3),min(E4,-E5)] Untuk nilai E1 = 0,9 E2 = 0,8 E3 = 0,3 E4 = -0,5 E5 = -0,4 Hasilnya adalah : E = max[min(E1,E2,E3),min(E4,-E5)] = max(0,3, -0,5) = 0,3 Bentuk dasar rumus Certainty Factor sebuah aturan JIKA E MAKA H ditunjukkan oleh rumus : CF(H,e) = CF( E,e)*CF(H,E)
System Pendukung Keputusan
186
Dimana : CF(E,e) : Certainty Factor evidence E yang dipengaruhi oleh evidence CF(H,E) : Certainty Factor hipotesis dengan asumsi evidence diketahui dengan pasti , yaitu ketika CF(E,e)=1 CF(H,e) : Certainty factor hipotesis yang dipengaruhi oleh evidence e
Jika semua evidence pada antecedent diketahui dengan pasti, maka rumusnya ditunjukkan sebagai berikut : CF(H,e) = CF(H,E) Karena CF(E,e) = 1. Contoh kasus yang melibatkan kombinasi CF : JIKA batuk DAN demam DAN sakit kepala DAN bersin-bersin MAKA influenza, CF : 0,7 dengan menganggap E1 : “batuk”, kepala”,
E2 :”demam”,
E3 :”sakit
E4:”bersin-bersin”, dan H:”influenza”,
nilai certainty factor pada saat evidence pasti adalah : CF(H,E) : CF(H,E1 ∩ E2 ∩ E3 ∩ E4) : 0,7 Dalam kasus ini , kondisi pasien tidak dapat ditentukan dengan pasti . Certainty factor evidence E yang dipengaruhi oleh partial evidence e ditunjukkan dengan nilai sebagai berikut : CF(E1,e) : 0,5 (pasien mengalami batuk 50%) CF(E2,e) : 0,8 (pasien mengalami demam 80%) CF(E3,e) : 0,3 (pasien mengalami sakit kepala 30%) CF(E4,e) : 0,7 (pasien mengalami bersin-bersin 70%) Sehingga
System Pendukung Keputusan
187
CF(E,e) = CF(H,E1 ∩ E2 ∩ E3 ∩ E4) = min[CF(E1,e), CF(E2,e), CF(E3,e), CF(E4,e)] = min[0,5, 0,8, 0,3, 0,7] = 0,3 Maka nilai certainty factor hipotesis adalah : CF(H,e) = CF(E,e)* CF(H,E) = 0,3 * 0,7 = 0,21
System Pendukung Keputusan
188
BAB IV SISTEM PENDUKUNG KEPUTUSAN 4.1. Fuzzy Multiple Attribute Decision Making (FMADM) Fuzzy Multiple Attribute Decision Making (FMADM) adalah suatu metode yang digunakan untuk mencari alternatif optimal dari sejumlah alternatif dengan kriteria tertentu. Inti dari FMADM adalah menentukan nilai bobot untuk setiap atribut, kemudian dilanjutkan dengan proses perankingan yang akan menyeleksi alternatif yang sudah diberikan. Pada dasarnya, ada tiga pendekatan untuk mencari nilai bobot atribut, yaitu pendekatan subyektif, pendekatan obyektif dan pendekatan integrasi antara subyektif & obyektif. Masing-masing pendekatan memiliki kelebihan dan kelemahan. Pada pendekatan subyektif, nilai bobot ditentukan berdasarkan subyektifitas dari para pengambil keputusan, sehingga beberapa faktor dalam proses perankingan alternatif bisa ditentukan secara bebas. Sedangkan pada pendekatan obyektif, nilai bobot dihitung secara matematis sehingga mengabaikan subyektifitas dari pengambil keputusan (Sri Kusumadewi, 2007). Ada beberapa metode yang dapat digunakan untuk menyelesaikan masalah FMADM, antara lain (Kusumadewi, 2006): a. Simple Additive Weighting (SAW) b. Weighted Product (WP) c. ELECTRE d. Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) e. Analytic Hierarchy Process (AHP)
MADM adalah suatu metode yang digunakan untuk mencari alternatif paling optimal dari sejumlah alternatif optimal dengan kriteria tertentu. Inti dari MADM
System Pendukung Keputusan
189
adalah menentukan nilai bobot untuk setiap atribut, kemudian dilanjutkan dengan proses perangkingan yang akan menyeleksi alternative yang sudah diberikan.
4.2. Sistem Pendukung Keputusan Menurut Litlle Sistem Pendukung Keputusan adalah suatu sistem informasi bebasis komputer yang menghasilkan berbagai alternatif keputusan untuk membantu manajemen dalam menangani berbagai permasalahan yang terstruktur ataupun tidak terstruktur dengan menggunakan data dan model. Kata berbasis komputer merupakan kata kunci, karena hampir tidak mungkin membangun SPK tanpa memanfaatkan komputer sebagai alat bantu, terutama untuk menyimpan data serta mengelola model(Daihani,2001). Pada
dasarnya
Sistem
Pendukung
Keputusan
ini
merupakan
pengembangan lebih lanjut dari sistem informasi manajemen terkomputerisasi yang dirancang sedemikian rupa sehigga bersifat interaktif dengan pemakainya. Sifat interaktif ini dimaksudkan untuk memudahkan integrasi antara berbagai komponen dalam proses pengambilan keputusan seperti prosedur, kebijakan, teknik analisis, serta pengalaman dan wawasan manajerial guna membentuk suatu kerangka keputusan yang bersifat fleksibel(Suryadi,1998).
4.2.1. Ciri-ciri Decision Support System (DSS) Menurut(Kosasi, 2002) adapun ciri-ciri sebuah DSS seperti yang dirumuskan oleh Alters Keen adalah sebagai berikut: 1. DSS ditujukan untuk membantu pengambilan keputusan-keputusan yang kurang terstruktur dan umumnya dihadapi oleh para manajer yang berada di tingkat puncak.
System Pendukung Keputusan
190
2. DSS merupakan gabungan antara kumpulan model kualitatif dan kumpulan data. 3. DSS memiliki fasilitas interaktif yang dapat mempermudah hubungan antara manusia dengan komputer. 4. DSS bersifat luwes dan dapat menyesuaikan dengan perubahan-perubahan yang terjadi.
4.2.2. Karakteristik, Kemampuan dan Keterbatasan SPK Sehubungan banyaknya definisi yang dikemukakan mengenai pengertian dan penerapan dari sebuah DSS, sehingga menyebabkan terdapat banyak sekali pandangan mengenai sistem tersebut. Selanjutnya Turban (1996), menjelaskan terdapat sejumlah karakteristik dan kemampuan dari DSS (Kosasi, 2002 ) yaitu: a. Karakteristik DSS 8. Mendukung seluruh kegiatan organisasi 9. Mendukung beberapa keputusan yang saling berinteraksi 10. Dapat digunakan berulang kali dan bersifat konstan 11. Terdapat dua komponen utama, yaitu data dan model 12. Menggunakan baik data eksternal dan internal 13. Memiliki kemampuan what-if analysis dan goal seeking analysis 14. Menggunakan beberapa model kuantitatif b. Kemampuan DSS 13. Menunjang pembuatan keputusan manajemen dalam menangani masalah semi terstruktur dan tidak terstruktur 14. Membantu manajer pada berbagai tingkatan manajemen, mulai dari manajemen tingkat atas sampai manajemen tingkat bawah 15. Menunjang pembuatan keputusan secara kelompok maupun perorangan 16. Menunjang pembuatan keputusan yang saling bergantung dan berurutan
System Pendukung Keputusan
191
17. Menunjang tahap-tahap pembuatan keputusan antara lain intelligensi, desain, choice, dan implementation 18. Menunjang berbagai bentuk proses pembuatan keputusan dan jenis keputusan 19. Kemampuan untuk melakukan adaptasi setiap saat dan bersifat fleksibel 20. Kemudahan melakukan interaksi system
System Pendukung Keputusan
192
21. Meningkatkan efektivitas dalam pembuatan keputusan daripada efisiensi 22. Mudah dikembangkan oleh pemakai akhi 23. Kemampuan pemodelan dan analisis pembuatan keputusan 24. Kemudahan melakukan pengaksesan berbagai sumber dan format data Di samping berbagai Karakteristik dan Kemampuan seperti dikemukakan di
atas,
SPK
juga
memiliki
beberapa
keterbatasan,
diantaranya
adalah(Daihani,2001): 5. Ada beberapa kemampuan manajemen dan bakat manusia yang tidak dapat dimodelkan, sehingga model yang ada dalam sistem tidak semuanya mencerminkan persoalan sebenarnya. 6. Kemampuan suatu SPK terbatas pada pembendaharaan pengetahuan yang dimilikinya (pengetahuan dasar serta model dasar). 7. Proses-proses yang dapat dilakukan oleh SPK biasanya tergantung juga pada kemampuan perangkat lunak yang digunakannya. 8. SPK tidak memiliki kemampuan intuisi seperti yang dimiliki oleh manusia. Karena walau bagaimana pun canggihnya suatu SPK, hanyalah sautu kumpulan perangkat keras, perangakat lunak dan sistem operasi yang tidak dilengkapi dengan kemampuan berpikir.
8.2.3. Komponen - Komponen Sistem Pendukung Keputusan Sistem Pendukung Keputusan terdiri dari tiga komponen utama atau subsistem (Daihani,2001)yaitu: 1. Subsistem Data (Data Subsystem) Subsistem data merupakan komponen SPK penyedia data bagi sistem. Data dimaksud disimpan dalam data base yang diorganisasikan oleh suatu sistem dengan
sistem
manajemen
pangkalan
data
(Data
Base
Management
System/DBMS). Melalui pangkalan data inilah data dapat diambil dan diekstrasi dengan cepat. 2. Subsistem Model (Model Subsystem)
System Pendukung Keputusan
193
Keunikan dari SPK adalah kemampuannya dalam mengintegrasikan data dengan model - model keputusan.
System Pendukung Keputusan
194
Model merupakan peniruan dari alam nyata. Hal lain yang perlu diperhatikan adalah pada setiap model yang disimpan hendaknya ditambahkan rincian keterangan dan penjelasan yang komprehensif mengenai model yang dibuat, sehingga pengguna atau perancang: 1) Mampu membuat model yang baru secara mudah dan cepat. 2) Mampu mengakses dan mengintegrasikan subrutin model 3) Mampu menghubungkan model dengan model yang lain melalui pangkalan data. 4) Mampu mengelola model base dengan fungsi manajemen yang analog dengan manajemen data base (seperti mekanisme untuk menyimpan, membuat dialog, menghubungkan, dan mengakses model). 3. Subsistem Dialog (User System Interface) Keunikan lain dari SPK adalah adanya fasilitas yang mampu mengintegrasikan sistem terpasang dengan pengguna secara interaktif. Melaui subsistem dialog inilah sistem diartikulasikan dan diimplementasikan sehingga pengguna dapat berkomunikasi dengan sistem yang dirancang. Fasilitas yang dimiliki oleh subsistem ini dapat dibagi menjadi tiga komponen(Daihani,2001), yaitu: 1) Bahasa aktif (Action Language), perangkat yang digunakan untuk berkomunikasi dengan sistem, seperti keyboard, joystick, panelpanel sentuh lain, perintah suara atau key function lainnya. 2) Bahasa tampilan (Presentation
Language),
perangkat
yang
digunakan sebagai sarana untuk menampilkan sesuatu, seperti printer, grafik display, plotter, dan lainnya. 3) Basis pengetahuan (Knowladge Base), perangkat yang harus diketahui pengguna agar pemakaian sistem bisa efektif.
8.2.4. Tahapan Proses Pengambilan Keputusan Menurut Simon ada 4 tahap yang harus dilalui dalam proses pengambilan keputusan(Daihani,2001) yaitu:
System Pendukung Keputusan
195
1) Penelusuran (intelligence) Tahap ini merupakan tahap pendefinisian masalah serta identifikasi informasi yang dibutuhkan yang berkaitan dengan persoalan yang di hadapi serta keputusan yang akan di ambil. 2) Perancangan (design) Tahap ini merupakan tahap analisa dalam kaitan mencari atau merumuskan alternatif-alternatif pemecahan masalah. 3) Pemilihan (choise) Yaitu memilih alternatif solusi yang diperkirakan paling sesuai. 4) Implementasi (implementation) Tahap ini merupakan tahap pelaksanaan dari keputusan yang telah diambil.
4.2 Metode Analytical Hierarchy Process (AHP) AHP merupakan salah satu metode untuk membantu menyusun suatu prioritas dari berbagai pilihan dengan menggunakan berbagai kriteria. Karena sifatnya yang multikriteria, AHP cukup banyak digunakan dalam penyusunan prioritas. Sebagai contoh untuk menyusun prioritas penelitian, pihak manajemen lembaga penelitian sering menggunakan beberapa kriteria seperti dampak penelitian, biaya, kemampuan SDM, dan waktu pelaksanaan(Susila,2007). Di samping bersifat multikriteria, AHP juga didasarkan pada suatu proses yang terstruktur dan logis. Pemilihan atau penyusunan prioritas dilakukan dengan suatu prosedur yang logis dan terstuktur. Kegiatan tersebut dilakukan oleh ahli-ahli yang
representatif
berkaitan
dengan
alternatif-alternatif
yang
disusun
prioritasnya(Kuazril, 2005). Metode AHP merupakan salah satu model untuk pengambilan keputusan yang dapat membantu kerangka berfikir manusia. Metode ini mula-mula dikembangkan oleh Thomas L. Saaty pada tahun 70-an. Dasar berpikirnya metode AHP adalah proses membentuk skor secara numerik untuk menyusun rangking setiap alternatif keputusan berbasis pada bagaimana sebaiknya alternatif itu dicocokkan dengan kriteria pembuat keputusan(Supriyono, 2007).
System Pendukung Keputusan
196
Proses pengambilan keputusan pada dasarnya adalah memilih suatu alternatif. Peralatan utama AHP adalah sebuah hirarki fungsional dengan input utamanya persepsi manusia. Dengan hirarki, suatu masalah kompleks dan tidak terstruktur dipecahkan ke dalam kelompok-kelompoknya. Kemudian kelompok-kelompok tersebut diatur menjadi suatu bentuk hirarki. Suatu tujuan yang bersifat umum dapat dijabarkan dalam beberapa subtujuan yang lebih terperinci dan dapat menjelaskan maksud tujuan umum. Penjabaran ini dapat dilakukan terus hingga diperoleh tujuan yang bersifat operasional. Pada hierarki terendah dilakukan proses evaluasi atas alternatifalternatif yang merupakan ukuran dari pencapaian tujuan utama dan pada hierarki terendah ini dapat ditetapkan dalam satuan apa suatu kriteria diukur. Dalam penjabaran hirarki tujuan, tidak ada suatu pedoman yang pasti mengenai seberapa jauh pembuat keputusan menjabarkan tujuan menjadi tujuan yang lebih rendah. Pengambil keputusanlah yang menentukan saat penjabaran tujuan ini berhenti, dengan memperhatikan keuntungan atau kekurangan yang diperoleh bila tujuan tersebut diperinci lebih lanjut. Beberapa hal yang perlu diperhatikan dalam melakukan proses penjabaran hirarki tujuan (Suryadi,1998) yaitu: 1. Pada saat penjabaran tujuan ke dalam subtujuan yang lebih rinci harus selalu memperhatikan apakah setiap tujuan yang lebih tinggi tercakup dalam subtujuan tersebut. 2. Meskipun hal tersebut dapat dipenuhi, juga perlu menghindari terjadinya pembagian yang terlampau banyak baik dalam arah horizontal maupun vertikal. 3. Untuk itu sebelum menetapkan tujuan harus dapat menjabarkan hierarki tersebut sempai dengan tujuan yang paling lebih rendah dengan cara melakukan tes kepentingan.
4.2.1 Kelebihan AHP Adapun yang menjadi kelebihan dengan menggunakan metode AHP dibandingkan yang lainnya adalah :
System Pendukung Keputusan
197
1. Struktur yang berbentuk hirarki sebagai konsekuensi dari kriteria yang dipillih sampai pada subkriteria yang paling dalam. 2. Memperhatikan validitas sampai dengan batas toleransi inkonsistensi berbagai kriteria dan alternatif yang dipilih oleh para pengambil keputusan. 3. Memperhitungkan daya tahan atau ketahanan keluaran analisis sensitivitas pembuat keputusan. Selain itu metode AHP mempunyai kemampuan untuk memecahkan masalah yang multiobjektif dan multikriteria yang berdasar pada perbandingan preferensi dari setiap elemen dalam hierarki. Jadi, metode AHP merupakan suatu bentuk
pemodelan
pembuatan
keputusan
yang
sangat
komprehensif(Suryadi,1998).
4.2.2 Prinsip - Prinsip Analytical Hierarchy Process Menurut Mulyono Dalam menentukan proiritas AHP menggunakan prinsip – prinsip(Kosasi,2002) sebagai berikut: 1. Decomposition Sistem yang kompleks bisa dipahami dengan memecahkannya menjadi elemen-elemen yang lebih kecil dan mudah dipahami.
Gambar 2.1 Hierarki 3 level AHP
2. Comparative judgment (penilaian kriteria dan alternatif)
System Pendukung Keputusan
198
Prinsip ini memberikan penilaian tentang kepentingan relatif dua elemen pada suatu tingkat tertentu dalam kaitannya dengan tingkat diatasnya. Tabel 4.1 Skala penilaian perbandingan berpasangan Intensitas Kepentingan
Keterangan
1
Kedua elemen sama pentingnya
3
Elemen yang satu sedikit lebih penting
daripada
elemen
yang
lainnya 5
Elemen yang satu lebih penting daripada elemen yang lainnya
7
Satu elemen jelas lebih mutlak penting daripada elemen lainnya
9
Satu
elemen
mutlak
penting
daripada elemen lainnya 2,4,6,8
Nilai-nilai
antara
dua
nilai
pertimbangan yang berdekatan
3. Synthesis of priority (Menentukan Prioritas) Menentukan prioritas dari elemen-elemen kriteria dapat dipandang sebagai bobot/kontribusi elemen tersebut terhadap tujuan pengambilan keputusan. AHP melakukan analisis prioritas elemen dengan metode perbandingan berpasangan antar dua elemen sehingga semua elemen yang ada tercakup. Prioritas ini ditentukan berdasarkan pandangan para pakar dan pihak-pihak yang berkepentingan terhadap pengambilan keputusan, baik secara langsung (diskusi) maupun secara tidak langsung (kuisioner).
4. Logical Consistency (konsistensi logis) Konsistensi memiliki dua makna. Pertama, objek-objek yang serupa bisa dikelompokkan sesuai dengan keseragaman dan relevansi. Kedua, menyangkut tingkat hubungan antar objek yang didasarkan pada kriteria tertentu. (Kosasi,2002)
System Pendukung Keputusan
199
4.2.3 Langkah-Langkah Analytical Hierarchy Process Secara umum langkah-langkah yang harus dilakukan dalam menggunakan AHP untuk pemecahan suatu masalah adalah sebagai berikut: 1. Mendefinisikan masalah dan menentukan solusi yang diinginkan, lalu menyusun hierarki dari permasalahan yang dihadapi. 2. Menentukan prioritas elemen a.
Langkah pertama dalam menentukan prioritas elemen adalah membuat perbandingan pasangan, yaitu membandingkan elemen secara berpasangan sesuai kriteria yang diberikan.
b.
Matriks perbandingan berpasangan diisi menggunakan bilangan untuk merepresentasikan kepentingan relatif dari suatu elemen terhadap elemen yang lainnya.
3. Sintesis Pertimbangan-pertimbangan terhadap perbandingan berpasangan disintesis untuk memperoleh keseluruhan prioritas. Hal-hal yang dilakukan dalam langkah ini adalah: a.
Menjumlahkan nilai-nilai dari setiap kolom pada matriks
b.
Membagi setiap nilai dari kolom dengan total kolom yang bersangkutan untuk memperoleh normalisasi matriks.
c.
Menjumlahkan nilai-nilai dari setiap baris dan membaginya dengan jumlah elemen untuk mendapatkan nilai rata-rata.
4. Mengukur Konsistensi Dalam pembuatan keputusan, penting untuk mengetahui seberapa baik konsistensi yang ada karena kita tidak menginginkan keputusan berdasarkan pertimbangan dengan konsistensi yang rendah. Hal-hal yang dilakukan dalam langkah ini adalah sebagai berikut:
System Pendukung Keputusan
200
a. Kalikan setiap nilai pada kolom pertama dengan prioritas relatif elemen pertama, nilai pada kolom kedua dengan prioritas relatif elemen kedua dan seterusnya. b. Jumlahkan setiap baris c. Hasil dari penjumlahan baris dibagi dengan elemen prioritas relatif yang bersangkutan d. Jumlahkan hasil bagi di atas dengan banyaknya elemen yang ada, hasilnya disebut λ maks 5. Hitung Consistency Index (CI) dengan rumus: CI = (λmax – n) /n Dimana n = banyaknya elemen. 6. Hitung Rasio Konsistensi/Consistency Ratio (CR) dengan rumus: CR= CI/RC Dimana CR = Consistency Ratio CI = Consistency Index IR = Indeks Random Consistency 7. Memeriksa konsistensi hierarki. Jika nilainya lebih dari 10%, maka penilaian data judgment harus diperbaiki. Namun jika Rasio Konsistensi (CI/CR) kurang atau sama dengan 0,1, maka hasil perhitungan bisa dinyatakan benar. (Kusrini, 2007). Dimana RI : random index yang nilainya dapat dilihat pada table di bawah ini. Tabel 4.2 Ratio index N RI
1 0
2 0
3
4
5
6
7
8
9
10
0,58
0,90
1,12
1,24
1,32
1,41
1,45
1,49
4.2.4. Contoh Kasus Dengan Metode AHP Untuk melanjutkan studi setelah lulus tingkat SLTA, terkadang dihadapkan dengan kebingungan ingin melanjut ke perguruan tinggi mana?, karena ada beberapa pertimbangan diantaranya biaya kuliah, jarak tempuh, fasilitas dan mutu perguruan tingginya yang diukur dari segi akreditasi prodi
System Pendukung Keputusan
201
perguruan tinggi. Kualitas bagus tetapi dana tidak memadai akan mengalami kegagalan, atau sebaliknya dana memadai tetapi tidak sesuai dengan kualitas yang diiginkan juga terkendala dengan jarak tempuh si mahasiswa dengan lokasi kampus juga hasilnya tidak maksimal. Disini akan kita implementasikan dengan metode AHP untuk memilih perguruan tinggi Adapun langkah-langkahnya sebagai berikut 1. Menentukan kriteria pemilihan perguruan tinggi, dalam hal ini yang menjadi kriteria adalah biaya kuliah, jarak, fasilitas dan akreditasi 2. Menyusun kriteria dalam bentuk matrix berpasangan yang ditunjukkan dalam tabel 4.2. Kriteria
Biaya
Jarak
Fasilitas
Akreditasi
Biaya
1
7
5
3
Jarak
0,14
1
5
3
Fasilitas
0,2
0,2
1
1
Akreditasi
0,33
0,33
1
1
Jumlah
1,67
8,53
12
8
Cara pengisian elemen-elemen matriks pada Tabel 3.1, adalah sebagai berikut: a. Elemen a[i,j] = 1, dimana i = 1,2,3,.....n. Untuk penelitian ini, n = 4. b. Elemen matriks segitiga atas sebagai input. c. Elemen matriks segitiga bawah mempunyai rumus a[j,i]= 3. Menjumlahkan
kolom
untuk
setiap
kriteria,
[, ]
Untuk i ≠j
contoh
kolom
biaya=1+0,14+0,2+0,33=1,67, dst
4. Membagi setiap elemen pada kolom dengan jumlah per kolom yang sesuai. Dari nilai-nilai elemen matriks tabel 3.1. Jumlah masing-masing kolom diatas maka dapat dihitung matriks normalisasi dengan cara membagi setiap elemen pada kolom dengan jumlah per kolom yang sesuai, misalnya untuk menghitung matriks normalisasi pada kolom 1 dan baris 1 maka dapat dihitung sebagai berikut.
System Pendukung Keputusan
202
Kolom baris1= =
,
= 0.59 Tabel 4.3 Hasil Matriks Normalisasi Kriteria
Biaya
Biaya
0,598802 0,820633 0,416667 0,375
2,211102122
Jarak
0,083832 0,117233 0,416667 0,375
0,992732296
Fasilitas
0,11976
0,023447 0,083333 0,125
0,351540471
Akreditasi 0,197605 0,038687 0,083333 0,125
0,444625111
5. Setelah
Jarak
matriks
Fasilitas
normalisasi
Akreditasi
didapatkan,
Jumlah Baris
langkah
selanjutnya
menjumlahkan tiap baris pada matriks tersebut. Jumlah masing – masing baris pada tabel 3.2 dapat dihitung dengan cara sebagai berikut. Jumlah Baris 1 = 0.4018 + 0.6465 + 0.3479 + 0.3205 + 0.25 + 0.2454 + 0.2142 + 1. 0.2142 = 2.6405, dan seterusnya. Dgd
Setelah didapatkan jumlah pada masing-masing baris, selanjutnya dihitung bobot masing-masing kriteria dengan cara membagi masing-masing jumlah baris dengan jumlah elemen atau jumlah kriteria (n = 8), sehingga bobot masing-masing kriteria dapat dihitung seperti berikut: 1. Bobot Kriteria Harga = 2.6405/8 = 0.3301 Kriteria
Biaya
Jarak
Fasilitas Akredita si
Biaya
Jarak
Rata-Rata
Baris
0,59880
0,82063
0,41666
2
3
7
0,08383
0,11723
0,41666
2
3
7
0,02344
0,08333
0,11976
7
3
0,125
1
0,19760
0,03868
0,08333
0,125
0,44462511 0,11115627
Fasilitas
Akredita
Jumlah
System Pendukung Keputusan
2,21110212 0,375
0,55277553
0,99273229 0,24818307 0,375
203
2
6
4
0,35154047 0,08788511 8
si
5
7
3
1
8
4.3. Metode TOPSIS( Technique For Order Preference by Similarity to Ideal Solution) TOPSIS adalah salah satu metode pengambilan keputusan multikriteria diperkenalkan pertama kali oleh Yoon dan Hwang pada tahun 1981 yang digunakan sebagai salah satu metode dalam memecahkan masalah multikriteria (Sachdeva, 2009). TOPSIS memberikan sebuah solusi dari sejumlah alternatif yang mungkin dengan cara membandingkan setiap alternatif dengan alternatif terbaik dan alternatif terburuk yang ada diantara alternatif-alternatif masalah. Metode ini menggunakan jarak untuk melakukan perbandingan tersebut. TOPSIS telah digunakan dalam banyak aplikasi termasuk keputusan investasi keuangan, perbandingan performansi dari perusahaan, perbandingan performansi dalam suatu industri khusus, pemilihan sistem operasi, evaluasi pelanggan, dan perancangan robot. TOPSIS mempertimbangkan keduanya, jarak terhadap solusi ideal positif dan jarak terhadap solusi ideal negatif dengan mengambil kedekatan relatif terhadap solusi ideal positif. Berdasarkan perbandingan terhadap jarak relatifnya, susunan prioritas alternatif bisa dicapai. Metode ini banyak digunakan untuk menyelesaikan pengambilan keputusan. Hal ini disebabkan konsepnya sederhana, mudah dipahami, komputasinya efisien, dan memiliki kemampuan mengukur kinerja relatif dari alternatif-alternatif keputusan. TOPSIS mengasumsikan bahwa setiap kriteria akan dimaksimalkan ataupun diminimalkan. Maka dari itu nilai solusi ideal positif dan solusi ideal negatif dari setiap kriteria ditentukan, dan setiap alternatif dipertimbangkan dari informasi tersebut. Solusi ideal positif didefinisikan sebagai jumlah dari seluruh nilai terbaik yang dapat dicapai untuk setiap atribut, sedangkan solusi ideal negatif terdiri dari seluruh nilai terburuk yang dicapai untuk setiap atribut. Namun, solusi ideal positif jarang dicapai ketika menyelesaikan masalah dalam kehidupan nyata. Maka asumsi dasar dari TOPSIS adalah ketika solusi ideal positif tidak dapat dicapai, pembuat keputusan akan mencari solusi yang sedekat mungkin dengan solusi ideal positif.
System Pendukung Keputusan
204
TOPSIS memberikan solusi ideal positif yang relatif dan bukan solusi ideal positif yang absolut. Dalam metode TOPSIS klasik, nilai bobot dari setiap kriteria telah diketahui dengan jelas. Setiap bobot kriteria ditentukan berdasarkan tingkat kepentingannya
menurut
pengambil
keputusan.
Yoon
dan
Hwang
mengembangkan metode TOPSIS berdasarkan intuisi yaitu alternatif pilihan merupakan alternatif yang mempunyai jarak terkecil dari solusi ideal positif dan jarak terbesar dari solusi ideal negatif dari sudut pandang geometris dengan menggunakan jarak Euclidean (Sachdeva, 2009). Namun, alternatif yang mempunyai jarak terkecil dari solusi ideal positif, tidak harus mempunyai jarak terbesar dari solusi ideal negatif. Sehingga TOPSIS mempertimbangkan keduanya, jarak terhadap solusi ideal positif dan jarak terhadap solusi ideal negatif secara bersamaan. Solusi optimal dalam metode TOPSIS didapat dengan menentukan kedekatan relatif suatu alternatif terhadap solusi ideal positif. TOPSIS akan merangking alternatif berdasarkan prioritas nilai kedekatan relatif suatu alternatif terhadap solusi ideal positif. Alternatif-alternatif yang telah dirangking kemudian dijadikan sebagai referensi bagi pengambil keputusan untuk memilih solusi terbaik yang diinginkan. Metode ini banyak digunakan untuk menyelesaikan pengambilan keputusan secara praktis. Hal ini disebabkan konsepnya sederhana dan mudah dipahami, komputasinya efisien, dan memiliki kemampuan mengukur kinerja relatif dari alternatif-alternatif keputusan.
4.3.1. Langkah-langkah metode TOPSIS 1. TOPSIS diawali dengan membuat sebuah matriks keputusan (Misalkan matriks X). Matriks keputusan X mengacu terhadap m alternatif yang akan dievaluasi berdasarkan n kriteria. Matriks keputusan X dapat dilihat sebagai berikut x1 1 2 x= …
System Pendukung Keputusan
x2
x3
1,1 1,2 1,3 2,1 2,2 2,3 ⋮ ,1 , 2 3 205
xn ⋯ … ⋱ ⋯
1, 2, ⋮ ,
dimana ai ( i = 1, 2, 3, . . . , m ) adalah alternatif-alternatif yang mungkin, xj ( j =1, 2, 3, . . . , n ) adalah atribut dimana performansi alternatif diukur, xij adalah performansi alternatif i a dengan acuan atribut xj . 2. Membuat matriks keputusan yang ternormalisasi. Persamaan yang digunakan untuk mentransformasikan setiap elemen xij adalah X= ∑
………………………..(1)
dengan i = 1, 2, 3, . . . , m j = 1, 2, 3, . . . , n rij adalah elemen dari matriks keputusan yang ternormalisai R, xij adalah elemen dari matriks keputusan X. 3. Membuat matriks keputusan yang ternormalisasi terbobot. Dengan bobot wj= ( w1 ,w2 ,w3 , . . . ,wn ), dimana wj adalah bobot dari kriteria ke-j dan ∑ normalisasi bobot matriks V adalah
= 1, maka
Vij= Wj. Rij………………………………….(2) dengan i = 1, 2, 3, . . . , m; dan j = 1, 2, 3, . . . , n. dimana Vij adalah elemen dari matriks keputusan yang ternormalisai terbobot V, wj adalah bobot dari kriteria ke-j, rij adalah elemen dari matriks keputusan yang ternormalisai R. 4. Menentukan matriks solusi ideal positif dan solusi ideal negatif. Solusi ideal positif dinotasikan A+ , sedangkan solusi ideal negatif dinotasikan A-. Berikut ini adalah persamaan dari A+ dan A- : a. A+ ={(max Vij | j € J ), (min Vij | j € J’ ), i = 1, 2, 3, . . . , m} = { V1+, V2+, V3+,….Vn+}…………………………..(3) b. A- ={(min ij v | j € J ), (max Vij | j € J’ ), i = 1, 2, 3, . . . , m} = { V1-, V2-, V3-,….Vn-}…………………………....(4) J = { j = 1, 2, 3, . . . , n dan
System Pendukung Keputusan
206
J merupakan himpunan kriteria keuntungan (benefit criteria)}. J’ = { j = 1, 2, 3, . . . , n dan J’ merupakan himpunan kriteria biaya (cost criteria)}. dimana Vij adalah elemen dari matriks keputusan yang ternormalisai terbobot V Vj+ ( j =1, 2, 3, . . . , n ) adalah elemen matriks solusi ideal positif, Vj- ( j =1, 2, 3, . . . , n ) adalah elemen matriks solusi ideal negatif. 5. Menghitung separasi. a. S+ adalah jarak alternatif dari solusi ideal positif didefinisikan sebagai: Si+= ∑
(
−
) ,
dengan
i=1,2,3…….m…………………..(5) b. S- adalah jarak alternatif dari solusi ideal negatif didefinisikan sebagai: = ∑
-
Si
(
−
i=1,2,3…….m…………………..(6)
) ,
dengan
Dimana: Si+ adalah jarak alternatif ke-i dari solusi ideal positif Si - adalah jarak alternatif ke-i dari solusi ideal negatif Vij
adalah elemen dari matriks keputusan yang ternormalisai
terbobot V Vj+ adalah elemen matriks solusi ideal positif Vj- adalah elemen matriks solusi ideal negatif
System Pendukung Keputusan
207
6. Menghitung kedekatan relatif terhadap solusi ideal positif. Kedekatan relatif dari setiap alternatif terhadap solusi ideal positif dapat dihitung dengan menggunakan persamaan berikut: si+=
,
0
<=
ci+<=1………………………………………(7) dengan i = 1, 2, 3, . . . , m dimana ci+ adalah kedekatan relatif dari alternatif ke-i terhadap solusi ideal positif, si+ adalah jarak alternatif ke-i dari solusi ideal positif, si- adalah jarak alternatif ke-i dari solusi ideal negatif. 7. Merangking Alternatif. Alternatif diurutkan dari nilai C+ terbesar ke nilai terkecil. Alternatif dengan nilai C+ terbesar merupakan solusi yang terbaik.
4.3.2. Contoh Penerapan Metode Topsis Sistem pendukung keputusan menentukan pegawai dalam satu institusi dengan kriteria IPK, Psikotest, Wawancara dan Pengalaman kerja. Data kriteria ditransformasi dengan 1: Kurang 2: Sedang 3: Baik 4: Sangat baik 1. Membangun matriks keputusan, kolom matriks menyatakan atribut sesuai
dengan kriteria-kriteria yang ada, sedangkan baris matriks menyatakan alternatif calon pegawai yang akan dibandingkan. Matriks keputusan dapat dilihat pada Tabel 3.2. Tabel 4.4. Matriks Keputusan Calon Pegawai Calon
IPK
Psikotest
Wawancara
Pengalaman
X11
X12
X13
X14
Pegawai A1
System Pendukung Keputusan
208
A2
X21
X22
X3
X24
A3
X31
X32
X33
X34
A4
X41
X42
X43
X44
Pada Tabel 3.1, simbol 11 x ,…, 35 x menyatakan performansi alternatif dengan acuan atribut yaitu data nilai kriteria untuk setiap calon tenaga pengajar baru. Jumlah data alternatif yang akan dibandingkan minimal Tabel 4.5. Matriks Keputusan Calon
IPK
Psikotest
Wawancara
Pengalaman
Paijo
4
3
2
3
Tukimin
3
2
3
4
Karsono
3
2
2
3
Sarinem
2
4
1
1
Pegawai
2. Setelah matriks keputusan dibangun, selanjutnya adalah membuat matriks
System Pendukung Keputusan
209
keputusan yang ternormalisasi R yang elemen-elemennya ditentukan dengan rumus berikut ini:
………………………..(1)
X= ∑
dengan i = 1, 2, 3, . . . , m j = 1, 2, 3, . . . , n
rij adalah elemen dari matriks keputusan yang ternormalisai R, xij adalah elemen dari matriks keputusan X. Tabel 4.5 Matriks Keputusan Ternormalisasi Calon
IPK
Psikotest
Wawancara
Pengalaman
Pegawai
11
A1 A2 … …
12
13
14
√ 11 + 21 + 31 + 41 21
√ 12 + 22 + 32 + 42 22
√ 13 + 23 + 33 + 43 23
√ 14 + 24 + 34 + 44 24
…
…
…
…
√ 11 + 21 + 31 + 41 …
System Pendukung Keputusan
√ 12 + 22 + 32 + 42 …
√ 13 + 23 + 33 + 43 …
210
√ 14 + 24 + 34 + 44 …
Tabel 4.6 Matriks Keputusan Calon Pegawai Ternormalisasi Calon
IPK
Psikotest
Wawancara
Pengalaman
Paijo
0,6489
0,5222
0,4714
0,5071
Tukimin
0,4867
0,3482
0,7071
0,6761
Karsono
0,4867
0,3482
0,4714
0,5071
Sarinem
0,3244
0,6963
0,2357
0,1690
Pegawai
Setelah menghitung matriks keputusan ternormalisasi, selanjutnya menghitung matriks keputusan ternormalisasi terbobot. Pemisalan bobot yang dimasukkan untuk setiap kriteria adalah IPK(0,3), Psikotest(0,1), Wawancara(0,4), Pengalaman(0,2). Hasil perhitungannya dapat dilihat pada Tabel 3.11. Tabel 4.7 Matriks Keputusan Ternormalisasi Terbobot Calon
IPK
Psikotest Wawancara Pengalaman
Pegawai Paijo
0,19467 0,05222
0,18856
0,10142
Tukimin
0,14601 0,03482
0,28284
0,13522
Karsono
0,14601 0,03482
0,18856
0,10142
Sarinem
0,09732 0,06963
0,09428
0,0338
Setelah matriks keputusan ternormalisasi terbobot telah dihitung, selanjutnya adalah menentukan matriks solusi ideal positif dan negatif. Penentuan matriks solusi ideal positif dan negatif dapat dilihat pada Tabel 3.12 dan Tabel 3.13. Tabel 4.8 Solusi Ideal Positif A+
0,19467 0,06963 0,28284 0,13522
Tabel 4.9 Solusi Ideal Negatif A-
0,09732 0,03482 0,09428 0,0338
Selanjutnya menghitung jarak alternatif dari solusi ideal positif ( S+ ) dan jarak alternatif dari solusi ideal negatif ( S - ). Perhitungan jarak alternatif dari solusi ideal positif ( S alternatif dari solusi ideal negatif ( S - ) dapat dilihat pada Tabel 4.10 dan 4.11
System Pendukung Keputusan
211
+
) dan jarak
Tabel 4.10. Separasi Positif Calon Pegawai
S+
Paijo
0,1017
Tukimin
0,0598
Karsono
0,1167
Sarinem
0,2352
Tabel 4.11. Separasi Negatif Calon Pegawai
S-
Paijo
0,1524
Tukimin
0,2196
Karsono
0,1258
Sarinem
0,0348
Selanjutnya menghitung kedekatan relatif terhadap solusi ideal positif C+ . Pada Tabel 4.11 dapat dilihat perhitungan kedekatan relatif terhadap solusi ideal positif. Tabel 4.12 Nilai C+ Calon Pegawai
C+
Paijo
0,5998
Tukimin
0,7860
Karsono
0,5188
Sarinem
0,1289
Selanjutnya mengurutkan alternatif dari nilai C+ terbesar hingga nilai C+ terkecil. Pengurutan alternatif dapat dilihat pada Tabel 4.13
Tabel 4.13 Pengurutan Alternatif System Pendukung Keputusan
212
Calon Pegawai
C+
Tukimin
0,786
Paijo
0,5998
Karsono
0,5188
Sarinem
0,1289
Pada Tabel 4.13, dapat dilihat bahwa alternatif yang menempati urutan pertama yaitu calon tenaga pengajar baru dengan nama Poppy memiliki nilai 0.6464, alternatif yang menempati urutan kedua yaitu calon tenaga pengajar baru dengan nama Wiwi memiliki nilai 0.5356, dan alternatif yang menempati urutan terakhir adalah calon tenaga pengajar baru dengan nama Melisa memiliki nilai 0.3218. Berdasarkan hasil pengurutan, maka pilihan terbaik adalah calon tenaga pengajar baru dengan nama Poppy.
4.4. Metode Weighted Product (WP) Metode weighted product memerlukan proses normalisasi karena metode ini mengalikan hasil penilaian setiap atribut. Hasil perkalian tersebut belum bermakna jika belum dibandingkan (dibagi) dengan nilai standart. Bobot untuk atribut manfaat berfungsi sebagai pangkat positif dalam proses perkalian, sementara bobot biaya berfungsi sebagai pangkat negative. menggunakan perkalian untuk menghubungkan rating atribut, dimana rating setiap atribut harus dipangkatkan dulu dengan bobot atribut yang bersangkutan. Proses ini sama halnya dengan proses normalisasi. Metode weighted product menggunakan perkalian untuk menghubungkan rating atribut, dimana rating setiap atribut harus dipangkatkan dulu dengan bobot yang bersangkutan. Proses ini sama halnya dengan proses normalisasi. Preferensi untuk alternative Si diberikan sebagai berikut : si=∏
wi
dimana : S : Preferensi alternatif dianologikan sebagai vektor S X : Nilai kriteria W : Bobot kriteria/subkriteria
System Pendukung Keputusan
213
i : Alternatif j : Kriteria n : Banyaknya kriteria dimana wj 1 . Wj adalah pangkat bernilai positif untuk atribut keuntungan dan bernilai negatif untuk atribut biaya. Preferensi relatif dari setiap alternatif diberikan sebagai : ∏
Vi=∏
(
dimana :
∗
)
V : Preferensi alternatif dianalogikan sebagai vektor V X : Nilai Kriteria W : Bobot kriteria/subkriteria i : Alternatif j : Kriteria n : Banyaknya kriteria * : Banyaknya kriteria yang telah dinilai pada vektor S
4.5.3. Contoh Kasus Dengan Metode WP Untuk melanjutkan studi setelah lulus tingkat SLTA, terkadang dihadapkan dengan kebingungan ingin melanjut ke perguruan tinggi mana?, karena ada beberapa pertimbangan diantaranya biaya kuliah, jarak tempuh, fasilitas dan mutu perguruan tingginya yang diukur dari segi akreditasi prodi perguruan tinggi. Kualitas bagus tetapi dana tidak memadai akan mengalami kegagalan, atau sebaliknya dana memadai tetapi tidak sesuai dengan kualitas yang diiginkan juga terkendala dengan jarak tempuh si mahasiswa dengan lokasi kampus juga hasilnya tidak maksimal. Disini akan kita implementasikan dengan metode AHP untuk memilih perguruan tinggi Ada 3 lokasi yang akan menjadi alternatif, yaitu: A1 = STMIK A, A2 = STMIK B, A3 = STMIK C, A4=STMIK D;
System Pendukung Keputusan
214
Ada 5 kriteria yang dijadikan acuan dalam pengambilan keputusan, yaitu: C1 = Biaya, C2 = Jarak C3 = Fasilitas C4 = Akreditasi Tingkat kepentingan Biaya dinilai dengan 1 sampai 5, yaitu: 1 = Sangat Murah, 2 = Murah, 3 = ,Sedang 4 = Mahal, 5 = Sangat Mahal. Tingkat kepentingan Jarak dinilai dengan 1 sampai 4, yaitu: 1 = Dekat, 2 = Sedang, 3 = jauh 4 = Sanga jauh. Tingkat kepentingan Fasilitas dinilai dengan 1 sampai 4, yaitu: 1 = Kurang Lengkap, 2 = Sedang, 3 = Lengkap 4 = Sanga Lengkap. Tingkat kepentingan Akreditasi dinilai dengan 1 sampai 3, yaitu: 1 = Cukup, 2 = Baik, 3 = Sangat baik.
◦ Pengambil keputusan memberikan bobot preferensi sebagai: W = (3,2,4,3) Untuk menetapkan STMIK unggulan daerah ada kriteria tertentu, sistem penskala-an terhadap variable kriteria unggulan. Sistem penskla-an tiap variabel ini didasarkan pada nilai interval masing-masing kelompok (sub sektor) dengan kisaran nilai dari 1 sampai 5. Sementara untuk
System Pendukung Keputusan
215
data yang bukan berupa angka, pensklaan dilakukan dengan sistem strata. Masing-masing kriteria (variabel) memiliki bobot yang berbeda-beda disesuaikan dengan tingkat sumbangan kriteria terhadap produk unggulan Tabel 4.14. Nilai dan Bobot Kriteria No
Kriteria
Kriteria
Nilai
Bobot
1
Biaya
A1
3
0,25
2
Jarak
A2
2
0,167
3
Fasilitas
A3
4
0,333
4
Akreditasi
A4
3
0,25
w = 0,25 + 0,167 + 0,333 + 0,25 = 1 Kriteria Keuntungan : Fasilitas(A3), Akreditasi(A4) Kriteria Biaya : Biaya kuliah(A1), Jarak(A2) Alternatif PT
Kriteria A1
A2
A3
A4
STMIK-A
5
4
4
3
STMIK-B
3
3
3
2
STMIK-C
2
3
2
1
STMIK-D
4
2
3
2
Perhitungan Vektor STMIK-A=(5-0,25)(4-0,167)(40,333)(30,25)=1,1078 STMIK-B=(3-0,25)(3-0,167)(30,333)(20,25)=1,0844 STMIK-C=(2-0,25)(3-0,167)(20,333)(10,25)=0,8817 STMIK-D=(4-0,25)(2-0,167)(30,333)(20,25)=1,0798 Alternatif PT
Perhitungan Vektor
STMIK-A
1,1078
STMIK-B
1,0844
STMIK-C
0,8817
STMIK-D
1,0798
System Pendukung Keputusan
216
Nilai Vektor STMIK-A= STMIK-B= STMIK-C= STMIK-D=
,
,
,
,
,
,
,
,
,
, ,
,
,
,
,
,
,
,
,
,
=0,2667 =0,2611 =0.2123 =0.2600
Nilai terbesar ada pada STMIK A sehingga alternatif STMIK A adalah alternatif yang terpilih sebagai STMIK Terbaik.
4.6. Metode Simple Additive Weighting (SAW) Metode SAW sering juga dikenal istilah metode penjumlahan terbobot. Konsep dasar metode SAW adalah mencari penjumlahan terbobot dari rating kinerja pada setiap alternatif pada semua atribut. Metode SAW membutuhkan proses normalisasi matriks keputusan (X) ke suatu skala yang dapat diperbandingkan dengan semua rating alternatif yang ada. Rating kinerja ternormalisasi dengan menggunakan rumus sebagai berikut ⎧ ⎪ Rij= ⎨ ⎪ ⎩
Jika j adalah atribut keuntungan (benefit) Jika j adalah atribut biaya (cost)
Di mana: rij= rating kinerja ternormalisasi. maxi= nilai maksimum dari setiap baris dan kolom. Min i= nilai minimum dari setiap baris dan kolom. xij= baris dan kolom dari matriks. (rij) adalah rating kinerja ternormalisasi dari alternatif Ai pada atribut Cj=1,2,...,m dan j=1,2,...,n.
System Pendukung Keputusan
217
Nilai preferensi untuk setiap alternatif diberikan sebagai: ∑
Vi=∑
Dimana: vi= Nilai akhir dari alternatif wi= Bobot yang telah ditentukan rij= Normalisasi matriks Nilai viyang lebih besar mengindikasikan bahwa Ai alternatif lebih terpilih
4.6.1.
Analisis Pemecahan Masalah dengan Metode SAW
Langkah-langkah pemecahan masalah dengan metode SAW sebagai berikut: 1. Menentukan kriteria-kriteria yang akan dijadikan acuan dalam pengambilan keputusan, yaitu Ci . 2. Menentukan rating kecocokan setiap alternatif pada setiap kriteria. 3. Membuat matriks keputusan berdasarkan kriteria (Ci), kemudian melakukan normalisasi matriks berdasarkan persamaan yang disesuaikan dengan jenis atribut (atribut keuntungan ataupun atribut biaya) sehingga diperoleh matriks ternormalisasi R. 4. Hasil akhir diperoleh dari proses perankingan yaitu penjumlahan dari perkalian matriks ternormalisasi R dengan vektor bobot sehingga diperoleh nilai terbesar yang dipilih sebagai alternatif terbaik (Ai) sebagai solusi. Nilai preferensi untuk setiap alternatif (Vi) dapat menggunakan persamaan 2.2. Nilai Vi yang lebih besar mengindikasikan bahwa alternatif Ai lebih terpilih.
Contoh kasus
System Pendukung Keputusan
218
Diperguruan tinggi ada beasiswa, dari sekian banyak mahasiswa terdapat beberapa mahasiswa yang memenuhi kriteria. Maka untuk memutuskan siapa saja yang tepat menerima beasiswa dibuthkan satu metode dengan metode SAW agar pemberian beasiswa lebih adil.
1. Menentukan kriteria-kriteria yang akan dijadikan acuan dalam pengambilan keputusan, yaitu . Dalam metode penelitian ini ada bobot dan kriteria yang dibutuhkan untuk menentukan siapa yang akan terseleksi sebagai penerima beasiswa. Adapun kriteria dalam penelitian ini adalah: C1 = Penghasilan Orang Tua C2 = Tanggungan Orang Tua C3 = IPK C4 = Kehadiran C5 = attitude
2. Menentukan rating kecocokan setiap alternatif pada setiap kriteria.
a. Variabel penghasilan orang tua dikonversikan dengan bilangan fuzzy dibawah ini. Tabel 3.1 Penghasilan Orang Tua Penghasilan orang tua(Y)
Nilai
>5.000.000
1
>3.000.000 dan <=5.000.000
0,75
>1.500.000 dan <=3.000.000
0,50
>1.000.000 dan <=1.500.000
0,25
<=1.000.000
0
b. Variabel tanggungan orang tua dikonversikan dengan bilangan fuzzy dibawah ini. Tabel 3.2 Tanggungan Orang Tua Tanggungan orang tua (Y)
System Pendukung Keputusan
219
Nilai
>4
1
4
0,75
3
0,50
2
0,25
1
0
c. Variabel IPK dikonversikan dengan bilangan fuzzy dibawah ini.
c.
a.
IPK
Nilai
>3 dan <=4
1
>2.75 dan <=3
0,75
>2 dan <=2,75
0,50
>1 dan <=2
0,25
>0 dan <=1
0
Variabel Kehadiran dikonversikan dengan bilangan fuzzy dibawah ini. Kehadiran
Nilai
>80% dan <=100%
1
>70% dan <=80%
0,5
<70%
0
Variabel attitude dikonversikan dengan bilangan fuzzy dibawah ini. Kehadiran
Nilai
Baik
1
Sedang
0,5
Kurang
0
3. Membuat matriks keputusan berdasarkan kriteria (Ci), kemudian melakukan normalisasi matriks berdasarkan persamaan yang disesuaikan dengan jenis atribut (atribut keuntungan ataupun atribut biaya) sehingga diperoleh matriks ternormalisasi R.
System Pendukung Keputusan
220
Contoh hasil penginputan dari pemohon beasiswa. Dimana data-data yang dimasukan sesuai dengan data yang sebenarnya dan sesuai dengan kriteria yang sudah ditentukan melalui proses perhitungan.
Tabel 3.6 Masukan Data Awal Siswa Calon Penerima Beasiswa No
NPM
Penghailan Tanggungan IPK Oranhg
kehadiran attitude
Orang Tua
tua 1
10001
3.000.000
3
3,0
80%
Baik
2
10002
3.500.000
3
2,5
70%
Baik
3
10003
4.000.000
4
2,7
75%
Kurang
4
10004
1.000.000
2
3.2
78%
Sedang
Tabel 3.7 Masukan Data Siswa Calon Penerima Beasiswa No
NPM
Penghailan Tanggungan IPK Oranhg
kehadiran attitude
Orang Tua
tua 1
10001
0,50
0,50
1
1
1
2
10002
0,75
0,50
0,5
0,5
1
3
10003
0,75
0,75
0,5
0,5
0
4
10004
0
0,25
1
0,5
0,5
Pengambil keputusan memberikan bobot untuk setiap kriteria sebagai berikut: C1 = 30%; C2 = 20%; C3 = 20%; C4 = 15%, C5=15%
Perhitungan normalisasi R11=
{ ,
,
; ,
; ,
; }
=
, ,
System Pendukung Keputusan
=0,667
221
R12= R13= R14= R15= R21= R22= R23= R24= R25=
R31= R32= R33= R34= R35= R41= R42= R43= R44=
{ ,
, ; ,
; ,
{ ; , ; , ; }
; ,
{ , { ,
, ; , , ; ,
= =1 ; }
=
; ,
; ,
}
, { ; , ; , ; }
=
, { ; , ; , ; , }
{ , { ,
, ; , , ; ,
{ ,
; , , ; ,
,
=
; }
=
; ,
; ,
}
{ ; ; ; , }
=
,
=
,
, ,
=
; ,
; }
=
; ,
; ,
}
=
,
=0,667
=0,5
, ,
=
, ,
=1
=1
=0,5
,
=
= =1
, { ; , ; , ; , }
, ,
=0,667
=0,5
= =0
{ ; , ; , ; }
=0,667
=0,5
; ,
, { ; , ; , ; , }
{ ,
,
= =1
, { ; , ; , ; }
, ,
= =1
; ,
{ ; ; ; , }
=
= =1
{ ; , ; , ; , } { ; ; ; , }
}
, ,
=0
=0,333
=0,5
System Pendukung Keputusan
222
R45=
, { ; ; ; , }
=
,
=0,5
0,667 0,667 Hasil normalisasi= 1 0
0,667 0,667 1 0,33
1 1 1 0,5 0,5 1 0,5 0,5 0 1 0,5 0,5
Pengambil keputusan memberikan bobot untuk setiap kriteria sebagai berikut: C1 = 30%=0,3 C2 = 20%=0,2 C3 = 20%=0,2 C4 = 15%,=0,15 C5=15%=0,15 W=(0,3|0,2| 0,2| 0,15| 0,15) Hasil yang diperoleh sebagai berikut: V1=(0,667*0,3)+( 0,667*0,2)+( 1*0,2)+( 1*0,15)+( 1*0,15)=0,8335 V2=(0,667*0,3)+( 0,667*0,2)+( 0,5*0,2)+( 0,5*0,15)+( 1*0,15)=0,6585 V3=(1*0,3)+( 1*0,2)+( 0,5*0,2)+( 0,5*0,15)+( 0*0,15)=0,6750 V4=(0*0,3)+( 0,33*0,2)+( 1*0,2)+( 0,5*0,15)+( 0,5*0,15)=0,4160 4. Dari perhitungan diatas didapat V1 merupakan nilai terbesar sehingga diperoleh alternatif adalah alternatif yang terpilih sebagai alternatif terbaik. Dengan kata lain Anton akan berada diurutan pertama dalam daftar penerima beasiswa. No
NPM
Penghailan Tanggungan IPK Oranhg
kehadiran attitude
Orang Tua
Hasil Akhir
tua 1
10001
3.000.000
System Pendukung Keputusan
3
3,0
223
80%
Baik
0,8335
2
10002
3.500.000
3
2,5
70%
Baik
0,6585
3
10003
4.000.000
4
2,7
75%
Kurang
0,6750
4
10004
1.000.000
2
3.2
78%
Sedang
0,4160
4.6.Studi Kasus Dalam
jurnalnya
dengan
Sistem
Pendukung
Keputusan
Penentuan
Prioritas
Pengembangan Industri Kecil Menengahdengan Metode Weightedproduct (Studi Kasus dinas Koperasi, Ukm,Perindustrian Dan Perdagangan Kota Binjai) oleh Relita Buaton, Yani Maulita Akim Pardede dan Raodah), dengan manfaat penelitian tersedianya tool sebagai pendukung keputusan dalam membantu pimpinan mengambil keputusan berdasarkan prioritas industri kecil menengah yang dihasilkan oleh sistem sehingga dapat menghasilkan solusi yang lebih cepat untuk menentukan prioritas pengembangan industri kecil menengah di Kota Binjai 1. Analisis Dengan Perhitungan Metode Weighted Product Banyaknya kriteria yang sama dalam penilaian menyulitkan instansi pemerintah untuk mengambil suatu keputusan dalam menentukan prioritas pengembangan indutri kecil menengah,
System Pendukung Keputusan
224
Jumlah sampel jenis industri anyaman bambu di Kecamatan Binjai Timur 67 industri. Kriteria penilaian yang digunakan untuk perhitungan adalah sebagai berikut. C1 = Nilai Investasi (Kriteria Biaya) C2 = Kapasitas Produksi (Kriteria Keuntungan) C3 = Nilai Produksi (Kriteria Keuntungan) C4 = Nilai Bahan Baku (Kriteria Biaya) C5 = Tenaga Kerja (Kriteria Biaya) Tingkat kepentingan setiap kriteria, juga dinilai dengan 1 sampai 5, yaitu : 1= Sangat Rendah 2 = Rendah 3 = Sedang 4 = Tinggi 5 = Sangat Tinggi Bobot preferensi dalam pengambilan keputusan, yaitu :W = (5, 3, 4, 4, 2 ) Langkah – langkah yang dilakukan untuk menentukan prioritas pengembangan industri kecil menengah adalah sebagai berikut : A. Penentuan Nilai Bobot dan Kriteria 1. Nilai Investasi (-)
Tabel 1.Bobot Kriteria Nilai Investasi Nilai investasi
Variabel
Nilai bobot
≤ 50.000
Sangat
1
Rendah 50.000 s/d 1.000.000 1.000.000
Rendah
2
s/d Sedang
3
s/d Tinggi
4
3.000.000 3.000.000
System Pendukung Keputusan
225
7.000.000. 7.000.000
Sangat
5
Tinggi
2. Kapasitas Produksi (+) Tabel 2. Bobot Kriteria Kapasitas Produksi Kapasitas produksi
Variabel
Nilai Bobot
< 290
Sangat
1
Rendah 290 s/d 1.095
Rendah
2
1.095 s/d 5.800
Sedang
3
5.800 s/d 10.950
Tinggi
4
10.950
Sangat
5
Tinggi 3. Nilai Produksi (+) Tabel 3.Bobot Kriteria Nilai Produksi Nilai produksi
Variabel
Nilai bobot
< 2.400.000
Sangat
1
Rendah 2.400.000
s/d Rendah
2
s/d Sedang
3
s/d Tinggi
4
Sangat
5
10.150.000 10.150.000 25.375.000 25.375.000 49.920.000. 49.920.000
System Pendukung Keputusan
226
Tinggi 4. Nilai Bahan Baku (-) Tabel 4.Bobot Kriteria Nilai Bahan Baku Nilai bahan baku
Variabel
Nilai bobot
< 1.536.000
Sangat
1
Rendah 1.536.000
s/d Rendah
2
s/d Sedang
3
s/d Tinggi
4
Sangat
5
5.800.000 5.800.000 26.000.000 26.000.000 58.400.000. 58.400.000
Tinggi
5. Tenaga Kerja (-) Tabel 5.Bobot Kriteria Tenaga Kerja Tenaga
Variabel
kerja <1
Nilai bobot
Sangat
1
Rendah 1 s/d 5
Rendah
2
5 s/d 10
Sedang
3
10 s/d 20
Tinggi
4
20
Sangat
5
Tinggi
B. Nilai setiap alternatif disetiap kriteria System Pendukung Keputusan
227
Tabel 6.Nilai Alternatif Setiap Kriteria Alternatif
Kriteria C1
C2
C3
C4
C5
JAMALUDDIN
2
4
5
3
1
JAINAB
2
3
5
3
2
JARNIAH
2
4
5
3
2
DELPITA YUNI
2
4
4
3
2
HARNISA
1
2
1
1
1
SITI AISYAH
3
2
5
4
1
SUJINAH
1
3
2
2
1
PUSTIMA
1
3
2
2
2
SITI SAFRAH
1
2
2
2
1
WAHYU SYAHPUTRA
2
2
5
4
2
LUKMAN HAKIM
3
2
5
4
2
SANTIUNG
1
2
3
2
2
SAPARUDDIN
3
3
5
3
2
RUSLIAH / BAHARUDDIN
3
2
5
4
2
NANI ARIANI
1
3
2
2
2
SITI ZAHARA
2
4
2
3
1
SAFRIL LUBIS
4
3
5
4
2
RAHMAYANI
3
3
5
4
3
DIAN RATIH RAHAYU
2
2
5
4
2
SURYA DARMA
2
2
4
3
1
ANITA DEWI
2
2
4
3
2
SURIANI
1
2
2
2
1
IRAWADI
2
2
4
3
2
ERNAWATI
2
2
4
3
2
NURMAYANA
2
2
3
3
1
SUDI HARTONO
4
2
5
5
2
BAHTIAR
2
1
2
2
2
System Pendukung Keputusan
228
ABDUL RAHMAN
2
4
4
2
2
WAHYUDI
2
3
4
3
2
ZURAIDAH
2
3
2
3
2
NJO
2
4
4
3
3
LUKMAN EFENDI
3
3
4
3
3
ABDULLAH
2
2
2
2
2
SURATMAN
2
4
3
2
2
MARIANA
2
4
4
2
2
ZULKIFLI
2
4
3
2
2
SYARIFUDDIN
2
2
3
2
3
MAHYUDIN SYAHRI LBS
2
3
5
3
2
MAHYAR
2
2
3
3
2
PLENGKI BAMBU "TUGIMIN"
3
5
5
5
2
PLENGKI BAMBU "TUKIJO"
4
5
5
5
2
PLENGKI BAMBU " SUHERMAN 4
5
5
5
3
"DEDI 4
5
5
4
4
"WAK 4
5
5
5
4
BAMBU 3
5
5
4
2
"BU 2
5
3
3
2
HSB" PLENGKI
BAMBU
SETIAWAN" KERANJANG
BAMBU
ADI" KERAJINAN "MAISAROH" KERANJANG
TAUCO
RAHAYU" KERANJANG TAUCO "BU SARI"
2
4
3
3
2
3 CK HANDICRAFT
5
4
5
5
2
TAJUDIN
2
2
4
3
2
ERDIANTO
2
2
5
3
2
M.TAHIR NAWI
2
3
5
4
2
PONIRAN
3
3
5
5
2
System Pendukung Keputusan
229
MULYONO
4
5
5
5
4
DIWAR
3
5
5
5
4
MARLINA
3
5
5
4
2
BUNGA MATAHARI
4
4
5
5
3
AHMAD
3
5
5
5
4
INDRAWAN
3
2
5
5
2
ADI SUCIPTO
3
3
2
2
1
YUSLIANTI
3
3
2
2
2
RAHMAD SYAHPUTRA
3
3
2
2
2
KERIYONO
3
3
5
4
2
SUYETNO WARSITO
3
3
5
4
5
SUJONO
3
3
4
3
3
ADAHAM
4
3
4
4
5
BUDI KLAMA
2
2
4
3
2
NONI
1
3
3
2
1
C. Penentuan Bobot Bobot W =5, 3, 4, 4, 2 Kriteria Biaya ( - ) = C1, C4, C5 Kriteria Keuntungan ( + ) = C2, C3 ∑W = 1 W1 =
=
= 0, 28
W2 =
=
= 0, 17
W3 =
=
= 0,22
W4 =
=
= 0,22
W5 =
=
= 0,11
A. Penghitungan Vektor S
Si
n
x j 1
System Pendukung Keputusan
wj ij
230
Penilaian Vektor S dapat dihitung sebagai berikut : S1= (2 -0,28)(4 0,17)(5 0,22) (3 -0,22) (1 -0,11) = (0,8236) (1,2657)(1,4249)(0,7853)(1) = 1,1665 S2 = (2 -0,28)(3 0,17)(5 0,22) (3 -0,22) (2 -0,11)= (0,8236) (1,2053)(1,4249)(0,7853)(0,9266) = 1.0292 S3= (2 -0,28)(40,17)(5 0,22) (3 -0,22) (2 -0,11)= (0,8236) (1,2657)(1,4249)(0,7853)(0,9266) = 1,0808 S4 = (2 -0,28)(40,17)(40,22) (3 -0,22) (2 -0,11)= (0,8236) (1,2657)(1,3566)(0,7853)(0,9266) = 1.0290 S5= (1-0,28)(20,17)(10,22) (1-0,22) (1-0,11)= (1) (1,1250)(1)(1)(1) = 1,1251 S6= (3-0,28)(20,17)(50,22) (4-0,22) (1-0,11)= (0,7352) (1,1250)(1,4249)(0,7371)(1) = 0,8688 S7= (1-0,28)(30,17)(20,22) (2-0,22) (1-0,11)= (1) (1,2053)(1,1647)(0,8586)(1) = 1,2053 S8= (1-0,28)(30,17)(20,22) (2-0,22) (2 -0,11)= (1) (1,2053)(1,1647)(0,8586)(0,9266) = 1,1169 S9= (1-0,28)(20,17)(20,22) (2-0,22) (1-0,11)= (1) (1,1250)(1,1647)(0,8586)(1) = 1,1251 S10= (2 -0,28)(20,17)(50,22) (4-0,22) (2 -0,11)= (0,8236) (1,1250)(1,4249)(0,7371)(0,9266) = 0,9018 S11= (3-0,28)(20,17)(50,22) (4-0,22) (2 -0,11)
= ,7352)(1,1250)(1,4249)(0,7371)(0,9266) =
0,805 S12 = (1-0,28)(20,17)(30,22) (2-0,22) (2 -0,11)= (1) (1,1250)(1,2734)(0,8586)(0,9266) = 1,1397 S13 = (3-0,28)(30,17)(50,22) (3-0,22) (2 -0,11)=(0,7352)(1,2053)(1,4249)(0,7853)(0,9266) = 0,9188 S14 = (3-0,28)(20,17)(50,22) (4-0,22) (2 -0,11) =(0,7352)(1,1250)(1,4249)(0,7371)(0,9265) = 0,805 S15 = (1-0,28)(30,17)(20,22) (2-0,22) (2 -0,11)= (1) (1,2053)(1,1647)(0,8586)(0,9266) = 1,1169 S16= (2 -0,28)(40,17)(20,22) (3-0,22) (1-0,11)= (0,8236) (1,2657)(1,1647)(0,7853)(1) = 0,9535 S17= (4-0,28)(3 0,17)(50,22) (4-0,22) (2 -0,11)= (0,6783)(1,2053)(1,4249)(0,7371)(0,9266) System Pendukung Keputusan
231
= 0,7957 S18 = (3-0,28)(30,17)(50,22) (4-0,22) (3-0,11)= (0,7352)(1,2053)(1,4249)(0,7371)(0,8862) = 0,8248 S19 = (2 -0,28)(20,17)(50,22) (4-0,22) (2 -0,11)= (0,8236)(1,1250)(1,4249)(0,7371)(0,9266) = 0,9018 S20 = (2 -0,28)(20,17)(40,22) (3-0,22) (1-0,11)= (0,8236) (1,1250)(1,3566)(0,7853)(1) = 0,9871 S21 = (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,3566)(0,7853)(0,9266) = 0,9147 S22 = (1-0,28)(20,17)(20,22) (2-0,22) (1-0,11)= (1) (1,1250)(1,1647)(0,8586)(1) = 1.1250 S23 = (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,3566)(0,7853)(0,9266) = 0,9147 S24 = (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,3566)(0,7853)(0,9266) = 0,9147 S25 = (2 -0,28)(20,17)(30,22) (3-0,22) (1-0,11)= (0,8236) (1,1250)(1,2734)(0,7853)(1) = 0,9266 S26 = (4-0,28)(20,17)(50,22) (5-0,22) (2 -0,11)= (0,6783)(1,1250)(1,4249)(0,7018)(0,9266) = 0,7071 S27 = (2 -0,28)(10,17)(20,22) (2-0,22) (2 -0,11)= (0,8236) (1)(1,1647)(0,8586)(0,9266) = 0,7631 S28 = (2 -0,28)(40,17)(40,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,3566)(0,8586)(0,9266) = 1,1251 S29 = (2 -0,28)(30,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1.2053)(1,3566)(0,7853)(0,9266) = 0,9799 S30 = (2 -0,28)(30,17)(20,22) (3-0,22) (2 -0,11)= (0,8236)(1,2053)(1,1647)(0,7853)(0,9266) = 0,8413 S31 = (2 -0,28)(40,17)(40,22) (3-0,22) (3-0,11)= (0,8236)(1.2657)(1,3566)(0,7853)(0,8862) = 0,9842 S32 = (3-0,28)(30,17)(40,22) (3-0,22) (3-0,11)= (0,7352)(1,2053)(1,3566)(0,7853)(0,8862) = 0,8366
System Pendukung Keputusan
232
S33 = (2 -0,28)(20,17)(20,22) (2-0,22) (2 -0,11)= (0,8236)(1,1250)(1,1647)(0,8586)(0,9266) = 0,8585 S34 = (2 -0,28)(40,17)(30,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,2734)(0,8586)(0,9266) = 1,0561 S35 = (2 -0,28)(40,17)(40,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,3566)(0,8586)(0,9266) = 1,1251 S36 = (2 -0,28)(40,17)(30,22) (2-0,22) (2 -0,11)= (0,8236)(1,2657)(1,2734)(0,8586)(0,9266) = 1,0561 S37 = (2 -0,28)(20,17)(30,22) (2-0,22) (3-0,11)= (0,8236)(1,1250)(1,2734)(0,8586)(0,8862) = 0,8977 S38 = (2 -0,28)(30,17)(50,22) (3-0,22) (2 -0,11)= (0,8236)(1,2053)(1,4249)(0,7853)(0,9266) = 1,0292 S39 = (2 -0,28)(20,17)(30,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,2734)(0,7853)(0,9266) = 0,8585 S40 = (3-0,28)(50,17)(50,22) (5-0,22) (2 -0,11)= (0,7352)(1,3147)(1,4249)(0,7018)(0,9266) = 0,8956 S41 = (4-0,28)(50,17)(50,22) (5-0,22) (2 -0,11)= (0,6783)(1,3147)(1,4249)(0,7018)(0,9266) = 0,8263 S42 = (4-0,28)(50,17)(50,22) (5-0,22) (3-0,11)= (0,6783)(1,3147)(1,4249)(0,7018)(0,8862) = 0,7903 S43= (4-0,28)(50,17)(50,22) (4-0,22) (4-0,11)= (0,6783) (1,3147)(1,4249)(0,7371)(0,8586) = 0,8042 S44 = (4-0,28)(50,17)(50,22) (5-0,22) (4-0,11)=(0,6783) (1,3147)(1,4249)(0,7018)(0,8586) = 0,7657 S45= (3-0,28)(50,17)(50,22) (4-0,22) (2 -0,11)= (0,7352)(1,3147)(1,4249)(0,7371)(0,9266) = 0,9407 S46 = (2 -0,28)(50,17)(30,22) (3-0,22) (2 -0,11)= (0,8236)(1,3147)(1,2734)(0,7853)(0,9266) = 1,0033 S47= (2 -0,28)(40,17)(30,22) (3-0,22) (2 -0,11)= (0,8236)(1,2657)(1,2734)(0,7853)(0,9266) = 0,9659 S48= (5-0,28)(40,17)(50,22) (5-0,22) (2 -0,11)= (0,6372)(1,2657)(1,4249)(0,7018)(0,9266) = 0,7473 S49= (2 -0,28)(20,17)(40,22) (3-0,22) (2 -0,11)= (0,8236)(1.1250)(1,3566)(0,7853)(0,9266) = 0,9146 S50= (2 -0,28)(20,17)(50,22) (3-0,22) (2 -0,11)= (0,8236)(1,1250)(1,4249)(0,7853)(0,9266) = 0,9607 System Pendukung Keputusan
233
S60= (3-0,28)(30,17)(20,22) (2-0,22) (2-0,11)=(0,7352)(1,2053)(1,1647)(0,8586)(0,9266) = 0,8211 S61 = (3-0,28)(30,17)(20,22) (2-0,22) (2-0,11)= (0,7352)(1,2053)(1,1647)(0,8586)(0,9266) = 0,8211 D. Penghitungan Vektor V n
V
i
j1 n
j1
x
w
j
ij
x
* ij
Nilai Vektor V dapat digunakan sebagai perangkingan, nilai Vektor V dapat dihitung sebagai berikut : S1=1,1665/(1,1665 + 1.0292 + 1,0808 + 1,0292 + 1,1251 + 0,8688 + 1,2053 + 1,1169 + 1,1251 + 0,8688 + 1,2053 + 1,1169 + 1,1251 + 0,9018 + 0,805 + 1,1397 + 0,9188 + 0,805 + 1,1169 + 0,9535 + 0,7957 + 0,8248 + 0,9018 + 0,9871 + 0,9147 + 1,1251 + 0,9147 + 0,9266 + 0,7071 + 0,7631 + 1,1251 + 0,9799 + 0,8413 + 0,9842 + 0,8366 + 0,8586 + 1,0561 + 1,1251 + 1,0561 + 0,8977 + 1,0292 + 0,8586 + 0,8956 + 0,8263 + 0,7903 + 0,8042 + 0,7656 + 0,9407 + 1,0033 + 0,9659 + 0,7474 + 0,9146 + 0,9607 + 0,9661 + 0,8211 + 0,7657 + 0,8299 + 0,9407 + 0,7608 + 0,8299 + 0,7664 + 0,8862 + 0,8211 + 0,8211 + 0,8624 + 0,7797 + 0,8366 + 0,6849 + 0,9147 + 0,3148) , V1 = , = 0,0189 Tabel 7. Hasil Perhitungan Vektor Vektor V1 V2 V3 V4 V5 V6 V7 V8 V9 V10 V11 V12 V13 V14 V15 V16 V17 V18 V19
System Pendukung Keputusan
Hasil 0,0189 0,0166 0,0175 0.0166 0,0182 0,0141 0,0195 0,0181 0,0182 0,0146 0,0130 0,0184 0,0148 0,0130 0,0180 0,0154 0,0128 0,0133 0,0146
Vektor V35 V36 V37 V38 V39 V40 V41 V42 V43 V44 V45 V46 V47 V48 V49 V50 V51 V52 V53 234
Hasil 0,0182 0,0171 0,0145 0,0166 0,0139 0,0145 0,0133 0,0128 0,0130 0,0124 0,0152 0,0162 0,0156 0,0121 0,0148 0,0155 0,0156 0,0133 0,0124
V20 0,0159 V54 0,0134 V21 0,0148 V55 0,0152 V22 0,0182 V56 0,0123 V23 0,0148 V57 0,0134 V24 0,0148 V58 0,0124 V25 0,0150 V59 0,0143 V26 0,0114 V60 0,0133 V27 0,0123 V61 0,0133 V28 0,0182 V62 0,0139 V29 0,0158 V63 0,0126 V30 0,0136 V64 0,0135 V31 0,0159 V65 0,0110 V32 0,0135 V66 0,0148 V33 0,0139 V67 0,0213 V34 0,0171 Berdasarkan hasil akhir dari perhitungan metode weighted product, maka didapat hasil perangkingan dengan nilai tertinggi ada pada V67,nama alternatif “Noni” adalah alternatif terpilih sebagai terbaik. Dengan kata lain “Noni” sebagai prioritas industri kecil menengah untuk jenis industri anyaman bambu di Kota Binjai.
System Pendukung Keputusan
235
DAFTAR PUSTAKA
Arif Hermawan, 2006, “Jaringan Syaraf Tiruan(Teori dan Aplikasi)”, Yogyakarta: Andy. Budi Santoso, 2007a, “Data Mining (Teknik Pemanfaatan Data Untuk Keperluan Bisnis)”, Yogyakarta: Graha Ilmu. Budi Santoso,2007b, “Data Mining Terapan Dengan Matlab”, Yogyakarta: Graha Ilmu. Box, G.E.P. dan Tiao, G.C., 1973, “Bayesian Inference In Statistical Analysis”, AddisionWesley Publishing Company, Inc: Philippines. Chouchoulas, A., 1999, ” A Rough Set Approach To Text Classification”, The University Of Edinburgh. Daihani., Dadan Umar,2001. Komputerisasi Pengambilan Keputusan. Jakarta: Elex Media Komputindo. Davies, Paul Beynon, 2004, “Database Systems Third Edition”, New York: Palgrave Macmillan. Eko Prasetyo (2012), “ Data Mining (Konsep dan Aplikasi Menggunakan Matlab)”, Yogyakarta: Andy. Gaber, M. M (2010), “Scientific Data Mining and Knowledge Discovery”, London: Springer. Galindo-Garre, F dan Vermunt, J. K. 2004. Bayesian Posterior Estimation of Logit Parameters With Small Samples. Jurnal. Sage Publication: Netherlands. Jiawei Han., Kamber, M(2000), “Data Mining (Concepts and Techniques)”, Canada: Morgan Kaufimann. Kantardzic, M., Wiley, J.(2003), “ Data Mining (Concepts, Models, Method and Algorithms)”, University Of Louisville. Kuazril.
2005.
Sistem
Pendukung
Keputusan
dengan
Analytical
Process.www.efka.utm.my/thesis/images/4MASTER/2005/2jsb
Hierarchy P/Part/
KUAZRILRIDZHIEMA031175D05TT8.doc. Diakses tanggal: 25 Februari 2011. System Pendukung Keputusan
236
Kusrini. 2006. Sistem Pakar Teori dan Aplikasi. Edisi ke-1. Yogyakarta: Andi. Kusrini (2007), “ Konsep dan Aplikasi Sistem Pendukung Keputusan”, Yogyakarta: Andy. Kusrini (2008), “ Aplikasi Sistem Pakar”, Yogyakarta: Andy. Kusumadewi, Sri., Hartati, S., Harjoko, A., dan Wardoyo, R. 2006. Fuzzy Multi-Attribute Decision Making. Yogyakarta: Graha Ilmu. Kosasi, Sandy. 2002. Sistem Penunjang Keputusan (Decision Support System). Pontianak. Laily Nadhifah, Hasbi Yasin, Sugito,2012. Analisis Faktor-Faktor Yang Mempengaruhi Bayi Berat Lahir Rendah Dengan Model Regresi Logistik Biner Menggunakan Metode Bayes, JURNAL GAUSSIAN, Volume 1, Nomor 1, Tahun 2012, Halaman 125-134 Muhammad Armin. 2005. Konsep Dasar Sistem Pakar. Jilid 1. Yogyakarta: Andi. Prabhu, S., Venatesan, N. 2007. Data Mining and Warehousing. New Age International (P) Limited, Publishers. Relita Buaton,Sri Astuti,2013,
Perancangan Sistem Pakar Tes Kepribadian Dengan
Menggunakan Metode Bayes, Jurnal, STMIK Kaputama, Binjai Relita Buaton,Akim Manaor Pardede,Yani Maulita,Raodah,2014,”Sistem Pendukung Keputusan Penentuan Prioritas Pengembangan Industri Kecil Menengahdengan Metode Weightedproduct (Studi Kasusdinas Koperasi, Ukm,Perindustrian Dan Perdagangan Kota Binjai)”, Jurnal, STMIK Kaputama, Binjai Sri Hartati dan Sari Iswanti (2008),”Sistem Pakar dan Pengembangannya”, Yogyakarta: Graha Ilmu. Sri Kusumadewi (2003), “Artificial Intelligence(Teknik dan Aplikasinya)”, Yogakarta: Graha Ilmu. Sri Kusumadewi (2004), “Membangun Jaringan Syaraf Tiruan (Menggunakan Matlab dan Excel Link)”, Yogakarta: Graha Ilmu. Sri
Kusumadewi, 2007. Diklat Kuliah Kecerdasan Buatan, Jurusan Teknik Informatika, Fakultas Teknologi Industri, Universitas Islam Indonesia.
Sri Winarti, 2008. Pemanfaatan Teorema Bayes Dalam Penentuan Penyakit THT, Jurnal Informatika Vol 2, No. 2
System Pendukung Keputusan
237
Susila, Wayan R dan Munadi, Ernawati. 2007. Penggunaan Analytical Hierarchy Process untuk Penyusunan Prioritas Proposal Penelitian. www.litbang.deptan.go.id/warta-ip/pdffile/1.wayanerna_ipvol1622007.pdf. Diakses tanggal: 25 Februari 2011. Soejoeti, Z dan Soebanar. 1988. Inferensi Bayesian. Karunika Universitas Terbuka: Jakarta. Suryadi, Kadarsah dan Ramdhani, Ali. 1998. Sistem Pendukung Keputusan. Bandung: PT Remaja Rosdakarya. Supriyono, dkk. 2007. Sistem pemilihan pejabat struktural dengan metode ahp. Sdm Teknologi Nuklir: hal. 1-12. Seminar Nasional III. Suyanto (2011), “Artificial Intelligence”, Bandung: Informatika. Turban, E., Aronson, J.E., Ting Peng Liang (2005), “Decision Support System and Intelligent System”, New Jersay: Pearson Edudation. Venugopal, K.R., Srinivasa, K.G., Patnaik, L.M(2009), “Soft Computing For Data Mining Applications”, London: Springer. Yon Shi, Yingjie Tan, Gang Kou, Yi Peng, Jianping Li(2011), “Optimization Based Data Mining (Theory and Applications)” ”, London: Springer. Yudho
Giri
Sucahyo,
2003,
Data
Mining
Menggali
Informasi
yang
Terpendam,
www.ilmukomputer.com Sachdeva, Anish, et all. 5 Mei 2010. Multi-factor failure mode critically analysis using TOPSIS. http://www.sid.ir/En/VEWSSID/J_pdf/117320090801.pdf. Sri Andayani, 2007, “SEMNAS Matematika dan Pendidikan Matematika”, UNY Yogyakarta. Teknomo, Kardi. Similarity Measurement http://people.revoledu.com/kardi/tutorial/Similarity/index.html
System Pendukung Keputusan
238