Supervised Learning Misalkan kita ingin membuat suatu program komputer yang ketika diberi gambar seseorang, dapat menentukan apakah orang dalam gambar tersebut pria atau wanita. Program yang kita buat tersebut adalah yang disebut sebagai classifier, karena program tersebut berusaha menetapkan kelas (yaitu pria atau wanita) ke sebuah objek (gambar). Tugas supervised learning adalah untuk membangun sebuah classifier dengan memberikan sekumpulan contoh training yang sudah diklasifikasi (pada kasus ini, contohnya adalah gambar yang telah dimasukkan ke kelas yang tepat). Tantangan utama pada supervised learning adalah generalisasi: Setelah menganalisa beberapa contoh gambar, supervised learning harus menghasilkan suatu classifier yang dapat digunakan dengan baik pada semua gambar. Pasangan objek, dan kelas yang menunjuk pada objek tersebut adalah suatu contoh yang telah diberi label. Himpunan contoh yang telah diberi label akan menghasilkan suatu algoritma pembelajaran yang disebut training set. Misalkan kita menyediakan suatu training set kepada algoritma pembelajaran, dan algoritma tersebut menghasilkan output yang berupa classifier. Bagaimana cara mengukur kualitas classifier ini? Solusi yang umumnya digunakan adalah dengan menggunakan himpunan contoh berlabel yang lain yang disebut sebagai test set. Kita dapat mengukur persentase contoh yang diklasifikasi dengan benar atau persentase contoh yang mengalami kesalahan klasifikasi. Pendekatan yang dilakukan untuk menghitung persentase mengasumsikan bahwa setiap klasifikasi adalah independen, dan setiap klasifikasi sama pentingnya. Asumsi ini sering sekali dilupakan.
57 Asumsi bahwa setiap kelas adalah independen seringkali dilanggar bila ada suatu ketergantungan sementara pada data. Contohnya, seorang dokter pada suatu klinik mengetahui bahwa suatu wabah penyakit sedang terjadi. Oleh karena itu, setelah melihat beberapa pasien yang kesemuanya terserang flu, ada kemungkinan besar kalau dokter akan menganggap pasien berikutnya mengidap penyakit yang sama, walaupun pasien tidak menunjukkan gejala sejelas gejala penyakit pasien sebelumnya. Asumsi bahwa semua klasifikasi sama pentingnya seringkali dilanggar bila ada perubahan resiko yang berhubungan dengan perbedaan perhitungan kesalahan. Contoh: classifier harus menentukan suatu apakah seorang pasien terserang kanker atau tidak berdasarkan perhitungan laboratorium. Ada dua macam kesalahan. Yang pertama disebut, kesalahan false positive, yaitu kesalahan yang muncul ketika classifier mengklasifikasi orang yang sehat sebagai orang yang mengidap kanker. False negative muncul ketika classifier mengklasifikasi orang yang mengidap kanker sebagai orang yang sehat. Umumnya, false negative lebih sering beresiko daripada false positive, sehingga kita harus menggunakan algoritma pembelajaran yang dapat menimbulkan false negative lebih sedikit, walaupun hasilnya akan menimbulkan lebih banyak false positive. Supervised learning tidak hanya mempelajari classifier, tetapi juga mempelajari fungsi yang dapat memprediksi suatu nilai numerik. Contoh: ketika diberi foto seseorang, kita ingin memprediksi umur, tinggi, dan berat orang yang ada pada foto tersebut. Tugas ini sering disebut sebagai regresi. Pada kasus ini, setiap contoh training yang terlah diberi label berisi sebuah objek, dan nilai yang dimilikinya. Kualitas dari fungsi prediksi biasanya diukur sebagai kuadrat perbedaan nilai pemprediksi. Ada banyak algoritma pembelajaran yang dikembangkan dari supervised learning. Algoritma-algoritma tersebut tersebut adalah:
trees (pohon keputusan),
decision
artificial neural networks, support vector
machine.
Latar Belakang Pohon Keputusan Di dalam kehidupan manusia sehari-hari, manusia selalu dihadapkan oleh berbagai macam masalah dari berbagai macam bidang. Masalahmasalah yang dihadapi oleh manusia memiliki tingkat kesulitan dan kompleksitas yang sangat bervariasi, mulai dari masalah yang teramat
58 sederhana dengan sedikit faktor-faktor yang terkait, sampai dengan masalah yang sangat rumit dengan banyak sekali faktor-faktor yang terkait dan perlu untuk diperhitungkan. Untuk menghadapi masalah-masalah ini, manusia mulai mengembangkan sebuah sistem yang dapat membantu manusia agar dapat dengan mudah mampu untuk menyelesaikan masalah-masalah tersebut. Adapun pohon keputusan ini adalah sebuah jawaban akan sebuah sistem yang manusia kembangkan untuk membantu mencari dan membuat keputusan untuk masalah-masalah tersebut dan dengan memperhitungkan berbagai macam faktor yang ada di dalam lingkup masalah tersebut. Dengan pohon keputusan, manusia dapat dengan mudah mengidentifikasi dan melihat hubungan antara faktor-faktor yang mempengaruhi suatu masalah dan dapat mencari penyelesaian terbaik dengan memperhitungkan faktorfaktor tersebut. Pohon keputusan ini juga dapat menganalisa nilai resiko dan nilai suatu informasi yang terdapat dalam suatu alternatif pemecahan masalah. Peranan pohon keputusan sebagai alat bantu dalam mengambil keputusan (decision support tool) telah dikembangkan oleh manusia sejak perkembangan teori pohon yang dilandaskan pada teori graf. Kegunaan pohon keputusan yang sangat banyak ini membuatnya telah dimanfaatkan oleh manusia dalam berbagai macam sistem pengambilan keputusan.
Pengertian Pohon Keputusan Pohon dalam analisis pemecahan masalah pengambilan keputusan adalah pemetaan mengenai alternatif-alternatif pemecahan masalah yang dapat diambil dari masalah tersebut. Pohon tersebut juga memperlihatkan faktor-faktor kemungkinan/probablitas yang akan mempengaruhi alternatifalternatif keputusan tersebut, disertai dengan estimasi hasil akhir yang akan didapat bila kitamengambil alternatif keputusan tersebut.
Manfaat Pohon Keputusan Pohon keputusan adalah salah satu metode klasifikasi yang paling populer karena mudah untuk diinterpretasi oleh manusia. Pohon keputusan adalah model prediksi menggunakan struktur pohon atau struktur berhirarki. Konsep dari pohon keputusan adalah mengubah data menjadi pohon keputusan dan aturan-aturan keputusan. Manfaat utama dari
59 penggunaan pohon keputusan adalah kemampuannya untuk mem-break down proses pengambilan keputusan yang kompleks menjadi lebih simpel sehingga pengambil keputusan akan lebih menginterpretasikan solusi dari permasalahan. Pohon Keputusan juga berguna untuk mengeksplorasi data, menemukan hubungan tersembunyi antara sejumlah calon variabel input dengan sebuah variabel target. Pohon keputusan memadukan antara eksplorasi data dan pemodelan, sehingga sangat bagus sebagai langkah awal dalam proses pemodelan bahkan ketika dijadikan sebagai model akhir dari beberapa teknik lain. Sering terjadi tawar menawar antara keakuratan model dengan transparansi model. Dalam beberapa aplikasi, akurasi dari sebuah klasifikasi atau prediksi adalah satu-satunya hal yang ditonjolkan, misalnya sebuah perusahaan direct mail membuat sebuah model yang akurat untuk memprediksi anggota mana yang berpotensi untuk merespon permintaan, tanpa memperhatikan bagaimana atau mengapa model tersebut bekerja.
Kelebihan Pohon Keputusan 1. 2.
3.
4.
Kelebihan dari metode pohon keputusan adalah: Daerah pengambilan keputusan yang sebelumnya kompleks dan sangat global, dapat diubah menjadi lebih simpel dan spesifik. Eliminasi perhitungan-perhitungan yang tidak diperlukan, karena ketika menggunakan metode pohon keputusan maka sample diuji hanya berdasarkan kriteria atau kelas tertentu. Fleksibel untuk memilih fitur dari internal node yang berbeda, fitur yang terpilih akan membedakan suatu kriteria dibandingkan kriteria yang lain dalam node yang sama. Kefleksibelan metode pohon keputusan ini meningkatkan kualitas keputusan yang dihasilkan jika dibandingkan ketika menggunakan metode penghitungan satu tahap yang lebih konvensional. Dalam analisis multivariat, dengan kriteria dan kelas yang jumlahnya sangat banyak, seorang penguji biasanya perlu untuk mengestimasikan baik itu distribusi dimensi tinggi ataupun parameter tertentu dari distribusi kelas tersebut. Metode pohon keputusan dapat menghindari munculnya permasalahan ini dengan menggunakan kriteria yang jumlahnya lebih sedikit pada setiap node internal tanpa banyak mengurangi kualitas keputusan yang dihasilkan.
60
Kekurangan Pohon Keputusan 1.
2. 3. 4.
Beberapa kekurangan dari pohon keputusan yaitu: Terjadi overlap terutama ketika kelas-kelas dan kriteria yang digunakan jumlahnya sangat banyak. Hal tersebut juga dapat menyebabkan meningkatnya waktu pengambilan keputusan dan jumlah memori yang diperlukan. Pengakumulasian jumlah eror dari setiap tingkat dalam sebuah pohon keputusan yang besar. Kesulitan dalam mendesain pohon keputusan yang optimal. Hasil kualitas keputusan yang didapatkan dari metode pohon keputusan sangat tergantung pada bagaimana pohon tersebut didesain.
Skema Pohon Keputusan Struktur Dasar Pohon Berdasarkan teori Graf, definisi pohon adalah “sebuah graf, tak-berarah, terhubung, yang tidak mengandung sirkuit”. Graf adalah suatu representasi visual dari objek-objek diskrit yang dinyatakan dengan noktah, bulatan, atau titik, serta hubungan yang ada antara objek-objek tersebut. Secara matematis, graf didefinisikan sebagai pasangan himpunan (V,E) yang dalam hal ini : V = himpunan tidak-kosong dari simpul-simpul (vertices) = { v1 , v2 , ... , vn } E = himpunan sisi (edges) yang menghubungkan sepasang simpul = {e1 , e2 , ... , en }
Gambar 6.1 Beberapa Contoh Graf Suatu titik (.) juga dapat disebut sebagai graf, graf tersebut disebut sebagai graf trivial, yaitu suatu graf yang terdiri dari sebuah titik tanpa sisi. Ada juga beberapa graf khusus, salah satunya adalah graf lengkap (complete graph) yaitu graf sederhana yang setiap simpulnya mempunyai sisi ke semua
61 simpul lainnya. Graf lengkap dengan n buah simpul dilambangkan dengan Kn. Jumlah sisi pada graf lengkap yang terdiri dari n buah simpul adalah n(n – 1)/2.
Gambar 6.2 Contoh Graf Lengkap
Gambar 6.3 Contoh Pohon Selain itu, sebuah pohon juga memenuhi salah satu dari pernyataanpernyataan yang ekuivalen di bawah ini: Misal G adalah sebuah pohon. ~ Setiap pasang simpul di dalam G terhubung dengan lintasan tunggal. ~ G terhubung dan memiliki m = n – 1 buah sisi. ~ G tidak mengandung sirkuit dan memiliki m = n –1 buah sisi. ~ G tidak mengandung sirkuit dan penambahan satu sisi pada graf akan membuat hanya satu sirkuit. ~ G terhubung dan semua sisinya adalah jembatan. Adapun permodelan pohon yang biasa dipakai dalam pohon keputusan adalah rooted tree (pohon berakar), pohon yang satu buah
62 simpulnya diperlakukan sebagai akar dan sisi-sisinya diberi arah sehingga menjadi graf berarah.
Gambar 6.4 Contoh Pohon Berakar
~ ~ ~ ~
~ ~ ~ ~
Beberapa terminologi dalam pohon berakar: Anak/Child atau Orangtua/Parent: b,c, dan d adalah anak dari a dan a adalah orangtua dari b,c, dan d. Lintasan/Path: lintasan dari a ke j adalah a,b,e,j. Panjang lintasan dari a ke j adalah jumlah sisi yang dilalui, yaitu 3. Saudara kandung/Sibling: b,c,dan d adalah saudara kandung sebab mempunyai orangtua yang sama yaitu a. Derajat: derajat adalah jumlah anak yang ada pada simpul tersebut. A berderajat 3, dan b berderajat 2. Derajat suatu pohon adalah derajat maksimum dari semua simpul yang ada. Pohon pada gambar 3 berderajat 3. Daun: daun adalah simpul yang tidak mempunyai anak. c,f,g,h,i,dan j adalah daun. Simpul dalam/Internal nodes: simpul yang mempunyai anak. Simpul a,b, dan d adalah simpul dalam. Tingkat/Level: adalah 1 + panjang lintasan dari simpul teratas ke simpul tersebut. Simpul teratas mempunyai tingkat = 1. Pohon n-ary: pohon yang tiap simpul cabangnya mempunyai banyaknya n buat anak disebut pohon n-ary. Jika n=2, pohonnya disebut pohon binary (binary/biner).
63
Struktur Pohon Keputusan Secara umum, pohon keputusan dalah suatu gambaran permodelan dari suatu persoalan yang terdiri dari serangkaian keputusan yang mengarah ke solusi. Tiap simpul dalam menyatakan keputusan dan daun menyatakan solusi. Permodelan pohon keputusan di sini berupa permodelan pohon n-ary, dengan jumlah anak yang dapat berbeda-beda tiap simpulnya.
Gambar 6.6 Pohon keputusan untuk mengurutkan 3 buah bilangan a, b, dan c
Pohon keputusan pada gambar 6.5 dibaca dari atas ke bawah. Simpul paling atas pada pohon keputusan ini adalah simpul akar. Simpul yang ditandai dengan tanda kotak di simpul tersebut disebut dengan simpul keputusan. Cabang-cabang yang mengarah ke kanan dan kekiri dari sebuah cabang keputusan merepresentasikan kumpulan dari alternatif keputusan yang bisa diambil. Hanya satu keputusan yang dapat diambil dalam suatu waktu. Dalam beberapa pohon keputusan, juga sering disertakan simpul tambahan, yaitu simpul probabilitas. simpul ini biasa ditandai dengan gambar lingkaran kecil yang disertai dengan angka pada cabang-cabang yang mengakar pada simpul probabilitas itu. Angka-angka yang terletak pada cabang-cabang tersebut merupakan probalitas kesempatan akan munculnya keputusan yang ada di cabang tersebut dalam pilihan.
64 Sebagai sebuah catatan, pohon keputusan tidak hanya dapat ditulis secara vertikal, namun juga dapat secara horizontal. Pada penulisan secara horizontal, pembacaan pohon keputusan dimulai dari kiri ke kanan. Selain itu, di posisi paling bawah sebuah pohon keputusan juga dapat ditambahkan sebuah titik akhir (endpoint), yang merepresentasikan hasil akhir dari sebuah lintasan dari akar pohon keputusan pohon tersebut sampai ke titik akhir itu.
Gambar 6.7 Pohon keputusan horizontal dan mengandung simpul probabilitas
Expected value/hasil estimasi adalah sebuah estimasi hasil dari sebuah keputusan tertentu. Hasil ini didapatkan dari mengkalikan setiap kemungkinan peluang terjadinya suatu kemungkinan lalu menambahkan hasilnya menhadi suatu jumlah. Expected value decision criterion/kriteria keputusan hasil estimasi adalah suatu seleksi agar dapat memilih sebuah alternatif keputusan yang mempunyai hasil estimasi yang paling baik/yang paling diinginkan. Dalam situasi bila “more is better” atau lebih banyak itu lebih baik, maka pilihan keputusan dengan hasil estimasi paling tinggi adalah yang terbaik, sedangkan dalam situasi bila ”less is better”, maka pilihan keputusan dengan hasil estimasi paling rendah adalah yang terbaik.
65
Gambar 6.8 Pohon keputusan dengan expected value/hasil estimasi Di dalam pohon keputusan pada gambar 6.8, cabang pohon keputusan yang mengandung alternatif pilihan yang kurang disarankan/kurang baik menurut kriteria hasil estimasi ditandai dengan tanda ‘//’ pada cabang tersebut. Hasil estimasi pada setiap simpul probabilitas ditandai dengan tanda ‘EV’. Hasil estimasi yang terdapat pada simpul keputusan bernilai sama dengan hasil estimasi bila kita mengkuti cabang tersebut sampai mencapai keputusan akhir. Decision tree rollback adalah suatu teknik untuk menghitung selama suksesif hasil estimasi yang ada dari simpul keputusan di akhir pohon sampai kembali ke akar pohon keputusan tersebut. Decision strategy/strategi pengambilan keputusan adalah semua spesifikasi lengkap dari semua kemungkinan pilihan yang sesuai dengan kriteria hasil dari sebuah pengambilan keputusan suatu masalah secara sekuensial dengan menggunakan sebuah pohon keputusan. Dalam decision analysis, pohon keputusan dapat diartikan sebagai sebuah alat untuk membuat ide yang secara umum dapat mengacu kepada sebuah graf atau sebuah model dari keputusan-keputusan dan akibat-akibat yang dapat muncul dari keputusan-keputusan tersebut, termasuk peluang terjadinya suatu kejadian, biaya yang dibutuhkan, dan utilitas. Melalui
66 pohon ini strategi terbaik untuk menyelesaikan suatu masalah dapat diketahui. Pohon keputusan juga digunakan untuk mengkalkulasikan peluang kondisi-kondisi yang mungkin akan terjadi desertai dengan analisisanalisis faktor-faktor yang mempengaruhi keputusan yang diambil dengan menggunakan pohon keputusan tersebut.
Contoh Aplikasi A. Identifikasi Pembeli Komputer
Gambar 6.9 Contoh Aplikasi Pohon Berakar untuk Identifikasi Pembeli Komputer Sumber: Pramudiono (2008)
Disini setiap percabangan menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon menyatakan kelas data. Contoh di Gambar 6.9 adalah identifikasi pembeli komputer, dari pohon keputusan tersebut diketahui bahwa salah satu kelompok yang potensial membeli komputer adalah orang yang berusia di bawah 30 tahun dan juga pelajar. Setelah sebuah pohon keputusan dibangun maka dapat digunakan untuk mengklasifikasikan record yang belum ada kelasnya. Dimulai dari node root, menggunakan tes terhadap atribut dari record yang belum ada kelasnya tersebut lalu mengikuti cabang yang sesuai dengan hasil dari tes tersebut, yang akan membawa kepada internal node (node yang memiliki satu cabang masuk dan dua atau lebih cabang yang keluar), dengan cara harus melakukan tes lagi terhadap atribut atau node daun. Record yang kelasnya tidak diketahui kemudian diberikan kelas yang sesuai dengan kelas yang ada pada node daun. Pada pohon keputusan setiap simpul daun menandai label kelas. Proses dalam pohon
67 keputusan yaitu mengubah bentuk data (tabel) menjadi model pohon (tree) kemudian mengubah model pohon tersebut menjadi aturan (rule).
B. Keputusan untuk Bermain Tenis atau Tidak Tabel 6.1 Keputusan Bermain Tenis
Dalam kasus yang tertera pada Tabel 6.1, akan dibuat pohon keputusan untuk menentukan main tenis atau tidak dengan melihat keadaan cuaca (outlook), temperatur, kelembaban (humidity) dan keadaan angin (windy). Secara umum algoritma untuk membangun pohon keputusan adalah sebagai berikut: 1. Pilih atribut sebagai akar 2. Buat cabang untuk masing-masing nilai 3. Bagi kasus dalam cabang 4. Ulangi proses untuk masing-masing cabang sampai semua kasus pada cabang memiliki kelas yang sama. Untuk memilih atribut sebagai akar, didasarkan pada nilai gain tertinggi dari atribut-atribut yang ada. Untuk menghitung gain digunakan rumus seperti tertera dalam Rumus 1.
68
Sedangkan perhitungan nilai entropy dapat dilihat pada rumus 2 berikut:
Berikut ini adalah penjelasan lebih rinci mengenai masing-masing langkah dalam pembentukan pohon keputusan dengan menggunakan algoritma untuk menyelesaikan permasalahan. a. Menghitung jumlah kasus, jumlah kasus untuk keputusan Yes, jumlah kasus untuk keputusan No, dan Entropy dari semua kasus dan kasus yang dibagi berdasarkan atribut OUTLOOK, TEMPERATURE, HUMIDITY dan WINDY. Setelah itu lakukan penghitungan Gain untuk masing-masing atribut. Hasil perhitungan ditunjukkan oleh Tabel 2. Baris TOTAL kolom Entropy pada Tabel 6.2 dihitung dengan rumus 2, sebagai berikut:
Sedangkan nilai Gain pada baris OUTLOOK dihitung menggunakan rumus 1, sebagai berikut:
dengan
69
Sehingga didapat Gain(Total, Outlook) = 0.258521037 Tabel 6.2 Perhitungan Node 1
Dari hasil pada Tabel 6.2 dapat diketahui bahwa atribut dengan Gain tertinggi adalah HUMIDITY yaitu sebesar 0.37. Dengan demikian HUMIDITY dapat menjadi node akar. Ada 2 nilai atribut dari HUMIDITY yaitu HIGH dan NORMAL. Dari kedua nilai atribut tersebut, nilai atribut NORMAL sudah mengklasifikasikan kasus menjadi 1 yaitu keputusan-nya Yes, sehingga tidak perlu dilakukan perhitungan lebih lanjut, tetapi untuk nilai atribut HIGH masih perlu dilakukan perhitungan lagi. Dari hasil tersebut dapat digambarkan pohon keputusan sementara seperti Gambar 6.10 di halaman berikutnya.
70
Gambar 6.10 Pohon Keputusan Hasil Perhitungan Node 1 b. Menghitung jumlah kasus, jumlah kasus untuk keputusan Yes, jumlah kasus untuk keputusan No, dan Entropy dari semua kasus dan kasus yang dibagi berdasarkan atribut OUTLOOK, TEMPERATURE dan WINDY yang dapat menjadi node akar dari nilai atribut HIGH. Setelah itu lakukan penghitungan Gain untuk masing-masing atribut. Hasil perhitungan ditunjukkan oleh Tabel 6.3. Tabel 6.3 Perhitungan Node 1.1
71 Dari hasil pada Tabel 6.3 dapat diketahui bahwa atribut dengan Gain tertinggi adalah OUTLOOK yaitu sebesar 0.67. Dengan demikian OUTLOOK dapat menjadi node cabang dari nilai atribut HIGH. Ada 3 nilai atribut dari OUTLOOK yaitu CLOUDY, RAINY dan SUNNY. Dari ketiga nilai atribut tersebut, nilai atribut CLOUDY sudah mengklasifikasikan kasus menjadi 1 yaitu keputusannya Yes dan nilai atribut SUNNY sudah mengklasifikasikan kasus menjadi satu dengan keputusan No, sehingga tidak perlu dilakukan perhitungan lebih lanjut, tetapi untuk nilai atribut RAINY masih perlu dilakukan perhitungan lagi. Pohon keputusan yang terbentuk sampai tahap ini ditunjukkan pada gambar 6.11.
Gambar 6.11 Pohon Keputusan Hasil Perhitungan Node 1.1
72 c. Menghitung jumlah kasus, jumlah kasus untuk keputusan Yes, jumlah kasus untuk keputusan No, dan Entropy dari semua kasus dan kasus yang dibagi berdasarkan atribut TEMPERATURE dan WINDY yang dapat menjadi node cabang dari nilai atribut RAINY. Setelah itu lakukan penghitungan Gain untuk masing-masing atribut. Hasil perhitungan ditunjukkan oleh Tabel 6.4. Tabel 6.4 Perhitungan Node 1.1.2
Dari hasil pada tabel 6.4 dapat diketahui bahwa atribut dengan Gain tertinggi adalah WINDY yaitu sebesar 1. Dengan demikian WINDY dapat menjadi nodecabang dari nilai atribut RAINY. Ada 2 nilai atribut dari WINDY yaitu FALSE dan TRUE. Darikedua nilai atribut tersebut, nilai atribut FALSE sudah mengklasifikasikan kasus menjadi 1 yaitu keputusannya Yes dan nilai atribut TRUE sudah mengklasifikasikan kasus menjadi satu dengan keputusan No, sehingga tidak perlu dilakukan perhitungan lebih lanjut untuk nilai atribut ini. Pohon keputusan yang terbentuk sampai tahap ini ditunjukkan pada Gambar 6.12 di halaman berikutnya.
73
Gambar 6.12 Pohon Keputusan Hasil Perhitungan Node 1.1.2 Dengan memperhatikan pohon keputusan pada Gambar 6.12, diketahui bahwa semua kasus sudah masuk dalam kelas. Dengan demikian, pohon keputusanpada Gambar 6.12 merupakan pohon keputusan terakhir yang terbentuk.
Referensi: Kusrini & Emha Taufiq Luthfi. 2009. Algoritma Data Mining. Penerbit Andi Offset, Yogyakarta. Larose, Daniel T. 2005. Discovering Knowledge ini Data: An Introduction to Data Mining. Wiley. Pramudiono, Iko. 2008. Pengantar Data Mining: Menambang Permata Pengetahuan di Gunung Data. http://www.ilmukomputer.com. Santosa, Budi. 2007. Data Mining : Teknik Pemanfaatan Data untuk keperluan Bisnis. Graha Ilmu. Yogyakarta. Tan, Pang-Ning, Michael Steinbach, and Vipin Kumar. 2004. Introduction to Data Mining.