5
rendah. Oleh karena itu untuk meningkatkan akurasinya, proses learning harus dihentikan lebih awal atau melakukan pemotongan tree secara umum. Untuk itu diberikan 2 (dua) buah threshold yang harus dipenuhi jika tree akan diekspansi, yaitu:
data tidak dilakukan, karena tahapan ini telah dilakukan pada penelitian sebelumnya. Dalam penelitian ini, percobaan dibagi ke dalam tiga kelompok seperti dalam Tabel 1.
Fuzziness control threshold (FCT) / Jika proporsi dari himpunan data dari kelas Ck lebih besar atau sama dengan nilai threshold , maka hentikan ekspansi tree. Sebagai contoh: jika pada sebuah subdataset rasio dari kelas 1 adalah 90%, maka kelas 2 adalah 10% dan adalah 85%, maka hentikan ekspansi tree. Leaf decision threshold (LDT) / Jika banyaknya anggota himpunan data pada suatu node lebih kecil dari threshold , hentikan ekspansi tree. Sebagai contoh: sebuah himpunan data memiliki 600 contoh dengan adalah 2%. Jika jumlah data contoh pada sebuah node lebih kecil dari 12 (2% dari 600), maka hentikan ekspansi tree.
Perangkat keras yang digunakan berupa notebook dengan spesifikasi:
Lingkup Pengembangan Sistem
• processor: Intel Core 2 Duo 2.0 GHz, • memori: 1 GB, dan • harddisk: 120 GB. Perangkat lunak yang digunakan yaitu: • sistem operasi: Window XP, • Matlab 7.0.1 sebagai bahasa pemrograman, dan • Microsoft Excel 2007 sebagai tempat penyimpanan data. Tabel 1 Kelompok percobaan Algoritme Kelompok yang digunakan FDT
Fuzzy ID3
s-shaped, gaussian, pshaped
PFDT(1)
Probabilistic Fuzzy ID3
triangle, trapezoid
PFDT(2)
Probabilistic Fuzzy ID3
s-shaped, gaussian, pshaped
K-fold Cross Validation K-fold cross validation dilakukan untuk membagi training set dan test set. K-fold cross validation mengulang k-kali untuk membagi sebuah himpunan contoh secara acak menjadi k subset yang paling bebas, setiap ulangan disisakan satu subset untuk pengujian dan subset lainnya untuk pelatihan (Fu 1994).
Fungsi Keanggotaan
METODE PENELITIAN Data Penelitian ini menggunakan data diabetes yang merupakan hasil pemeriksaan laboratorium pasien dari sebuah rumah sakit. Data hasil pemeriksaan lab pasien yang digunakan dalam penelitian ini meliputi GLUN (Glukosa Darah Puasa), GPOST (Glukosa Darah 2 Jam Pasca Puasa), HDL (Kolesterol HDL), TG (Trigliserida), serta diagnosa pasien berdasarkan nilai GLUN, GPOST, HDL dan TG. Nilai GLUN, GPOST, HDL, TG dinyatakan dalam satuan Mg/DL. Diagnosa pasien ditransformasi menjadi dua kategori, yaitu negatif diabetes yang direpresentasikan dengan angka 1 dan positif diabetes yang direpresentasikan dengan angka 2. Total data yang digunakan dalam penelitian ini berjumlah 290 record. Metode Tahapan penelitian yang digunakan dapat dilihat pada Gambar 3. Proses pembersihan
HASIL DAN PEMBAHASAN Data yang digunakan dalam penelitian ini menggunakan data dari penelitian sebelumnya (Romansyah 2007). Data ini terdiri dari 6 buah kolom yaitu, no.RM (nomor rekam medis/MRN), GLUN, GPOST, HDL, TG dan diagutama (hasil pemeriksaan lab / diagnosis). Transformasi Data Pada penelitian ini, teknik data mining yang digunakan adalah fuzzy decision tree (FDT) dan probabilistic fuzzy decision tree (PFDT), oleh karena itu data yang digunakan harus direpresentasikan ke dalam bentuk himpunan fuzzy. Dari 5 (lima) atribut yang digunakan pada penelitian ini 4 diantaranya merupakan atribut yang kontinu, yaitu GLUN, GPOST, HDL, dan TG. Berdasarkan hasil laboratorium range normal untuk atribut GLUN, GPOST, HDL, dan TG diperlihatkan pada Tabel 2.
6
Tabel 2 Daftar range normal untuk setiap atribut Kode Nilai Satuan Pemeriksaan Normal GLUN
Mg/DL
70 – 100
GPOST
Mg/DL
100 – 140
HDL
Mg/DL
40 – 60
TG
Mg/DL
50 – 150
Atribut GLUN Atribut GLUN dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah (GLUN < 70 mg/DL), sedang (70 mg/DL <= GLUN < 110 mg/DL), tinggi (110 mg/DL <= GLUN < 140 mg/DL), dan sangat tinggi (GLUN >= 140 mg/DL) (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GLUN yaitu:
; x ≤65 x-65 2 O ; 65≤x≤70 1-2 N 10 2 75-x O 2N ; 70≤x≤75 10 0 ;x≥75
*rendah x
*sedang H *tinggi H
*,UVUWX$VV$ H
Gambar 3 Diagram alur proses klasifikasi PFDT. Atribut-atribut pada Tabel 2 ditransformasikan ke dalam himpunan fuzzy dengan menggunakan dua pendekatan yaitu dengan pendekatan well-defined sample space dan without well-defined sample space. Fungsi keanggotaan dibuat menggunakan toolbox fuzzy dalam Matlab 7.0.1. Fungsi keanggotaan untuk penelitian sebelumnya dapat dilihat pada Lampiran 1 (Romansyah 2007). Pendekatan Without Well-Defined Sample Space Dalam pendekatan without well-defined sample space jumlah derajat keanggotaan suatu objek dalam setiap himpunan fuzzy adalah tidak sama dengan 1. Berikut adalah bentuk-bentuk himpunan fuzzy untuk setiap atribut.
e e
-
-
6 P QR S 2σ2
6 P 4T S 2σ2
Y Z H [ \] H . \] 4 ^N O Z \] [ H [ _Y Y `] . H 4 .^N O Z _Y [ H [ _] Y Y Z H a _]
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk linguistic term sedang dan tinggi menggunakan kurva Gaussian sedangkan untuk linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 4 menunjukkan himpunan fuzzy untuk atribut GLUN. rendah
sedang
tinggi
sangatTinggi
Gambar 4 Himpunan fuzzy atribut GLUN untuk FDT. Atribut GPOST Atribut GPOST dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah (GPOST < 100 mg/DL), sedang (100 mg/DL <= GPOST < 140 mg/DL), tinggi (140 mg/DL <= GPOST < 200 mg/DL), dan sangat tinggi (GPOST >= 200 mg/DL) (Herwanto 2006).
7
Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GPOST yaitu: Z H [ i] H . i] 4 .^N O Z i] [ H [ YY Y 4 Y] . H ^N O Z YY [ H [ Y] Y Y Z H a Y]
*bcUd H
*,bcUV H *W$VV$ H
*,UVUWX$VV$ H
6 P 4RS 4gS
e
f
e
f
6 f jRS 4g S
Y Z H [ i] H . ^Y] 4 ^N O Z i] [ H [ ^YY Y ^Y] . H 4 .^N O Z ^YY [ H [ ^Y] Y Y Z H a ^Y]
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk linguistic term sedang dan tinggi menggunakan kurva Gaussian sedangkan sangat tinggi untuk linguistic term menggunakan kurva s-shaped. Gambar 5 menunjukkan himpunan fuzzy untuk atribut GPOST. rendah
sedang
tinggi
sangatTinggi
Gambar 5 Himpunan fuzzy atribut GPOST untuk FDT. Atribut HDL Atribut HDL dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah (HDL < 40 mg/DL), sedang (40 mg/DL <= HDL < 60 mg/DL), dan tinggi (HDL >= 60 mg/DL) (Herwanto 2006). Dari pembagian itu dapat membership function dari ditentukan himpunan fuzzy rendah, sedang, dan tinggi untuk atribut HDL yaitu:
*bcUd H
Z H [ \] H . \] 4 .^N O Z \] [ H [ _Y Y _] . H 4 ^N O Z _Y [ H [ _] Y Y Z H a _]
*,bcUV H
*W$VV$ H
e
P
6 f TRS 4gS
Y Z H [ ]] H . h] 4 ^N O Z ]] [ H [ hY Y h] . H 4 .^N O Z hY [ H [ h] Y Y Z H a h]
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk linguistic term sedang menggunakan kurva Gaussian sedangkan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar 6 menunjukkan himpunan fuzzy untuk atribut HDL. rendah
sedang
tinggi
Gambar 6 Himpunan fuzzy atribut HDL untuk FDT. Atribut TG Atribut TG dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah (TG < 50 mg/DL), sedang (50 mg/DL <= TG < 150 mg/DL), dan tinggi (TG >= 150 mg/DL) (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut TG yaitu:
*bcUd H
*,bcUV H
*W$VV$ H
Z H [ _] H . _] 4 .^N O Z _] [ H [ ]Y Y 4 ]] . H ^N O Z ]Y [ H [ ]] Y Y Z H a ]]
e
f
6 f RRS 4gS
Y Z H [ _] H . _] 4 ^N O Z _] [ H [ ]Y Y ]] . H 4 .^N O Z ]Y [ H [ ]] Y Y Z H a ]]
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk linguistic term sedang menggunakan kurva Gaussian sedangkan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar
8
7 menunjukkan himpunan fuzzy untuk atribut TG. sedang
rendah
tinggi
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, linguistic term sedang dan tinggi menggunakan kurva phi-shaped, dan untuk linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 8 menunjukkan himpunan fuzzy untuk atribut GLUN. rendah
sedang
tinggi
sangatTinggi
Gambar 7 Himpunan fuzzy atribut TG untuk FDT. Pendekatan Well-Defined Sample Space Dalam pendekatan well-defined sample space jumlah derajat keanggotaan suatu objek dalam setiap himpunan fuzzy adalah sama dengan 1. Berikut adalah bentuk-bentuk himpunan fuzzy untuk setiap atribut. Atribut GLUN Atribut GLUN dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah, sedang, tinggi, dan sangat tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GLUN yaitu: Z H [ h] H . h] 4 .^N O Z h] [ H [ `Y Y `] . H 4 ^N O Z `Y [ H [ `] Y Y Z H a `]
*bcUd H
Y Z H [ h] H . h] 4 ^N O Z h] [ H [ ``k] .^] iY . H 4 O Z ``k] [ H [ iY .^N ^] H . iY 4 .^N O Z iY [ H [ Y^k] ^] ] . H 4 ^N O Z Y^k] [ H [ ] ^] Y Z H a ]
*,bcUV H
*W$VV$ H
Y Z H [ Y] H . Y] 4 ^N O Z Y] [ H [ ] .^Y ^] . H 4 .^N O Z ] [ H [ ^] ^Y H . ^] 4 .^N O Z ^] [ H [ \] ^Y 4 _] . H ^N O Z \] [ H [ _] ^Y Y Z H a _]
*,UVUWX$VV$ H
Y Z H [ \] H . \] 4 ^N O Z \] [ H [ _Y Y `] . H 4 .^N O Z _Y [ H [ _] Y Y Z H a _]
Gambar 8 Himpunan fuzzy atribut GLUN untuk PFDT. Atribut GPOST Atribut GPOST dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah, sedang, tinggi, dan sangat tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GPOST yaitu: Z H [ i] H . i] 4 .^N O Z i] [ H [ YY Y Y] . H 4 ^N O Z YY [ H [ Y] Y Y Z H a Y]
*bcUd H
*,bcUV H
*W$VV$ H
Y Z H [ i] H . i] 4 ^N O Z i] [ H [ Y`k] .^] ^Y . H 4 O Z Y`k] [ H [ ^Y .^N ^] H . ^Y 4 .^N O Z ^Y [ H [ \^k] ^] _] . H 4 ^N O Z \^k] [ H [ _] ^] Y Z H a _] Y Z H [ \] H . \] 4 ^N O Z \] [ H [ ]^k] .\] `Y . H 4 O Z ]^k] [ H [ `Y .^N \] H . `Y 4 .^N O Z `Y [ H [ l`k] \] ^Y] . H 4 ^N O Z l`k] [ H [ ^Y] \] Y Z H a ^Y]
*,UVUWX$VV$ H
Y Z H [ i] H . ^Y] 4 ^N O Z i] [ H [ ^YY Y ^Y] . H 4 .^N O Z ^YY [ H [ ^Y] Y Y Z H a ^Y]
9
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, linguistic term sedang dan tinggi menggunakan kurva phi-shaped, dan untuk linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 9 menunjukkan himpunan fuzzy untuk atribut GPOST. rendah
sedang
tinggi
sangatTinggi
Gambar 9 Himpunan fuzzy atribut HDL untuk PFDT. Atribut HDL Atribut HDL dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah, sedang, dan tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut HDL yaitu:
*bcUd H
Z H [ \] H . \] 4 .^N O Z \] [ H [ _Y Y _] . H 4 ^N O Z _Y [ H [ _] Y Y Z H a _]
*,bcUV H
Y Z H [ \] H . \] 4 ^N O Z \] [ H [ _^k] .] ]Y . H 4 .^N O Z _^k] [ H [ ]Y ] H . ]Y 4 .^N O Z ]Y [ H [ ]`k] ] h] . H 4 ^N O Z ]`k] [ H [ h] ] Y Z H a h]
*W$VV$ H
Y Z H [ ]] H . h] 4 ^N O Z ]] [ H [ hY Y h] . H 4 .^N O Z hY [ H [ h] Y Y Z H a h]
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, linguistic term sedang menggunakan kurva phi-shaped, dan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar 10 menunjukkan himpunan fuzzy untuk atribut HDL.
rendah
sedang
tinggi
Gambar 10 Himpunan fuzzy atribut HDL untuk PFDT. Atribut TG Atribut TG dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah, sedang, dan tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut TG yaitu:
*bcUd H
Z H [ _] H . _] 4 .^N O Z _] [ H [ ]Y Y ]] . H 4 ^N O Z ]Y [ H [ ]] Y Y Z H a ]]
*,bcUV H
Y Z H [ _] H . _] 4 ^N O Z _] [ H [ `^k] .]] YY . H 4 .^N O Z `^k] [ H [ YY ]] H . YY 4 .^N O Z YY [ H [ ^`k] ]] ]] . H 4 ^N O Z ^`k] [ H [ ]] ]] Y Z H a ]]
*W$VV$ H
Y Z H [ _] H . _] 4 ^N O Z _] [ H [ ]Y Y ]] . H 4 .^N O Z ]Y [ H [ ]] Y Y Z H a ]]
Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, linguistic term sedang menggunakan kurva phi-shaped, dan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar 11 menunjukkan himpunan fuzzy untuk atribut TG. rendah
sedang
tinggi
Gambar 11 Himpunan fuzzy atribut TG untuk PFDT.
10
Atribut Diagnosis Atribut Diagnosis selanjutnya akan disebut sebagai CLASS, direpresentasikan oleh dua buah peubah linguistik yaitu “negatif diabetes” dan “positif diabetes”. Kedua linguistic term-nya didefinisikan sebagai berikut: “negatif diabetes” = 0 “positif diabetes” = 1 Untuk atribut diagnosis ini tidak ada perbedaan antara FDT dan PFDT. Nilai setiap record atribut GLUN, GPOST, HDL, dan TG kemudian akan ditransformasi ke dalam bentuk himpunan fuzzy dengan menggunakan program Matlab. Nilai-nilai dari atribut CLASS yang awalnya berisi hasil diagnosis laboratorium akan ditransformasikan menjadi 2 (dua) kategori saja, yaitu negatif diabetes yang direpresentasikan dengan angka 1, dan positif diabetes yang direpresentasikan dengan angka 2. Data Mining
Pada tahap ini dilakukan teknik data mining menggunakan algoritma FID3 untuk membangun fuzzy decision tree (FDT) dan algoritma PFID3 untuk membangun probabilistic fuzzy decision tree (PFDT). Proses data mining ini dilakukan dengan menggunakan program Matlab 7.0.1 yang telah dibuat oleh peneliti sebelumnya (Romansyah 2007). Program untuk membangun PFDT ini sama dengan program untuk membangun FDT karena tidak ada perbedaan coding antara FDT dan PFDT. Training set dan testing set yang digunakan sama persis dengan penelitian sebelumnya, hal ini bertujuan membandingkan hasil antara penelitian sebelumnya (PFDT(1)), FDT, dan PFDT(2). Untuk selanjutnya hasil penelitian sebelumnya dituliskan dengan PFDT(1), sedangkan PFDT(2) untuk penelitian saat ini. Perbedaan PFDT(1) dengan PFDT(2) adalah PFDT(1) menggunakan fungsi membership function dengan kurva berbentuk trapesium sedangkan PFDT(2) menggunakan z-shaped, phi-shaped, dan s-shaped (Liang 2005). • Fase Pembentukan Pohon Keputusan Fase training dilakukan untuk membangun FDT dan PFDT dengan algoritma FID3 dan PFID3. Proses training dilakukan sama dengan proses training yang dilakukan pada penelitian sebelumnya (Romansyah 2007). Proses training dilakukan sebanyak 480 kali, untuk masing-masing metode (FDT dan
PFDT) sebanyak 240 kali. Untuk tiap training set, proses training dilakukan sebanyak 24 kali, dengan mengubah nilai sebanyak 6 kali yaitu 75%, 80%, 85%, 90%, 95%, dan 98%, dan untuk masing-masing nilai yang sama diberikan nilai yang berbeda-beda yaitu 3%, 5%, 8%, dan 10%. Jumlah aturan dan waktu eksekusi untuk masing-masing training set secara keseluruhan dapat dilihat pada Lampiran 2 dan Lampiran 3 secara berturut-turut. Perbandingan rata-rata jumlah aturan yang dihasilkan pada proses training dan waktu eksekusi yang dibutuhkan dapat dilihat pada Tabel 3, Tabel 4, dan Tabel 5. Tabel 3 Rata-rata jumlah aturan FDT LDT ( ) FCT ( ) 3% 5% 8% 10% 75%
4
4
4
4
80%
7
7
6
6
85%
10
10
10
9
90%
18
18
17
16
95%
27
27
26
24
98%
41
40
39
37
Tabel 4 Rata-rata jumlah aturan PFDT(1) LDT ( ) FCT ( ) 3% 5% 8% 10% 75%
4
4
4
4
80%
7
7
7
6
85%
11
10
10
8
90%
12
11
10
8
95%
20
18
15
11
98%
27
24
20
16
Tabel 5 Rata-rata jumlah aturan PFDT(2) LDT ( ) FCT ( ) 3% 5% 8% 10% 75%
4
4
4
4
80%
7
7
7
6
85%
10
10
9
8
90%
11
10
10
8
95%
21
18
15
12
98%
26
23
20
16
Dari Tabel 3, Tabel 4, dan Tabel 5 dapat dilihat perbandingan rata-rata jumlah aturan yang dihasilkan oleh masing-masing metode. Hasil PFDT(1) dan PFDT(2) tidak mengalami perubahan yang siginifikan dalam jumlah
11
aturan, sedangkan jika dibandingkan dengan hasil FDT terdapat perbedaan rata-rata jumlah aturan yang cukup mencolok. Hal ini disebabkan pada training set FDT, jumlah nilai dari membership function tidak sama dengan satu, sedangkan pada PFDT jumlah nilai dari membership function untuk masingmasing atribut sama dengan satu. Hal ini berimplikasi pada proses ekspansi dalam pembentukan tree yang menghasilkan aturan. Proses ekspansi ini juga dipengaruhi oleh leaf decision threshold ( ). Pada kasus ini, training set PFDT memiliki beberapa nilai linguistic term sama dengan nol, sedangkan pada FDT dapat memiliki sebuah nilai yang bernilai nol pada PFDT. Contoh perbedaan hasil FDT dan PFDT pada training set 30 dan 33 dapat dilihat pada Tabel 6. Perbedaan hasil ini menyebabkan jumlah data yang tersisa pada FDT menjadi lebih banyak dibandingkan dengan PFDT. Jika jumlah record dalam suatu node lebih banyak, maka kemungkinan besar program melakukan ekspansi node tersebut karena tidak memenuhi leaf decision threshold ( ). Tabel 6 Contoh perbandingan hasil FDT dan PFDT Derajat Keanggotaan Rendah Sedang Tinggi Sangat Tinggi
No. Data Training 30 33 30 33 30 33 30 33
Nilai Atribut GLUN 262 130 262 130 262 130 262 130
FDT
PFDT
0 0 8.09E-11 0.284572 3.96E-07 0.980555 1 0
0 0 0 0 0 1 1 0
Jika diamati dengan seksama pada Tabel 3, 4, dan 5, walaupun nilai LDT ( ) ditingkatkan, jumlah aturan yang dihasilkan tidak mengalami penurunan yang signifikan. Berdasarkan pengamatan yang dilakukan pada penelitian sebelumnya, ternyata karakteristik data pada training set yang digunakan tidak terlalu berbeda, pada saat terjadi ekspansi tree data tidak akan terlalu menyebar, karenanya jumlah data yang ada pada sub-node tidak berbeda jauh dengan jumlah data yang ada pada root-node. Dengan adanya situasi yang demikian, syarat untuk menghentikan ekspansi tree yaitu jumlah data atau record pada sub-node harus lebih kecil dari nilai sulit untuk tercapai. Nilai yang terlalu rendah dan atau yang terlalu tinggi akan menghasilkan tree dengan ukuran yang kecil sehingga jumlah aturan yang dihasilkan juga sangat sedikit. Hal
ini terjadi karena tree yang sedang dibangun mengalami pemangkasan (pruning) pada saat model masih mempelajari struktur dari training set. Sebaliknya, nilai yang terlalu tinggi dan atau yang terlalu rendah kadang kala akan menyebabkan FDT dan PFDT berperilaku seperti decision tree biasa yang tidak memerlukan adanya threshold sehingga menghasilkan tree dengan ukuran sangat besar dan jumlah aturan yang juga sangat banyak, karena tree akan terus diekspansi sampai leafnode terdalam.
Gambar 12 Perbandingan rata-rata jumlah aturan untuk nilai sebesar 10%. Gambar 12 menunjukkan perbandingan rata-rata jumlah aturan yang dihasilkan oleh FDT, PFDT(1), dan PFDT(2) pada proses training untuk LDT ( ) 10%. Dapat terlihat bahwa dalam semua metode yang metode yang digunakan semakin tinggi nilai akan menyebabkan jumlah aturan yang dihasilkan juga meningkat dan peningkatan yang signifikan terjadi pada FDT.
Gambar 13 Perbandingan rata-rata waktu eksekusi proses training untuk nilai sebesar 10%. Dari Gambar 12 dan Gambar 13, dapat disimpulkan bahwa, semakin tinggi nilai yang digunakan akan menghasilkan jumlah aturan yang semakin banyak sehingga waktu yang dibutuhkan untuk menghasilkan aturanaturan tersebut juga meningkat. Hal ini terjadi karena proses yang harus dilakukan untuk membangun tree semakin banyak. Dari Tabel 3, Tabel 4, dan Tabel 5 dapat dilihat bahwa untuk nilai FCT ( ) sebesar 98% dan LDT ( ) sebesar 3% dapat
12
disimpulkan bahwa rata-rata jumlah aturan yang dihasilkan oleh FDT dan PFDT jauh berbeda. Rata-rata aturan yang dihasilkan FDT sebanyak 41 aturan, PFDT(1) sebanyak 27 aturan, dan PFDT(2) sebanyak 26 aturan. • Akurasi FDT, PFDT(1), dan PFDT(2) Untuk mengukur tingkat akurasi dari model yang dihasilkan pada fase training, proses testing dilakukan sebanyak 480 kali, masing-masing 240 kali untuk model FDT dan PFDT(2). Proses testing dilakukan dengan cara memasukkan aturan yang diperoleh dari proses training ke dalam sebuah FIS Mamdani untuk menentukan kelas dari masing-masing record dan test set. Untuk satu kali proses training dilakukan satu kali proses testing. Hasil proses testing secara keseluruhan dari masing-masing model dapat dilihat pada Lampiran 4.
Gambar 14 Perbandingan rata-rata akurasi untuk nilai sebesar 10%. Dengan melihat Gambar 14 dapat disimpulkan bahwa nilai akurasi pada metode FDT dan PFDT tidak jauh berbeda untuk kasus ini. Hal ini dikarenakan data training dan testing yang digunakan terlalu seragam. Training set yang digunakan mayoritas (90%) merupakan kelas negatif diabetes, sehingga aturan yang dihasilkan hanya memiliki keluaran kelas negatif diabetes. Apabila aturan yang dihasilkan semuanya memiliki kelas negatif diabetes, maka ketika melakukan proses testing akan menghasilkan keluaran yang seragam yaitu negatif diabetes. Perbandingan evaluasi kinerja dari algoritma FID3 dan PFID3 pada nilai dan yang berbeda dapat dilihat pada Tabel 7, Tabel 8, dan Tabel 9. Gambar 15 menunjukkan perbandingan rata-rata akurasi FDT, PFDT(1), dan PFDT(2) untuk 10%. Dari Tabel 7, Tabel 8, Tabel 9, dan Gambar 15 dapat disimpulkan bahwa nilai akurasi pada masing-masing metode tidak jauh berbeda. Akurasi algoritma FID3 dan PFID3 mengalami penurunan jika nilai semakin besar dan atau nilai semakin kecil,
walaupun penurunan yang terjadi tidaklah signifikan sehingga masih dapat ditoleransi. Tabel 7 Rata-rata akurasi FDT LDT ( ) FCT ( ) 3% 5% 8%
10%
75%
94.1%
94.1%
94.1%
94.1%
80%
93.1%
93.1%
93.5%
93.5%
85%
93.1%
93.1%
93.5%
93.5%
90%
93.1%
93.1%
93.5%
93.5%
95%
93.1%
93.1%
93.5%
93.5%
98%
92.8%
93.1%
93.5%
93.5%
Tabel 8 Rata-rata akurasi PFDT(1) LDT ( ) FCT ( ) 3% 5% 8% 10% 75%
94.14%
94.14%
94.15%
94.15%
80%
92.07%
92.07%
93.45%
93.45%
85%
92.07%
92.07%
93.45%
93.45%
90%
92.07%
92.07%
93.45%
93.45%
95%
90.69%
91.73%
93.10%
93.45%
98%
90.69%
91.73%
93.10%
93.45%
Tabel 9 Rata-rata akurasi PFDT(2) LDT ( ) FCT ( ) 3% 5% 8% 10% 75%
94.14%
94.14%
94.14%
94.14%
80%
92.07%
92.07%
93.45%
93.45%
85%
92.07%
92.07%
93.45%
93.45%
90%
92.07%
92.07%
93.45%
93.45%
95%
90.00%
91.72%
93.10%
93.45%
98%
90.00%
91.72%
93.10%
93.45%
Gambar 15 Akurasi FDT, PFDT(1), dan PFDT(2) untuk nilai sebesar 10%. Dari Tabel 7, Tabel 8, dan Tabel 9 juga dapat dilihat untuk nilai FCT ( ) sebesar 98% dan LDT ( ) sebesar 3% dapat disimpulkan bahwa rata-rata akurasi FDT lebih besar dari PFDT walaupun tidak terlalu
13
jauh berbeda. Rata-rata akurasi untuk FDT sebesar 92.8%, PFDT(1) sebesar 90.69%, dan PFDT(2) sebesar 90%. Representasi Pengetahuan Model hasil proses training digunakan untuk mengetahui label kelas pada data yang baru. Model tersebut dipilih berdasarkan 3 (tiga) kriteria berikut yang diurutkan berdasarkan prioritas (Romansyah 2007): 1 Model yang mencakup semua kelas target yang mungkin muncul dalam test set, dalam penelitian ini kelas target yang mungkin muncul yaitu kelas target 1 (negatif diabetes) dan kelas 2 (positif diabetes). 2 Model dengan akurasi yang tinggi, semakin tinggi akurasinya maka semakin baik model tersebut. 3 Model dengan jumlah aturan yang paling banyak. Berdasarkan kriteria tersebut maka model yang dipilih adalah hasil training dengan nilai dan masing-masing 98% dan 3 % dari pasangan training set dan test set ke-8 untuk FDT dan ke-10 untuk PFDT(2). • Aturan-Aturan dari FDT Terdapat 46 aturan yang dihasilkan dari FDT, dimana hanya 1 aturan yang mengandung kelas target positif diabetes. Model yang dihasilkan dapat dilihat pada Lampiran 5. • Aturan-aturan dari PFDT(2) Terdapat 30 aturan yang dihasilkan PFDT(2), dimana hanya 1 aturan yang mengandung kelas target positif diabetes. Model yang dihasilkan dapat dilihat pada Lampiran 6.
KESIMPULAN DAN SARAN Kesimpulan Dari berbagai percobaan yang dilakukan dengan menggunakan data training dan testing yang sama dengan penelitian sebelumya, dapat disimpulkan bahwa pembentukan pohon keputusan dengan menggunakan algoritma FID3 dengan pendekatan tanpa well-defined sample space pada fungsi keanggotaan dan algoritma PFID3 dengan pendekatan well-defined sample space memiliki jumlah aturan yang berbeda. Jumlah aturan yang dihasilkan FDT lebih banyak dari jumlah aturan PFDT. Untuk nilai
FCT ( ) sebesar 98% dan LDT ( ) sebesar 3%, jumlah rata-rata aturan yang dihasilkan FDT sebanyak 41 aturan, PFDT(1) sebanyak 27 aturan, dan PFDT(2) sebanyak 26 aturan. Nilai akurasi FDT lebih besar dari PFDT denagn rata-rata akurasi FDT sebesar 92.8%, PFDT(1) sebesar 90.69%, dan PFDT(2) sebesar 90%. Hal ini disebabkan karena adanya perbedaan jumlah aturan yang dihasilkan oleh FDT lebih banyak dari PFDT(1) dan PFDT(2) sehingga nilai akurasi yang memiliki jumlah aturan yang banyak akan mempunyai nilai akurasi yang lebih besar. Saran Pada penelitian ini masih terdapat beberapa kekurangan yang dapat diperbaiki pada penelitian selanjutnya. Pada penelitian ini, data yang digunakan kurang representatif karena jumlah data yang positif diabetes hanya 17 record, sedangkan yang negatif diabetes sebanyak 273 record. Dengan data yang ada, belum dapat dinyatakan bahwa PFDT tidak lebih baik dibandingkan dengan FDT. Pada penelitian selanjutnya diharapkan menggunakan data yang lebih representatif dengan perbandingan jumlah data yang positif dan negatif diabetes yang sama besar, sehingga aturan klasifikasi yang dihasilkan memiliki akurasi yang lebih baik lagi.
DAFTAR PUSTAKA Cox E. 2005. Fuzzy Modeling and Genetic Algorithms for Data Mining and Exploration. USA: Academic Press. Han J, Kamber M. 2001. Data Mining: Concepts and Techniques. USA: Academic Press. Herwanto. 2006. Pengembangan Sistem Data Mining untuk Diagnosis Penyakit Diabetes Menggunakan Algoritme Classification Based Association [Tesis]. Bogor. Departemen Ilmu Komputer Fakultas Matematika dan Ilmu Pengetahuan Alam Institut Pertanian Bogor. Jang JSR, Sun CT, Mizutani Eiji. 1997. Neuro-Fuzzy and Soft Computing. London: Prentice-Hall International, Inc. Kantardzic M. 2003. Data Mining: Concepts, Models, Methods, and Algorithms. Wiley-Interscience.