KLASIFIKASI DENGAN ANALISIS KOMPONEN UTAMA KERNEL
WIRDANIA USTAZA
DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014
PERNYATAAN MENGENAI SKRIPSI DAN SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA* Dengan ini saya menyatakan bahwa skripsi berjudul Klasifikasi dengan Analisis Komponen Utama Kernel adalah benar karya saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk apa pun kepada perguruan tinggi mana pun. Sumber informasi yang berasal atau dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini. Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut Pertanian Bogor. Bogor, Maret 2014
Wirdania Ustaza NIM G54090057
ABSTRAK WIRDANIA USTAZA. Klasifikasi dengan Analisis Komponen Utama Kernel. Dibimbing oleh SISWADI dan TONI BAKHTIAR. Analisis komponen utama (AKU) merupakan bentuk khusus dari AKU kernel dengan fungsi kernel linear. Tujuan dari studi ini ialah untuk menyelesaikan permasalahan data yang tak terpisah secara linear dan mengklasifikasikan suatu objek ke dalam suatu kelompok menggunakan AKU kernel sehingga diperoleh salah klasifikasi terkecil. Pengklasifikasian kelompok menggunakan AKU kernel diselesaikan dengan fungsi kernel linear dan Gauss. Hasil untuk data pengenalan anggur menunjukkan bahwa fungsi kernel linear dan Gauss (parameter 2.5) masing-masing memberikan 30.889% dan 17.416% salah klasifikasi. Kata kunci: analisis komponen utama, kernel, salah klasifikasi
ABSTRACT WIRDANIA USTAZA. Classification with Kernel Principal Component Analysis. Supervised by SISWADI and TONI BAKHTIAR. Principal component analysis (PCA) is a special case of the kernel PCA with linear kernel function. The aim of this study is to resolve the data problem that is not linearly separated and to classify an object into a group by using kernel PCA to obtain the smallest classification error. Group classification using kernel PCA is performed by the linear and Gaussian kernel function. The result of the study shows for wine recognition data with the linear and Gaussian (parameter 2.5) kernel function produces 30.889% and 17.416% classification error, respectively. Keywords: principal component analysis, kernel , classification error
KLASIFIKASI DENGAN ANALISIS KOMPONEN UTAMA KERNEL
Skripsi sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains pada Program Studi Matematika
DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014
Judul Skripsi : Klasifikasi dengan Analisis Komponen Utama Kernel Nama : Wirdania Ustaza NIM : G54090057
Disetujui oleh
Prof Dr Ir Siswadi, MSc Pembimbing I
Dr Toni Bakhtiar, MSc Pembimbing II
Diketahui oleh
Dr Toni Bakhtiar, MSc Ketua Departemen
Tanggal Lulus:
Judul Skripsi : Klasifikasi dengan Analisis Komponen Utama Kernel Nama : Wirdania Ustaza NlM : G54090057
Disetujui oleh
Prof Dr Ir Siswadi, MSc Pembimbing I
Dr Toni Bakhtiar, MSc
Pembimbing II
L
,
' oS-
Dr Torti Bakhtiar, MSc Ketua Departemen /,/
Tanggal Lulus:
0 4 MAR 2014
PRAKATA Puji dan syukur penulis panjatkan kepada Allah subhanahu wa taโala atas segala karunia-Nya sehingga karya ilmiah ini berhasil diselesaikan. Tema yang dipilih dalam penelitian yang dilaksanakan sejak bulan Maret 2013 ini ialah analisis data, dengan judul Klasifikasi dengan Analisis Komponen Utama Kernel. Terima kasih penulis ucapkan kepada Bapak Prof Dr Ir Siswadi MSc yang banyak memberikan saran, waktu, dan arahannya selama ini, terima kasih yaa pak. Terima kasih penulis ucapkan kepada Bapak Dr Toni Bakhtiar MSc selaku dosen pembimbing yang telah banyak memberikan saran dan Bapak Ir Ngakan Komang Khuta Ardana MSc yang telah banyak memberi saran. Ungkapan terima kasih juga disampaikan kepada Ayahku, Emakku, Ayekku, Maktoku seluruh keluarga besarku yang sudah memberikan doa dan semangat, kepada Danty, Meliza, Nindy, Vina, Risa, Ermi, Nisa, Ivon, Dewi, Fitria, Bu Susi, Ratri, Rizka, Nova, Nuke, Tika, Restu, Janah, Leli, Syahibah, Wanda, Ara, Farel, Iham, Ka Lina atas perhatian dan kasih sayangnya, serta kepada Evy, Bari, Rudy, Syukrio dan Meda yang sudah membantu dalam penggunaan software, kepada seluruh sahabat SMP, SMA, dan seluruh keluarga Matematika IPB, terima kasih atas segala doa dan kasih sayangnya. Semoga karya ilmiah ini bermanfaat. Bogor, Maret 2014 Wirdania Ustaza
DAFTAR ISI DAFTAR TABEL
vii
DAFTAR GAMBAR
vii
DAFTAR LAMPIRAN
viii
PENDAHULUAN Latar Belakang Tujuan Penelitian
1 1 1
TINJAUAN PUSTAKA Analisis Komponen Utama Analisis Komponen Utama Kernel
2 2 5
METODE PENELITIAN Data Prosedur Analisis Data
9 9 9
HASIL DAN PEMBAHASAN
10
SIMPULAN DAN SARAN Simpulan Saran
17 19 19
DAFTAR PUSTAKA LAMPIRAN
20 21
RIWAYAT HIDUP
29
DAFTAR TABEL 1 2 3 4 5 6 7 8 9 10
Klasifikasi kelompok Deskripsi data pengenalan anggur Fungsi kernel yang diaplikasikan Matriks kovarians Matriks korelasi Hasil salah klasifikasi (SK) fungsi Gauss Hasil pengklasifikasian kelompok data dengan fungsi linear Hasil pengklasifikasian kelompok data dengan fungsi Gauss ๐0 =1 Hasil pengklasifikasian kelompok data dengan fungsi Gauss ๐0 =2.5 Hasil pengklasifikasian kelompok data dengan fungsi Gauss ๐0 =6
10 12 12 12 13 17 18 18 18 19
DAFTAR GAMBAR 1 Ide dasar AKU kernel 2 Ide utama metode kernel: memetakan data asal ke dimensi lebih tinggi ruang fitur 3 Plot pencar dari beberapa pasang peubah data pengenalan anggur 4 AKU atau fungsi linear 5 Fungsi Gauss dengan parameter ๐0 =1 6 Fungsi Gauss dengan parameter ๐0 =1.25 7 Fungsi Gauss dengan parameter ๐0 =1.5 8 Fungsi Gauss dengan parameter ๐0 =1.75 9 Fungsi Gauss dengan parameter ๐0 =2 10 Fungsi Gauss dengan parameter ๐0 =2.25 11 Fungsi Gauss dengan parameter ๐0 =2.5 12 Fungsi Gauss dengan parameter ๐0 =2.75 13 Fungsi Gauss dengan parameter ๐0 =3 14 Fungsi Gauss dengan parameter ๐0 =3.25 15 Fungsi Gauss dengan parameter ๐0 =3.5 16 Fungsi Gauss dengan parameter ๐0 =3.75 17 Fungsi Gauss dengan parameter ๐0 =4 18 Fungsi Gauss dengan parameter ๐0 =4.25 19 Fungsi Gauss dengan parameter ๐0 =4.5 20 Fungsi Gauss dengan parameter ๐0 =4.75 21 Fungsi Gauss dengan parameter ๐0 =5 22 Fungsi Gauss dengan parameter ๐0 =5.25 23 Fungsi Gauss dengan parameter ๐0 =5.5 24 Fungsi Gauss dengan parameter ๐0 =5.75 25 Fungsi Gauss dengan parameter ๐0 =6 26 Perbandingan hasil data pengenalan anggur 27 Perbandingan hasil data tanaman iris 28 Grafik kesalahan klasifikasi
5 6 10 13 13 13 13 14 14 14 14 14 14 14 14 15 15 15 15 15 15 15 15 16 16 16 17 18
DAFTAR LAMPIRAN 1 Data pengenalan anggur 2 Data nilai eigen dan vektor eigen
21 26
PENDAHULUAN Latar Belakang Analisis data adalah proses penyederhanaan data agar lebih mudah dibaca dan diinterpretasikan. Ada banyak alat yang dapat digunakan untuk menganalisis data baik secara manual ataupun dengan bantuan aplikasi komputer. Salah satunya ialah dengan menggunakan analisis statistika peubah ganda, yang sudah banyak berkembang di masyarakat. Analisis statistika peubah ganda mampu mengidentifikasi pola dalam data dan mengekspresikan data sedemikian rupa sehingga menyorot persamaan dan perbedaannya (Shen 2007). Salah satu cara dalam analisis statistika peubah ganda yang dapat digunakan untuk melakukan hal tersebut ialah analisis komponen utama. Analisis komponen utama (AKU) pertama kali diperkenalkan oleh Karl Pearson pada tahun 1901. AKU sering digunakan untuk mereduksi dimensi dari suatu matriks data yang terdiri atas sejumlah besar peubah yang saling berkorelasi menjadi sejumlah kecil peubah dan tidak saling berkorelasi, dengan tetap mempertahankan sebanyak mungkin informasi yang terkandung dalam matriks data baru (Jolliffe 2002). AKU menggunakan kombinasi linear antarpeubah untuk merepresentasikan suatu data. Namun, kombinasi linear ini tidak dapat memodelkan data yang kompleksitasnya tinggi dengan hubungan taklinear antarpeubah. Oleh karena itu diperlukan suatu metode untuk menyelesaikan masalah tersebut yaitu dengan menggunakan AKU kernel. AKU merupakan bentuk khusus dari AKU kernel dengan fungsi kernel linear. Fungsi kernel memetakan data ke dimensi yang lebih tinggi dan membangun fungsi pemisah dalam ruang yang terpisahkan. Hal ini dilakukan dengan menghitung fungsi kernel yang memberikan nilai hasil kali dalam pada ruang fitur tanpa menunjukkan pemetaan secara eksplisit. AKU kernel juga sebagai metode berbasis memori, yaitu jika x adalah suatu objek maka menemukan skor untuk objek tersebut dapat menggunakan nilai eigen dan vektor eigen dari data asal (Nielsen dan Canty 2008). Karena dalam mengklasifikasikan suatu objek ke dalam suatu kelompok diperlukan beberapa peubah penciri yang dapat membedakan antara satu kelompok dengan kelompok lainnya, maka atas dasar inilah AKU kernel dapat digunakan dalam menyelesaikan pengklasifikasian suatu objek ke dalam suatu kelompok untuk memperoleh salah klasifikasi terkecil. Tujuan Karya ilmiah ini bertujuan untuk menyelesaikan permasalahan data yang tak terpisah secara linear dan mengklasifikasikan suatu objek ke dalam suatu kelompok menggunakan AKU kernel dengan fungsi kernel linear dan Gauss sehingga diperoleh salah klasifikasi terkecil.
2
TINJAUAN PUSTAKA Analisis Komponen Utama Analisis komponen utama (AKU) adalah bagian dari analisis statistika peubah ganda yang banyak digunakan sebagai alat analisis pada data. AKU merupakan suatu teknik analisis data untuk mereduksi dimensi peubah asal yang saling berkorelasi menjadi peubah baru yang tidak saling berkorelasi sehingga lebih mudah dalam menjelaskan data yang digunakan. AKU membentuk peubah baru yang merupakan kombinasi linear dari seluruh peubah asal, yang disebut komponen utama. Meskipun dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, seringkali variasi ini dapat diwakili oleh k komponen utama, dengan ๐ โช ๐ (Jollife 2002). Sehingga data asal yang mengandung n objek dengan p peubah dapat direduksi menjadi n objek dengan k komponen utama pertama. Misalkan vektor peubah acak ๐ ๐ = ๐1 , ๐2 , โฆ , ๐๐ memunyai matriks kovarians ฮฃ dengan nilai eigen ๐1 โฅ ๐2 โฅ โฏ โฅ ๐๐ โฅ 0. Misalkan kombinasi linear ๐ฎ1๐ ๐ dari vektor ๐ memiliki varians terbesar, dengan ๐ฎ1 merupakan vektor koefisien ๐ข11 , ๐ข12 , โฆ , ๐ข1๐ , sehingga ๐ฎ1๐ ๐ = ๐ข11 ๐1 + ๐ข12 ๐2 + โฏ + ๐ข1๐ ๐๐ = ๐๐=1 ๐ข1๐ ๐๐ . Kombinasi linear kedua, ๐ฎ๐2 ๐, tidak berkorelasi dengan ๐ฎ1๐ ๐. Kombinasi linear ini memiliki varians terbesar kedua, dan seterusnya, sehingga kombinasi linear ke-k, ๐ฎ๐๐ ๐, memiliki varians maksimum ke-k dan tidak berkorelasi dengan ๐ฎ1๐ ๐, ๐ฎ๐2 ๐ ๐ ,โฆ, ๐ฎ๐โ1 ๐. Dengan demikian terdapat vektor bobot yang tidak diketahui ๐ฎ๐ ๐ = (๐ข๐1 , ๐ข๐2 , โฆ , ๐ข๐๐ ). Misalkan X memiliki matriks kovarians ๐บ dengan elemen ๐๐๐ merupakan kovarians antara peubah ke-i dan peubah ke-j dari X saat ๐ โ ๐ dan varians peubah ke-j saat ๐ = ๐ . Jika X memiliki nilai harapan E[X] maka kovarians X ialah sebagai berikut cov ๐ = ๐ธ[ ๐ โ ๐ธ ๐ ๐ โ ๐ธ ๐ ๐ ] ๐ misalkan ๐๐ = ๐ฎ๐ ๐ maka ๐ธ ๐๐ = ๐ธ[๐ฎ๐๐ ๐ ]= ๐ฎ๐๐ ๐ธ[๐] dengan varians ๐๐ sebagai berikut var ๐๐ = ๐ธ ๐๐ โ ๐ธ[๐๐ ] ๐๐ โ ๐ธ[๐๐ ] ๐ = ๐ธ[ ๐ฎ๐๐ ๐ โ ๐ธ ๐ฎ๐๐ ๐ ๐ฎ๐๐ ๐ โ ๐ธ ๐ฎ๐๐ ๐ ๐ ] = ๐ฎ๐๐ ๐ธ[ ๐ โ ๐ธ ๐ ๐ โ ๐ธ ๐ ๐ ]๐ฎ๐ = ๐ฎ๐๐ cov ๐ ๐ฎ๐ = ๐ฎ๐๐ ๐บ๐ฎ๐ . Untuk menentukan komponen utama pertama, pandang kombinasi linear pertama ๐ฎ1๐ ๐ dan vektor ๐ฎ1 yang memaksimumkan var ๐1 = ๐ฎ1๐ ๐บ๐ฎ1 . Nilai var ๐1 dapat terus membesar bila ๐ฎ1 dikalikan dengan suatu konstanta yang lebih besar dari satu maka dibutuhkan batasan ๐ฎ1๐ ๐ฎ1 = 1, yaitu jumlah kuadrat elemen ๐ฎ1 sama dengan 1. Untuk komponen utama pertama yang ingin memaksimumkan var ๐1 = var ๐ฎ๐๐ ๐ = ๐ฎ1๐ ๐บ๐ฎ1 dengan kendala ๐ฎ1๐ ๐ฎ1 = 1 dapat diselesaikan melalui persamaan Lagrange berikut โ ๐ฎ1 , ๐1 = ๐ฎ1๐ ๐บ๐ฎ1 โ ๐1 ๐ฎ1๐ ๐ฎ1 โ 1
3 dengan ๐1 adalah pengganda Lagrange, kemudian mencari titik kritis dari persamaan Lagrange dapat dilakukan dengan cara mencari turunan pertama terhadap ๐ฎ1 sebagai berikut: ๐โ = 2๐บ๐ฎ1 โ 2๐1 ๐ฎ1 = ๐ ๐๐ฎ1 ๐บ๐ฎ1 โ ๐1 ๐ฎ1 = ๐ atau ๐บ โ ๐1 ๐๐ ๐ฎ1 = ๐ dengan ๐๐ merupakan matriks identitas berukuran ๐ ร ๐ . Dengan demikian ๐1 adalah nilai eigen dari ๐บ dan ๐ฎ1 merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear ๐ฎ1๐ ๐ dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah ๐ฎ1๐ ๐บ๐ฎ1 = ๐ฎ1๐ ๐1 ๐ฎ1 = ๐1 Dengan demikian agar var ๐1 maksimum maka haruslah ๐1 merupakan nilai eigen terbesar dari matriks kovarians ๐บ dan ๐ฎ1 merupakan vektor eigen yang bersesuaian dengan nilai eigen ๐1 terbesar dari ๐บ. Komponen utama kedua, ๐ฎ๐2 ๐ , memaksimumkan ๐ฎ๐2 ๐บ๐ฎ2 dengan kendala ๐ฎ๐2 ๐ฎ2 = 1 dan tidak berkorelasi dengan ๐ฎ1๐ ๐ , atau ekuivalen dengan syarat cov ๐ฎ1๐ ๐, ๐ฎ๐2 ๐ = 0, dengan cov ๐1 , ๐2 menyatakan kovarians antara peubah ๐1 dan peubah ๐2 . Diperoleh cov ๐ฎ1๐ ๐, ๐ฎ๐2 ๐ = ๐ฎ1๐ ๐บ๐ฎ2 = ๐ฎ๐2 ๐บ๐ฎ1 = ๐ฎ๐2 ๐1 ๐ฎ1 = ๐1 ๐ฎ๐2 ๐ฎ1 = ๐1 ๐ฎ1๐ ๐ฎ2 (1) ๐ karena ๐1 โ 0 maka ๐ฎ1 ๐ฎ2 = 0. Didefinisikan kembali fungsi Lagrange โ โ ๐ฎ2 , ๐2 , ๐ผ = ๐ฎ๐2 ๐บ๐ฎ2 โ ๐2 ๐ฎ๐2 ๐ฎ2 โ 1 โ ๐ผ ๐ฎ1 ๐ ๐ฎ2 โ 0 dengan ๐2 dan ๐ผ adalah pengganda Lagrange, untuk mencari titik kritis dapat diperoleh sebagai berikut ๐โ โ = 2๐บ๐ฎ2 โ 2๐2 ๐ฎ2 โ ๐ผ๐ฎ1 = ๐ (2) ๐๐ฎ 2
Jika persamaan (2) dikalikan dengan ๐ฎ1๐ didapatkan 2๐ฎ1๐ ๐บ๐ฎ2 โ 2๐2 ๐ฎ1๐ ๐ฎ2 โ ๐ผ๐ฎ1๐ ๐ฎ1 = 0 Persamaan (1) menjadikan ๐ฎ1๐ ๐ฎ2 = 0 dan karena ๐ฎ1๐ ๐ฎ1 = 1 maka haruslah ๐ผ = 0, sehingga persamaan (2) dapat ditulis menjadi ๐บ๐ฎ2 โ ๐2 ๐ฎ2 = ๐ atau ๐บ โ ๐2 ๐๐ ๐ฎ2 = ๐ merupakan persamaan eigen dari matriks ๐บ. Dengan demikian ๐2 merupakan nilai eigen ๐บ dan ๐ฎ2 merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear ๐ฎ๐2 ๐ dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah ๐ฎ๐2 ๐บ๐ฎ2 = ๐ฎ๐2 ๐2 ๐ฎ2 = ๐2 . Karena nilai eigen terbesar pertama merupakan varians dari komponen utama pertama maka ๐2 dipilih nilai eigen terbesar kedua dari matriks ๐บ. Demikian juga dengan vektor eigen ๐ฎ2 merupakan vektor eigen yang bersesuaian dengan nilai eigen terbesar kedua ๐2 . Berdasarkan uraian sebelumnya, dapat ditunjukkan bahwa komponen utama ketiga, keempat sampai ke-p, vektor koefisien ๐ฎ3 , ๐ฎ4 , โฆ , ๐ฎ๐ merupakan vektor
4 eigen ๐บ yang bersesuaian dengan nilai eigen ๐3 , ๐4 , โฆ , ๐๐ , secara berturut-turut. Secara umun, komponen utama ke-k dari X adalah ๐ฎ๐๐ ๐ dan var[๐ฎ๐๐ ๐ ] = ๐๐ untuk k = 1, 2,โฆ, p dengan ๐๐ merupakan nilai eigen ๐บ terbesar ke-k dan ๐ฎ๐ adalah vektor eigen yang bersesuaian. Total varians yang dijelaskan oleh komponen utama adalah ๐๐=1 ๐๐ sehingga proporsi total varians dari k komponen utama pertama ialah ๐ 1 +๐ 2 +โฏ+๐ ๐ ร 100%. Belum ada patokan baku berapa batas minimum banyaknya ๐ +๐ +โฏ+๐ 1
2
๐
komponen utama, sebagian buku menyebutkan 70%, 80%, dan ada yang 90%. Apabila satuan pengukuran untuk setiap peubah yang diamati tidak sama dan varians antarpeubah memiliki perbedaan cukup besar yang mengakibatkan salah satu peubah menjadi dominan dalam menentukan komponen utama maka biasanya digunakan matriks korelasi ๐ . Bila peubah telah dibakukan sebagai berikut ๐1 โ ๐ธ[๐] ๐1 = ๐11 ๐2 โ ๐ธ[๐] ๐2 = ๐22 โฎ ๐๐ โ ๐ธ[๐] ๐๐ = ๐๐๐ ๐ maka komponen utama dari ๐ = ๐๐ , ๐๐ , โฆ , ๐๐ adalah kombinasi linear dari p peubah baku ๐๐ = ๐ฎ๐๐ ๐ = ๐ข๐๐ ๐๐ + ๐ข๐๐ ๐๐ + โฏ + ๐ข๐๐ ๐๐ ๐ = 1, 2, โฆ , ๐ dalam kasus ini ๐1 , ๐ฎ1 , ๐2 , ๐ฎ2 , โฆ , ๐๐ , ๐ฎ๐ adalah sepasang nilai eigen dan vektor eigen untuk matriks korelasi ๐ = ๐ โ1 2 ๐บ๐ โ1 2 , dengan ๐ โ1 2 = 1 1 1 diag( , ,โฆ, ) dan ๐1 โฅ ๐2 โฅ โฏ โฅ ๐๐ โฅ 0 (Johnson dan Wichern ฯ 11
ฯ 22
ฯ pp
2007).
Misalkan ๐ โ adalah matriks data asal dengan n objek dan p peubah. Selanjutnya matriks ๐ โ dikoreksi terhadap rataanya sehingga diperoleh matiks X, ๐ = ๐ โ ๐๐๐ ๐ โ 1 dengan ๐ = ๐ 1, 1, โฆ , 1 ๐ dan ๐ matriks identitas. Apabila matriks kovarians populasi ๐บ dan matriks korelasi dari populasi ๐ tidak diketahui, maka dapat diduga dengan matriks kovarians contoh ๐ = ๐ ๐ ๐ (๐ โ 1) dan matriks korelasi 1 1 1 contoh ๐ = ๐โ1 2 ๐๐โ1 2 dengan ๐โ1 2 = diag( s , s , โฆ , s ) yang 11
22
๐๐
berukuran ๐ ร ๐. Permasalahan ini biasa disebut juga sebagai formulasi primal. Formulasi primal sangat baik digunakan saat ukuran ๐ โซ ๐, sehingga dapat meringkas dalam menyelesaikan masalah persamaan eigen. Selain formulasi primal dijelaskan pula tentang formulasi dual. Formulasi dual dianalisis dengan ๐๐๐ ๐ โ 1 yang berukuran ๐ ร ๐ dalam amatan dapat menjadi sangat besar. Formulasi dual memiliki permasalahan persamaan eigen sebagai berikut: ๐๐๐ ๐ฏ = ๐๐ ๐ฏ๐ ๐โ1 ๐
5 dengan ๐๐ adalah nilai eigen dan ๐ฏ๐ adalah vektor eigen yang bersesuaian dengan ๐๐ . Jika persamaan ini dikalikan ๐ ๐ dari kiri maka akan diperoleh ๐๐ ๐ ๐ ๐ ๐ฏ๐ = ๐๐ ๐ ๐ ๐ฏ๐ ๐โ1 ๐๐ ๐ ๐ฎ = ๐๐ ๐ฎ๐ ๐โ1 ๐ ๐ฎ๐ proporsional dengan ๐ ๐ ๐ฏ๐ , ๐ฎ๐ โ ๐ ๐ ๐ฏ๐ adalah sebuah vektor eigen dari matriks kovarians ๐บ dengan nilai eigen ๐๐ . Sehingga dalam hal ini nilai eigen yang diperoleh dari kedua formulasi adalah sama-sama ๐๐ dan dengan mengasumsikan vektor eigen ๐ฏ๐ adalah vektor satuan 1 = ๐ฏ๐๐ ๐ฏ๐ โ ๐ฎ๐๐ ๐ ๐ ๐๐ฎ๐ = ๐ โ 1 ๐๐ ๐ฎ๐๐ ๐ฎ๐ = 1 diperoleh 1 ๐ฎ๐ = ๐ ๐ ๐ฏ๐ . ๐
๐โ1 ๐ ๐
Jika ๐ ๐ berpangkat ๐ โค minโก (๐, ๐) , ๐ ๐ ๐ ๐ โ 1 dan ๐๐๐ ๐ โ 1 memunyai r nilai eigen taknol ๐๐ yang sama dan bahwa vektor eigennya saling terkait yaitu ๐ฎ๐ = ๐ ๐ ๐ฏ๐ ๐ โ 1 ๐๐ dan ๐ฏ๐ = ๐๐ฎ๐ ๐ โ 1 ๐๐ . Formulasi dual akan sangat baik digunakan saat ๐ โช ๐. Keuntungan lainnya untuk ๐ โซ ๐ adalah bahwa unsur-unsur dari matriks ๐ = ๐๐ ๐ , yang mana diketahui sebagai matriks Gram, terdiri atas produk dalam (inner, dot atau scalar product) dari pengamatan peubah ganda dalam baris dari X, yaitu ๐ฑ ๐ ๐ ๐ฑ๐ (Nielsen dan Canty 2008). Analisis Komponen Utama Kernel AKU adalah suatu metode yang biasa digunakan untuk mereduksi dimensi dari suatu matriks data. AKU menggunakan kombinasi linear antarpeubah untuk merepresentasikan suatu data, sehingga hanya dapat mengatasi hubungan linear antarpeubah. Namun, pada kenyataannya banyak data yang memiliki hubungan taklinear dan tak terpisah antarpeubah. Diperlukan suatu metode untuk menunjukkan bentuk taklinear dari AKU, yaitu dengan menggunakan AKU kernel. Dengan menggunakan fungsi kernel dapat menghitung komponen utama secara lebih efisien dalam dimensi lebih tinggi ruang fitur (ruang abstrak yang kadang tidak diketahui hasil pemetaannya). Transformasi dari taklinear di ruang input menjadi linear di ruang fitur, dijelaskan pada Gambar 1.
Gambar 1 Ide dasar AKU kernel (Sugiyama 2013) Dalam kondisi tertentu, fungsi-fungsi kernel dapat diartikan mewakili hasil kali dalam dari objek data dengan pemetaan taklinear secara implisit pada ruang fitur. Melalui transformasi ini (dari ruang input ke ruang fitur), diharapkan terdeteksi pola tertentu dalam data (Schรถlkopf dan Smola 2002).
6 Selanjutnya akan diformulasikan metode kernel. Lambangkan pemetaan dari ruang input ke ruang fitur dengan ฮฆ: ๐ณ โ โ ๐ฑ โ ฮฆ ๐ฑ ฯต โ. Transformasi dari taklinear dan tak terpisah di ruang input menjadi linear terpisah di ruang fitur, dijelaskan pada Gambar 2.
Gambar 2 Ide utama metode kernel: memetakan data asal ke dimensi lebih tinggi ruang fitur (Schรถlkopf dan Smola 2002) Sebuah kernel adalah sebuah fungsi k yang untuk semua ๐ฑ, ๐ณ ๐ ๐ณ memenuhi ๐ ๐ฑ, ๐ณ = ฮฆ ๐ฑ , ฮฆ ๐ณ . Misalkan pemetaan fitur diberikan sebagai berikut ฮฆ: ๐ฑ = ๐ฅ1 , ๐ฅ2 โ ฮฆ ๐ฑ = ๐ฅ12 , ๐ฅ22 , 2๐ฅ1 ๐ฅ2 ๐ โ = โ 3 atau ฮฆ ๐ฑ = ๐1 , ๐2 , ๐3 = ๐ฅ12 , ๐ฅ22 , 2๐ฅ1 ๐ฅ2 . Pemetaan fitur mengambil data dari dua dimensi ruang input ke tiga dimensi ruang fitur dengan cara hubungan linear dalam ruang fitur bersesuaian dengan hubungan kuadrat dalam ruang input. Semua fungsi linear yang dapat diterapkan dalam โ dapat dinyatakan sebagai ๐ ๐ฑ = ๐ค11 ๐ฅ12 + ๐ค22 ๐ฅ22 + ๐ค12 2๐ฅ1 ๐ฅ2 . Komposisi dari pemetaan fitur dengan hasil kali dalam pada ruang fitur dapat dievaluasi sebagai berikut ฮฆ ๐ฑ , ฮฆ(๐ณ) = ๐ฅ12 , ๐ฅ22 , 2๐ฅ1 ๐ฅ2 , ๐ง12 , ๐ง22 , 2๐ง1 ๐ง2 = ๐ฅ12 ๐ง12 + ๐ฅ22 ๐ง22 + 2๐ฅ1 ๐ฅ2 ๐ง1 ๐ง2 = ๐ฅ1 ๐ง1 + ๐ฅ2 ๐ง2 2 = ๐ฑ, ๐ณ 2 . Karenanya, fungsi ๐ ๐ฑ, ๐ณ = ๐ฑ, ๐ณ 2 adalah sebuah fungsi kernel dengan โ sebagai ruang fitur yang bersesuaian. Ini artinya dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam ruang fitur tanpa mengevaluasi koordinatnya secara eksplisit. Sebelum menggunakan fungsi kernel, haruslah ditentukan apa bentuk dari fungsi ๐ ๐ฑ, ๐ณ untuk memastikan bahwa itu adalah kernel untuk beberapa ruang fitur. Oleh karena itu, perlu diketahui beberapa hal yang berhubungan dengan fungsi kernel 1. Fungsi kernel harus simetrik ๐ ๐ฑ, ๐ณ = ฮฆ ๐ฑ , ฮฆ ๐ณ = ฮฆ ๐ณ , ฮฆ ๐ฑ = ๐ ๐ณ, ๐ฑ . 2. Memenuhi ketaksamaan Cauchy-Schwarz ๐ ๐ฑ, ๐ณ 2 = ฮฆ ๐ฑ , ฮฆ ๐ณ 2
7 โค ฮฆ ๐ฑ 2 ฮฆ ๐ณ 2 = ฮฆ ๐ฑ ,ฮฆ ๐ฑ ฮฆ ๐ณ ,ฮฆ ๐ณ = ๐ ๐ฑ, ๐ฑ ๐ ๐ณ, ๐ณ . Diberikan sebuah kernel dan suatu matriks data, yang dapat membentuk matriks Gram, yang mana berisi evaluasi dari fungsi kernel pada semua pasang titik data. Diberikan matriks data, ๐ ๐ = ๐ฑ1 , ๐ฑ 2 , โฆ , ๐ฑ ๐ , matriks Gram dilambangkan oleh G yang didefinisikan sebagai matriks berukuran ๐ ร ๐ yang berelemen ๐๐๐ = ๐ ๐ฑ ๐ , ๐ฑ๐ . Sehingga digunakan fungsi kernel k untuk mengevaluasi hasil kali dalam pada ruang fitur dengan pemetaan fitur ฮฆ , dihubungkan dengan matriks Gram G yang berelemen ๐๐๐ = ฮฆ ๐ฑ ๐ , ฮฆ ๐ฑ๐ = ๐ ๐ฑ ๐ , ๐ฑ๐ . Dalam kasus ini matriks G disebut juga sebagai matriks kernel K. Lambang standar untuk menggambarkan matriks kernel K adalah sebagai berikut โฏ ๐ ๐ฑ1 , ๐ฑ ๐ ๐ ๐ฑ1 , ๐ฑ1 ๐ ๐ฑ1 , ๐ฑ 2 โฏ ๐ ๐ฑ2, ๐ฑ๐ ๐ ๐ฑ 2 , ๐ฑ1 ๐ ๐ฑ 2 , ๐ฑ 2 ๐= . โฎ โฎ โฎ โฑ ๐ ๐ฑ ๐ , ๐ฑ1 ๐ ๐ฑ ๐ , ๐ฑ 2 โฏ ๐ ๐ฑ ๐ , ๐ฑ ๐ ๐ Misalkan matriks data, ๐ ๐ = ๐ฑ1 , ๐ฑ 2 , โฆ , ๐ฑ ๐ dengan ๐ฑ ๐ = ๐ฅ๐1 , ๐ฅ๐2 , โฆ , ๐ฅ๐๐ , terdiri atas n objek dan p peubah. Pemetaan ditunjukkan dengan menggunakan fungsi ฮฆ: โ ๐ โ โ, dengan data asal berada dalam ruang โ ๐ dan fitur dalam โ. Catat bahwa โ dapat memunyai perubahan dimensi yang besar dan mungkin tak terbatas (Shen 2007). Transformasi fungsi ฮฆ mungkin taklinear dan mungkin tidak dapat dijelaskan secara eksplisit. Pemetaan oleh fungsi ฮฆ terhadap X sehingga ฮฆ berisi n objek dan q peubah dengan ๐ โฅ ๐ menghasilkan matriks data sebagai berikut: ๐ ๐ฑ1 ๐ ๐ ฮฆ = ๐ ๐ฑ2 . โฎ ๐ ๐ฑ๐ ๐ Asumsikan bahwa data dalam ruang fitur memunyai rata-rata nol, sehingga matriks kovarians memiliki bentuk ๐ ๐ ๐ ๐ = ฮฆ ฮฆ ๐ โ 1 = 1 ๐ โ 1 ๐=1 ๐ ๐ฑ ๐ ๐ ๐ฑ ๐ yang bersesuaian dengan formulasi primal sebagai berikut: ฮฆ๐ ฮฆ๐ฎ๐ = ๐๐ ๐ฎ๐ dengan menggunakan kembali simbol ๐๐ dan ๐ฎ๐ sebagai nilai eigen dan vektor eigen secara berturut-turut dalam ruang โ. Untuk formulasi dual yang bersesuaian diperoleh ฮฆฮฆ๐ ๐ฏ = ๐๐ ๐ฏ๐ ๐โ1 ๐ dengan menggunakan kembali simbol ๐๐ dan ๐ฏ๐ sebagai nilai eigen dan vektor eigen secara berturut-turut. Seperti pada AKU nilai eigen taknol untuk formulasi primal dan dual adalah sama dan vektor eigen dihubungkan dengan 1 ๐ฎ๐ = ฮฆ๐ ๐ฏ๐ ๐ โ 1 ๐๐ dan ๐ฏ๐ = ฮฆ๐ฎ๐ ๐ โ 1 ๐๐ . Pada formulasi dual ฮฆฮฆ๐ diketahui bersesuaian dengan matriks Gram atau matriks kernel yang berisi elemen dari fungsi kernel.
8 Mengulang kembali masalah persamaan eigen pada formulasi dual, untuk nilai eigen taknol ๐๐ dan vektor eigen yang bersesuaian ๐ฏ๐ . Dengan mengganti produk dalam ๐ ๐ฑ ๐ ๐ ๐ ๐ฑ๐ dalam ฮฆฮฆ๐ dengan sebuah fungsi kernel ๐ ๐ฑ ๐ , ๐ฑ๐ = ๐๐๐ yang berasal dari beberapa pemetaan ฮฆ, diperoleh ๐๐ฏ๐ = ๐ โ 1 ๐๐ ๐ฏ๐ dengan ๐ = ฮฆฮฆ๐ adalah matriks berukuran ๐ ร ๐ . Permasalahan nilai eigen tersebut normalnya diformulasikan tanpa faktor ๐ โ 1, ๐๐ฏ๐ = ๐๐ ๐ฏ๐ memberikan semua solusi ๐ฏ๐ dari vektor eigen dan (๐ โ 1)๐๐ dari nilai eigen. Sehingga dalam kasus ini ๐ฎ๐ = ฮฆ๐ ๐ฏ๐ ๐๐ dan ๐ฏ๐ = ฮฆ ๐ฎ๐ ๐๐ . Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan ๐ฑ atas vektor eigen primal ๐ฎ๐ ๐ ๐ฑ ๐ ๐ฎ๐ = ๐ ๐ฑ ๐ ฮฆ๐ ๐ฏ๐ ๐๐ = ๐ ๐ฑ ๐ ๐ ๐ฑ1 ๐ ๐ฑ 2 โฆ ๐ ๐ฑ ๐ ๐ฏ๐ ๐๐ = ๐ ๐ฑ ๐ ๐ ๐ฑ1 ๐ ๐ฑ ๐ ๐ ๐ฑ 2 โฆ ๐ ๐ฑ ๐ ๐ ๐ฑ ๐ ๐ฏ๐ ๐๐ = ๐ ๐ฑ, ๐ฑ1 ๐ ๐ฑ, ๐ฑ 2 โฆ ๐ ๐ฑ, ๐ฑ ๐ ๐ฏ๐ ๐๐ . Pada kenyataannya tidak dapat diasumsikan bahwa data pada ruang fitur sudah terkoreksi terhadap nilai tengah. Oleh karena itu agar matriks Gram K terkoreksi terhadap nilai tengah gunakan ๐ โ = ๐ โ ๐๐๐ ๐ ๐ โ ๐๐๐ . Berikut merupakan tiga fungsi kernel yang biasa digunakan ๏ท
Gauss: ๐ ๐ฑ ๐ , ๐ฑ๐ = exp(โ
2
๐ฑ ๐ โ๐ฑ๐ ๐0
)
๐
polinom: ๐ ๐ฑ ๐ , ๐ฑ๐ = ๐ฑ ๐๐ ๐ฑ๐ + ๐0 sigmoid: ๐ ๐ฑ ๐ , ๐ฑ๐ = tanh ๐ ๐ฑ ๐ , ๐ฑ๐ + ๐ dengan ๐0 dan ๐ adalah parameter. Pada dasarnya ada fungsi kernel yang dapat diketahui jenis pemetaannya pada ruang fitur, misalnya fungsi kernel polinom dengan menggunakan ๐ ๐ฑ, ๐ฑ โ = ๐ฑ ๐ ๐ฑ โ + ๐0 2 dengan vektor 2 dimensi ๐ฑ = ๐ฅ1 ๐ฅ2 dan ๐ฑ โ = ๐ฅ1 โ ๐ฅ2 โ . Diperoleh sebagai berikut ๐ ๐ฑ, ๐ฑ โ = ๐ฑ ๐ ๐ฑ โ + ๐0 2 = (๐ฅ1 ๐ฅ1 โ + ๐ฅ2 ๐ฅ2 โ + ๐0 )2 = ๐ฅ1 2 ๐ฅ1 โ 2 + ๐ฅ2 2 ๐ฅ2 โ 2 + ๐0 2 + 2๐ฅ1 ๐ฅ1 โ ๐ฅ2 ๐ฅ2 โ + 2๐ฅ1 ๐ฅ1 โ ๐0 + 2๐ฅ2 ๐ฅ2 โ ๐0 2๐0 ๐ฅ2 ๐ฅ1 2 ๐ฅ2 2 2๐ฅ1 ๐ฅ2 ร = ๐0 2๐0 ๐ฅ1 ๏ท ๏ท
๐0
2๐0 ๐ฅ1 โ
2๐0 ๐ฅ2 โ ๐ฅ1 โ 2 ๐ฅ2 โ 2
2๐ฅ1 โ ๐ฅ2 โ
๐
= ๐ ๐ฑ ๐ ๐ ๐ฑโ . Terlihat bahwa fungsi kernel memetakan vektor 2 dimensi ke vektor 6 dimensi. Namun, untuk banyak fungsi kernel fungsi balikan ke ๐ ๐ฑ ๐ ๐ ๐ฑ โ tidak mungkin diperoleh (Nielsen dan Canty 2008). Djakaria et al. (2010) menjelaskan bahwa fungsi kernel Gauss dengan parameter ๐0 = 0.001 2 menghasilkan pemisahan antarkelompok dengan sangat baik untuk data tanaman iris. Sugiyama (2013) menjelaskan bahwa fungsi kernel Gauss dengan parameter ๐0 = 3 menghasilkan pemisahan antarkelompok dengan cukup baik untuk data pengenalan anggur.
9
METODE PENELITIAN Data Data yang digunakan dalam penulisan karya ilmiah ini merupakan data sekunder sebagai data asal yang diperoleh melalui internet yaitu data tanaman iris (Fisher 1988) dan data pengenalan anggur (Forina 1991). Matriks data tanaman iris terdiri atas 150 objek dengan 3 kelompok yaitu Iris setosa, Iris virginica, dan Iris versicolor di mana setiap kelompok terdiri atas 50 objek dengan empat peubah yaitu panjang sepal, lebar sepal, panjang petal, dan lebar petal. Matriks data pengenalan anggur terdiri atas 178 objek dengan 3 kelompok di mana setiap kelompok terdiri atas 59, 71, dan 48 objek untuk kelompok 1, 2, dan 3 secara berturut-turut, dengan tiga belas peubah yaitu kadar alkohol, kadar asam malat, banyaknya abu, banyaknya alkali pada abu, kadar magnesium, kadar fenol, kadar flavonoid, kadar fenol yang bukan flavonoid, kadar proanthosianin, dan kadar prolina, intensitas warna dan warna berdasarkan tingkat kecerahannya, dan anggur yang diencerkan pada OD280/OD315 berdasarkan nilai serapannya. Prosedur Analisis Data Data asal merupakan data sekunder yang berasal dari data populasi tanaman iris dan data pengenalan anggur. Analisis data yang pertama dilakukan dalam karya ilmiah ini ialah mengamati plot pencar antarpeubah yang dihasilkan. Kemudian data asal distandarisasi. AKU kernel akan dianalisis menggunakan dua fungsi kernel yaitu linear dan Gauss. Matriks kernel dengan fungsi linear ialah bersesuaian dengan AKU dalam formulasi dual yaitu dalam bentuk ๐๐๐ . Matriks kernel fungsi Gauss= exp โ
๐ฑ๐ โ๐ฑ ๐ ๐0
2
dengan parameter ๐0 = 0.001 2 untuk
data tanaman iris dan ๐0 = 1, 1.25,โฆ, 6 untuk data pengenalan anggur. Tiga langkah berikut adalah perlu untuk menunjukkan AKU kernel: 1. Menentukan fungsi kernel yang akan digunakan dalam hal ini linear dan Gauss, kemudian menghitung hasil kali dalam matriks kernel ๐ = (๐๐๐ ) dengan ๐๐๐ = ๐ ๐ฑ ๐ , ๐ฑ๐ = ๐ ๐ฑ ๐ , ๐ ๐ฑ๐ . Matriks kernel juga harus dikoreksi terhadap nilai tengah setiap fungsi dengan ๐ โ = ๐ โ ๐๐๐ ๐ ๐ โ ๐๐๐ . 2. Menyelesaikan permasalahan nilai eigen dan vektor eigen dari matriks ๐ โ dengan persamaan ๐ โ ๐ฏ๐ = ๐๐ ๐ฏ๐ . Kemudian dipilih 2 nilai eigen terbesar dan vektor eigen yang bersesuaian. Dua nilai eigen ini adalah varians maksimum dari komponen utama 1 dan komponen utama 2 secara berturut-turut. 3. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal ๐ฎ๐ . ๐ ๐ฑ ๐ ๐ฎ๐ = ๐ ๐ฑ ๐ ฮฆ๐ ๐ฏ๐ ๐๐ = ๐ ๐ฑ, ๐ฑ1 ๐ ๐ฑ, ๐ฑ 2 โฆ ๐ ๐ฑ, ๐ฑ ๐ ๐ฏ๐ ๐๐ . Selanjutnya visualisasikan plot pencar 2 komponen utama pertama dari masingmasing fungsi dan parameter.
10 Pengklasifikasian kelompok dengan AKU kernel dilakukan menggunakan kuadrat jarak Euclid untuk ruang dimensi dua dengan menghitung jarak terdekat antara objek dengan rataan dari setiap kelompok sebagai berikut ๐ ๐ฑ0, ๐ฑ๐ = ๐ฑ0 โ ๐ฑ๐ ๐ ๐ฑ0 โ ๐ฑ๐ dengan ๐ฑ 0 adalah objek pada skor komponen utama dan ๐ฑ ๐ adalah rata-rata skor komponen utama dari data asal pada setiap kelompok. Evaluasi hasil dapat diperoleh dengan menghitung jumlah salah klasifikasi dari semua kelompok seperti yang diberikan pada Tabel 1. Tabel 1 Klasifikasi kelompok Kelompok asal ฯ1 ฯ2 ฯ3
Kelompok prediksi ฯ1 n11 n21 n31 n.1
ฯ2 n12 n22 n32 n.2
ฯ3 n13 n23 n33 n.3
Total n1. n2. n3. n = n..
Salah klasifikasi (SK) didefinisikan sebagai n-
3
๐
๐=1 ๐๐ SK = ร 100% n dengan nkj = banyaknya anggota kelompok k yang diklasifikasikan menjadi anggota kelompok j.
HASIL DAN PEMBAHASAN Analisis dilakukan terhadap data populasi tanaman iris dan data pengenalan anggur. Kedua data digunakan untuk memverifikasi hasil yang diperoleh menggunakan AKU kernel. Selanjutnya data yang memberikan hasil yang sama dengan karya ilmiah ini dipilih untuk dianalisis salah klasifikasinya dalam hal ini data pengenalan anggur. Gambar 3 memvisualisasikan plot pencar dari beberapa pasang peubah untuk data pengenalan anggur, diambil beberapa pasang peubah karena dimensi data yang cukup besar. Pada gambar terlihat bahwa plot pencar hanya terdiri atas satu kelompok yang berisi baik kelompok 1, 2, dan 3 yang tidak dapat dipisahkan dengan beberapa data menjadi pencilan. Hal ini tidak cukup baik bila digunakan dalam menganalisis struktur pada data dan akan menyulitkan dalam pengklasifikasian data objek ke dalam kelompok tersebut, karena akan menyebabkan salah klasifikasi yang cukup besar. Oleh karena itu, AKU kernel akan digunakan untuk menyelesaikan permasalahan ini.
11
Gambar 3 Plot pencar dari beberapa pasang peubah data pengenalan anggur Terlihat dari gambar bahwa hubungan antarpeubah adalah tak terpisah untuk setiap kelompok. Deskripsi data yang digunakan dapat diamati dalam Tabel 2. Pemilihan parameter pada fungsi kernel didasarkan pada plot pencar dari setiap pasang peubah, dengan mencoba-coba beberapa nilai yang berbeda dan dipilih parameter dengan hasil yang lebih baik. Karena pada dasarnya belum ada ketentuan nilai parameter untuk setiap fungsi kernel. Tabel 2 menggambarkan nilai-nilai yang ada dari setiap peubah. Rata-rata dan simpangan baku (SB) dari setiap peubah akan digunakan untuk standarisasi data. Karya ilmiah ini akan menggunakan dua fungsi kernel yaitu linear (sesuai dengan AKU) dan Gauss. Deskripsi kedua fungsi kernel diberikan pada Tabel 3.
12 Tabel 2 Deskripsi data pengenalan anggur No .
Peubah
Rata-rata
Maksimum
Minimum
SB โ
1
Alkohol (Al)
13.0036
14.83
11.03
0.809732
2
Asam malat (AM)
3.409831
192
0.74
14.25921
3
Abu (Ab)
2.36618
3.23
1.36
0.274265
4
Alkali pada abu (AA)
19.43876
30
10
3.414296
5
Magnesium (Mg)
99.71348
162
70
14.27937
6
Total fenol (TF)
2.28864
3.88
0.128
0.642152
7 8
Flavonoid (Fl) Fenol yang bukan flavonoid (FF)
2.023927 0.372556
5.08 2.58
0.099 0.13
1.006646 0.206944
9 10 11
Proanthosianin (Pa) Intensitas warna (IW) Warna (Wa) Anggur yang diencerkan OD280/OD315 (OD) Prolina(Pr)
1.590899 5.05809 0.957506
3.58 13 1.71
0.41 1.28 0.48
0.572359 2.318286 0.228484
2.611629
4
1.27
0.710065
746.8933
1680
278
314.9075
12 13
pada
* SB = simpangan baku
Tabel 3 Fungsi kernel yang diaplikasikan No. Jenis fungsi 1 Linear 2
Fungsi ๐ ๐ฑ ๐ , ๐ฑ๐ = ๐ฑ ๐๐ ๐ฑ๐ ๐ ๐ฑ ๐ , ๐ฑ๐ = exp(โ ๐ฑ ๐ โ ๐ฑ๐
Gauss
2
Par. ๐0 ๐0 2 ) 1, 1.25,โฆ, 6
Analisis data dilakukan pada data yang telah distandarisasi, atau bersesuaian dengan matriks korelasi. Hal ini dikarenakan varians setiap peubah memiliki nilai yang perbedaannya cukup besar, sehingga tanpa distandarisasi analisis hanya akan terfokus pada peubah dengan varians terbesar. Tabel 4 dan Tabel 5 masing-masig menjelaskan matriks kovarians dan matriks korelasi. Tabel 4 Matriks kovarians No Peubah
Al
AM
Ab
AA
Mg
TF
Fl
FF
Pa
IW
Wa
OD
Pr
1.481
0.047
-0.852
3.180
0.141
0.198
-0.029
0.062
1.022
-0.012 0.041
203.325 0.432
1.654
21.006
0.303
0.744
-0.008
0.264
1.871
-0.022 -0.246 508.050 -0.005 0.001
1
Al
0.656
2
AM
1.481
3
Ab
0.047
0.432
0.075
0.406
1.104
0.023
0.029
0.011
0.001
0.164
4
AA
-0.852
1.654
0.406
11.657
-5.209
-0.655 -1.107
0.243
-0.370
-0.095 -0.189 -0.600 -468.616
5
Mg
3.180
21.006 1.104
-5.209
203.900
2.003
2.628
-0.540
1.941
6.675
0.176
0.665 1775.845
6
TF
0.141
0.303
0.023
-0.655
2.003
0.412
0.554
-0.037
0.222
-0.090
0.063
0.317
99.648
7
Fl
0.198
0.744
0.029
-1.107
2.628
0.554
1.013
-0.063
0.374
-0.385
0.124
0.560
156.148
8
FF
-0.029
-0.008 0.011
0.243
-0.540
-0.037 -0.063
0.043
-0.024
0.014
-0.007 -0.046 -15.218
9
Pa
0.062
0.264
0.001
-0.370
1.941
0.222
0.374
-0.024
0.328
-0.034
0.039
10
IW
1.022
1.871
0.164
-0.095
6.675
-0.090 -0.385
0.014
-0.034
5.374
-0.276 -0.706 230.768
11
Wa
-0.012
-0.022 -0.005
-0.189
0.176
0.063
-0.007
0.039
-0.276
0.052
12 13
OD Pr
0.124
0.211 0.092
163.394 19.193
59.554 16.999
0.041 -0.246 0.001 -0.600 0.665 0.317 0.560 -0.046 0.211 -0.706 0.092 0.504 69.923 163.394 508.050 19.193 -468.616 1775.845 99.648 156.148 -15.218 59.554 230.767 16.999 69.923 99166.720
13 Tabel 5 Matriks korelasi No Peubah
Al
AM
Ab
AA
Mg
TF
Fl
FF
Pa
IW
Wa
OD
Pr 0.641
1
Al
1.000
0.128
0.214 -0.308 0.275
0.271
0.243
-0.174
0.133
0.544
-0.064
0.071
2
AM
0.128
1.000
0.110
0.034
0.103
0.033
0.052
-0.003
0.032
0.057
-0.007
-0.024 0.113
3
Ab
0.214
0.110
1.000
0.433
0.282
0.128
0.106
0.196
0.008
0.258
-0.075
0.003
4
AA
-0.308 0.034
0.433
1.000 -0.107
-0.299
-0.322
0.344
-0.189
-0.012
-0.242
-0.248 -0.436
5
Mg
0.275
0.103
0.282 -0.107 1.000
0.218
0.183
-0.183
0.237
0.202
0.054
0.066
0.395
6
TF
0.271
0.033
0.128 -0.299 0.218
1.000
0.858
-0.281
0.605
-0.061
0.430
0.695
0.493
7
Fl
0.243
0.052
0.106 -0.322 0.183
0.858
1.000
-0.300
0.648
-0.165
0.539
0.784
0.493
8
FF
-0.174 -0.003
0.196
0.344 -0.183
-0.281
-0.300
1.000
-0.199
0.029
-0.150
-0.312 -0.234
9
Pa
0.133
0.032
0.008 -0.189 0.237
0.605
0.648
-0.199
1.000
-0.025
0.296
0.519
10
IW
0.544
0.057
0.258 -0.012 0.202
-0.061
-0.165
0.029
-0.025
1.000
-0.522
-0.429 0.316
11
Wa
-0.064 -0.007 -0.075 -0.242 0.054
0.430
0.539
-0.150
0.296
-0.522
1.000
0.565
0.236
12
OD
0.071 -0.024
0.003 -0.248 0.066
0.695
0.784
-0.312
0.519
-0.429
0.565
1.000
0.313
13
Pr
0.641
0.222 -0.436 0.395
0.493
0.493
-0.234
0.330
0.316
0.236
0.313
1.000
0.113
Analisis data menggunakan AKU kernel cukup baik memisahkan antarkelompok dengan menggunakan dua komponen utama pertama. Walaupun masih ada sebagian kecil objek antarkelompok yang bercampur. Dari kedua fungsi yang digunakan terlihat bahwa plot pencar dari dua komponen utama kernel pertama cukup mampu mengambarkan pola yang terpisah pada data. Gambar selanjutnya akan memvisualisasikan plot pencar dari dua komponen utama untuk setiap fungsi kernel.
Gambar 4 AKU atau fungsi linear
Gambar 5 Fungsi Gauss dengan parameter ๐0 = 1
Gambar 6 Fungsi Gauss dengan parameter ๐0 = 1.25
Gambar 7 Fungsi Gauss dengan parameter ๐0 = 1.5
0.222
0.330
14
Gambar 8 Fungsi Gauss dengan parameter ๐0 = 1.75
Gambar 9 Fungsi Gauss dengan parameter ๐0 = 2
Gambar 10 Fungsi Gauss dengan parameter ๐0 = 2.25
Gambar 11 Fungsi Gauss dengan parameter ๐0 = 2.5
Gambar 12 Fungsi Gauss dengan parameter ๐0 = 2.75
Gambar 13 Fungsi Gauss dengan parameter ๐0 = 3
Gambar 14 Fungsi Gauss dengan parameter ๐0 = 3.25
Gambar 15 Fungsi Gauss dengan parameter ๐0 = 3.5
15
Gambar 16 Fungsi Gauss dengan parameter ๐0 = 3.75
Gambar 17 Fungsi Gauss dengan parameter ๐0 = 4
Gambar 18 Fungsi Gauss dengan parameter ๐0 = 4.25
Gambar 19 Fungsi Gauss dengan parameter ๐0 = 4.5
Gambar 20 Fungsi Gauss dengan parameter ๐0 = 4.75
Gambar 21 Fungsi Gauss dengan parameter ๐0 = 5
Gambar 22 Fungsi Gauss dengan parameter ๐0 = 5.25
Gambar 23 Fungsi Gauss dengan parameter ๐0 = 5.5
16
Gambar 24 Fungsi Gauss dengan parameter ๐0 = 5.75
Gambar 25 Fungsi Gauss dengan parameter ๐0 = 6
Dengan menggunakan dua komponen utama pertama, fungsi kernel linear dan Gauss memberikan hasil pemisahan antarkelompok yang lebih baik jika dibandingkan dengan plot pencar antarpeubah. Dalam karya ilmiah ini dilakukan perbandingan pada dua buah data yaitu data tanaman iris dan data pengenalan anggur. Keduanya memiliki perbandingan dengan artikel dalam jurnal yang sudah ada, hasilnya dijelaskan dalam Gambar 26 dan 27. Pada data pengenalan anggur yang dijelaskan dalam Lampiran 1 untuk fungsi Gauss dengan parameter ๐0 = 3 diperoleh hasil yang cukup baik dan relatif sama dengan yang diperoleh pada artikel dalam jurnal. Nilai dan vektor eigen untuk ๐0 = 3 dijelaskan dalam Lampiran 2.
(a) (b) Gambar 26 Perbandingan hasil data pengenalan anggur (a) karya ilmiah (b) Sugiyama (2013) Pemisahan data tanaman iris menggunakan AKU kernel sebelumnya telah dikerjakan dan menghasilkan plot yang berbeda dengan yang dijelaskan oleh Djakaria et al. (2010). Karena jurnal tersebut hanya menggunakan fungsi kernel Gauss dengan tidak menjelaskan setiap parameter yang digunakan, sehingga perbedaan ini sulit diketahui di mana letaknya. Walaupun ada satu parameter yang dijelaskan yaitu untuk parameter ๐0 = 0.001 2 namun hasilnya tetap sangat berbeda.
17
(a) (b) Gambar 27 Perbandingan hasil data tanaman iris (a) karya ilmiah (b) Djakaria et al. (2010) Karena tidak mungkin kedua hasil benar, maka kemungkinan salah satu ada yang salah atau kedua-duanya salah. Oleh karena itu diperlukan penelusuran selanjutnya yang dapat memberikan hasil yang baik dan benar untuk dalam penggunaan AKU kernel. Setelah diperoleh hasil pemisahan yang cukup baik antarkelompok, selanjutnya akan dibahas tentang pengklasifikasian kelompok menggunakan AKU kernel. Pengklasifikasian ini akan membandingkan dua fungsi kernel yaitu fungsi linear (bersesuaian dengan AKU) dan Gauss. Analisis data yang dilakukan pada prosedur analisis data ialah untuk data yang distandarisasi. Pada Tabel 7, 8, 9, dan 10 dijelaskan hasil yang diperoleh menggunakan fungsi kernel linear dan Gauss. Pada Tabel 6 dijelaskan jumlah kesalahan untuk setiap parameter dari fungsi Gauss, serta grafiknya. Tabel 6 Hasil salah klasifikasi (SK) fungsi Gauss h0
1
1.25
1.5
1.75
2
2.25
2.5
2.75
3
3.25
3.5
SK
58
65
59
37
53
56
31
61
38
38
41
%SK 32.58% 36.51% 33.15% 20.78% 29.77%
31.46%
17.42% 34.27%
21.35%
21.58% 23.03
h0
3.75
4
4.25
4.5
4.75
5
5.25
5.5
5.75
6
SK
66
45
45
47
71
73
52
50
51
70
25.3%
25.3%
26.4%
39.88%
41.01%
29.2%
28.09%
28.65%
39.33%
%SK 37.08%
Semula diperkirakan ada tren kuadrat dari salah klasifikasi yang dapat digunakan untuk menduga hasil klasifikasi terkecil dengan menggunakan regresi kuadratik untuk nilai parameter ๐0 yang digunakan. Namun, hasil yang diperoleh terlihat pada Gambar 28 yaitu terjadi perubahan banyaknya salah klasifikasi yang tidak teratur. Selanjutnya akan digunakan AKU kernel untuk menyelesaikan klasifikasi kelompok. Pada dasarnya studi dilakukan pada fungsi Gauss untuk parameter ๐0 = 1, 1.25, โฆ, 6. Namun, untuk memberikan gambaran hasilnya, dipilih tiga parameter dengan nilai kesalahan yang berbeda-beda yaitu untuk ๐0 = 1, 2.5, 6.
18
Gambar 28 Grafik kesalahan klasifikasi Fungsi linear memiliki salah klasifikasi sebesar 30.89%. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 3. Hal ini terjadi karena antarkelompok ini memang sulit dipisahkan secara keseluruhan dan juga karena jarak yang berdekatan antarkelompok. Tabel 7 Hasil pengklasifikasian kelompok data dengan fungsi linear Kelompok asal 1 2 3
1 54 4 3
Kelompok prediksi 2 0 47 23
3 5 20 22
Total
SK
59 71 48
5 24 26
Fungsi Gauss dengan parameter ๐0 = 1 memiliki salah klasifikasi sebesar 32.584%. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 3. Hal ini juga terjadi karena antarkelompok ini memang sulit dipisahkan secara keseluruhan dan juga karena jarak yang berdekatan antarkelompok. Hasil ini relatif mirip dengan fungsi kernel linear. Tabel 8 Hasil pengklasifikasian kelompok data dengan fungsi Gauss ๐0 = 1 Kelompok asal 1 2 3
1 43 0 0
Kelompok prediksi 2 16 58 29
3 0 13 19
Total
SK
59 71 48
16 13 29
Fungsi Gauss dengan parameter ๐0 = 2.5 memiliki salah klasifikasi sebesar 17.416%. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 2. Hal ini berbeda dengan yang hasil diperoleh sebelumnya. Tabel 9 Hasil pengklasifikasian kelompok data dengan fungsi Gauss ๐0 = 2.5 Kelompok asal 1 2 3
1 54 0 0
Kelompok prediksi 2 0 47 2
3 5 24 46
Total
SK
59 71 48
5 24 2
Fungsi Gauss dengan parameter ๐0 = 6 memiliki salah klasifikasi sebesar 39.326%, hasil ini cukup besar bila dibandingkan dengan yang lainnya. Terlihat
19 bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada kelompok 2. Hasil salah klasifikasi yang dipeoleh cukup besar dan kurang baik digunakan untuk klasifikasi kelompok. Tabel 10 Hasil pengklasifikasian kelompok data dengan fungsi Gauss ๐0 = 6 Kelompok asal 1 2 3
1 32 41 0
Kelompok prediksi 2 27 28 0
3 0 2 48
Total
SK
59 71 48
27 41 0
Pengklasifikasian menggunakan fungsi Gauss dengan menggunakan parameter ๐0 = 1, 2.5, 6 memiliki hasil salah klasifikasi sebesar 32.584%, 17.416% dan 39.326% secara berturut-turut. Terlihat bahwa salah klasifikasi kelompok menggunakan fungsi ini banyak terdapat pada setiap kelompok bergantung pada parameter. Hal ini terjadi karena dalam pemilihan parameter untuk fungsi kernel belum ada ketentuannya, hanya disesuaikan berdasarkan hasil atau tipe plot yang lebih baik.
SIMPULAN DAN SARAN Simpulan Visualisasi data menggunakan AKU kernel akan menghasilkan berbagai bentuk plot pencar untuk dua komponen utama pertama bergantung pemilihan fungsi kernelnya. Dalam pemilihan fungsi kernel yang tepat akan memberikan pola linear terpisah pada data sehingga akan mempermudah saat menganalisis. Hasil untuk data pengenalan anggur menunjukkan bahwa fungsi kernel linear dan Gauss (parameter 2.5) masing-masing menghasilkan salah klasifikasi sebesar 30.889% dan 17.416%. Saran AKU kernel sebagai salah satu teknik penyelesaian dari AKU taklinear masih belum dapat memisahkan data kelompok yang digunakan dalam karya ilmiah secara efisien. Karena karya ilmiah ini memiliki perbandingan dengan artikel dalam jurnal, dengan metode analisis yang sama, namun hasilnya sangat berbeda untuk data tanaman iris, disarankan untuk mencoba teknik yang sama untuk menyelesaikan masalah tersebut. Dengan demikian diharapkan dengan pemisahan yang lebih baik akan menghasilkan tingkat kesalahan yang lebih kecil lagi dalam pengklasifikasian kelompok.
20
DAFTAR PUSTAKA Fisher RA. 1988. Iris Plants Database. [Internet]. [diunduh 2014 Jan 20]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/iris/ iris.data. Forina M. 1991. Wine Recognition Data. [Internet]. [diunduh 2014 Jan 20]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/ wine.data. Djakaria I, Guritno S, Kartiko SH. 2010. Visualisasi Data Iris Menggunakan Analisis Komponen Utama dan Analisis Komponen Utama Kernel. Jurnal Ilmu Dasar. 11(1):31-38. Johnson RA, Wichern DW. 2007. Applied Multivariate Statistical Analysis. 6th ed. New Jersey (US): Pearson Education. Jolliffe IT. 2002. Principal Component Analysis. 2nd ed. New York (US): Springer-Verlag. Nielsen AA, Canty MJ. 2008. Kernel Principal Component Analysis for Change Detection. Image and Signal for Remote Sensing XIV. 7109. Doi:10.1117 /12.800141. Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component. Philadelphia (US): Temple University. Schรถlkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT Press. Sugiyama M. 2013. Advanced Data Analysis: Kernel PCA. [Internet]. [diunduh 2014 Jan 20]. Tersedia pada: www.ocw.titech.ac.jp/index.php.
21 Lampiran 1 Data pengenalan anggur No. Kelompok Al
AM
Ab
AA
Mg
TF 2.8
Fl
FF
Pa
WI
Wa
OD
Pr
1
1
14.23 1.71 2.43 15.6
127
3.06 0.28
2.29
5.64
1.04
3.92
1065
2
1
13.2
100 2.65 2.76 0.26
1.28
4.38
1.05
3.4
1050
3
1
13.16 2.36 2.67 18.6
101
0.3
2.81
5.68
1.03
3.17
1185
4
1
14.37 1.95
113 3.85 3.49 0.24
2.18
7.8
0.86
3.45
1480
5
1
13.24 2.59 2.87
118
6
1
14.2
7
1
8
1.78 2.14 11.2 2.5
16.8 21
2.8
2.69 0.39
1.82
4.32
1.04
2.93
735
112 3.27 3.39 0.34
1.97
6.75
1.05
2.85
1450
14.39 1.87 2.45 14.6
96
2.5
2.52
0.3
1.98
5.25
1.02
3.58
1290
1
14.06 3.15 2.61 17.6
121
2.6
2.51 0.31
1.25
5.05
1.06
3.58
1295
9
1
14.83 1.64 2.17
14
97
2.8
2.98 0.29
1.98
5.2
1.08
2.85
1045
10
1
13.86 1.35 2.27
16
98
2.98 3.15 0.22
1.85
7.22
1.01
3.55
1045
11
1
14.1
18
105 2.95 3.32 0.22
2.38
5.75
1.25
3.17
1510
12
1
14.12 1.48 2.32 16.8
95
2.2
2.43 0.26
1.57
5
1.17
2.82
1280
13
1
13.75 1.73 2.41
89
2.6
2.76 0.29
1.81
5.6
1.15
2.9
1320
14
1
14.75 1.73 2.39 11.4
91
3.1
3.69 0.43
2.81
5.4
1.25
2.73
1150
15
1
14.38 1.87 2.38
102
3.3
3.64 0.29
2.96
7.5
1.2
3
1547
16
1
13.63 1.81
0.3
1.46
7.3
1.28
2.88
1310
17
1
14.3
192 2.72
20
120
3.14 0.33
1.97
6.2
1.07
2.65
1280
18
1
13.83 1.57 2.62
20
115 2.95
3.4
0.4
1.72
6.6
1.13
2.57
1130
19
1
14.19 1.59 2.48 16.5
108
3.3
3.93 0.32
1.86
8.7
1.23
2.82
1680
20
1
13.64
116
2.7
3.03 0.17
1.66
5.1
0.96
3.36
845
21
1
14.06 1.63 2.28
126
3
3.17 0.24
2.1
5.65
1.09
3.71
780
22
1
12.93
2.65 18.6
102 2.41 2.41 0.25
1.98
4.5
1.03
3.52
770
23
1
13.71 1.86 2.36 16.6
101 2.61 2.88 0.27
1.69
3.8
1.11
4
1035
24
1
12.85
1.6
95
2.48 2.37 0.26
1.46
3.93
1.09
3.63
1015
25
1
13.5
1.81 2.61
20
96
2.53 2.61 0.28
1.66
3.52
1.12
3.82
845
26
1
13.05 2.05 3.22
25
124 2.63 2.68 0.47
1.92
3.58
1.13
3.2
830
27
1
13.39 1.77 2.62 16.1
93
2.85 2.94 0.34
1.45
4.8
0.92
3.22
1195
28
1
13.3
1.72 2.14
94
2.4
2.19 0.27
1.35
3.95
1.02
2.77
1285
29
1
13.87
1.9
30
1
14.02 1.68 2.21
31
1
13.73
32
1
33
1.76 2.45 15.2
2.16
3.1 3.8
2.3
2.7
16 12 17.2
2.56 15.2 16
2.52 17.8
2.8
107 2.95 2.97 0.37
1.76
4.5
1.25
3.4
915
96
1.98
4.7
1.04
3.59
1035
22.5
101
3.25 0.29
2.38
5.7
1.19
2.71
1285
13.58 1.66 2.36 19.1
106 2.86 3.19 0.22
1.95
6.9
1.09
2.88
1515
1
13.68 1.83 2.36 17.2
104 2.42 2.69 0.42
1.97
3.84
1.23
2.87
990
34
1
13.76 1.53
2.7
19.5
132 2.95 2.74
0.5
1.35
5.4
1.25
3
1235
35
1
13.51
2.65
19
110 2.35 2.53 0.29
1.54
4.2
1.1
2.87
1095
36
1
13.48 1.81 2.41 20.5
100
5.1
1.04
3.47
920
37
1
13.28 1.64 2.84 15.5
38
1
13.05 1.65 2.55
18
39
1
13.07
40
1
1.8
2.7
19.4
112 2.85 2.91
16
1.5
2.8
17
2.8
3.24
2.65 2.33 0.26 3
2.7
2.98 0.26
1.86
110
2.6
2.68 0.34
1.36
4.6
1.09
2.78
880
98
2.45 2.43 0.29
1.44
4.25
1.12
2.51
1105
15.5
98
2.4
2.64 0.28
1.37
3.7
1.18
2.69
1020
14.22 3.99 2.51 13.2
128
3
3.04
2.08
5.1
0.89
3.53
760
1.5
2.1
0.2
22 41
1
13.56 1.71 2.31 16.2
117 3.15 3.29 0.34
2.34
6.13
0.95
3.38
795
42
1
13.41 3.84 2.12 18.8
90 2.45 2.68 0.27
1.48
4.28
0.91
3
1035
43
1
13.88 1.89 2.59
101 3.25 3.56 0.17
1.7
5.43
0.88
3.56
1095
44
1
13.24 3.98 2.29 17.5
103 2.64 2.63 0.32
1.66
4.36
0.82
3
680
45
1
13.05 1.77
107
0.28
2.03
5.04
0.88
3.35
885
46
1
14.21 4.04 2.44 18.9
111 2.85 2.65
0.3
1.25
5.24
0.87
3.33
1080
47
1
14.38 3.59 2.28
16
102 3.25 3.17 0.27
2.19
4.9
1.04
3.44
1065
48
1
13.9
1.68 2.12
16
101
3.39 0.21
2.14
6.1
0.91
3.33
985
49
1
14.1
2.02
18.8
103 2.75 2.95 0.32
2.38
6.2
1.07
2.75
1060
50
1
13.94 1.73 2.27 17.4
108 2.88 3.54 0.32
2.08
8.9
1.12
3.1
1260
51
1
13.05 1.73 2.04 12.4
92 2.72 3.27 0.17
2.91
7.2
1.12
2.91
1150
52
1
13.83 1.65
17.2
94 2.45 2.99 0.22
2.29
5.6
1.24
3.37
1265
53
1
13.82 1.75 2.42
14
111 3.88 3.74 0.32
1.87
7.05
1.01
3.26
1190
54
1
13.77
2.68 17.1
115
3
2.79 0.39
1.68
6.3
1.13
2.93
1375
55
1
13.74 1.67 2.25 16.4
118
2.6
2.9
0.21
1.62
5.85
0.92
3.2
1060
56
1
13.56 1.73
2.4
20.5
116 2.96 2.78
0.2
2.45
6.25
0.98
3.03
1120
57
1
14.22
2.3
16.3
118
3.2
0.26
2.03
6.38
0.94
3.31
970
58
1
13.29 1.97 2.68 16.8
102
3
3.23 0.31
1.66
6
1.07
2.84
1270
59
1
13.72 1.43
108
3.4
3.67 0.19
2.04
6.8
0.89
2.87
1285
60
2
12.37 0.94 1.36 10.6
88 1.98 0.57 0.28
0.42
1.95
1.05
1.82
520
61
2
12.33
101 2.05 1.09 0.63
0.41
3.27
1.25
1.67
680
62
2
12.64 1.36 2.02 16.8
100 2.02 1.41 0.53
0.62
5.75
0.98
1.59
450
63
2
13.67 1.25 1.92
18
94
2.1
1.79 0.32
0.73
3.8
1.23
2.46
630
64
2
12.37 1.13 2.16
19
87
3.5
3.1
0.19
1.87
4.45
1.22
2.87
420
65
2
12.7
19
104 1.89 1.75 0.45
1.03
2.95
1.45
2.23
355
66
2
12.37 1.21 2.56 18.1
98 2.42 2.65 0.37
2.08
4.6
1.19
2.3
678
67
2
13.11 1.01
78 2.98 3.18 0.26
2.28
5.3
1.12
3.18
502
68
2
12.37 1.17 1.92 19.6
78 2.11
2
0.27
1.04
4.68
1.12
3.48
510
69
2
13.34 0.94 2.36
110 2.53
1.3
0.55
0.42
3.17
1.02
1.93
750
70
2
12.21 1.19 1.75 16.8
151 1.85 1.28 0.14
2.5
2.85
1.28
3.07
718
71
2
12.29 1.61 2.21 20.4
103
1.02 0.375
1.46
3.05 0.906
1.82
870
72
2
13.86 1.51 2.67
25
86 2.95 2.86 0.21
1.87
3.38
1.36
3.16
410
73
2
13.49 1.66 2.24
24
87 1.88 1.84 0.27
1.03
3.74
0.98
2.78
472
74
2
12.99 1.67
2.6
30
139
2.89 0.21
1.96
3.35
1.31
3.5
985
75
2
11.96 1.09
2.3
21
101 3.38 2.14 0.13
1.65
3.21
0.99
3.13
886
76
2
11.66 1.88 1.92
16
97 1.61 1.57 0.34
1.15
3.8
1.23
2.14
428
77
2
13.03
1.71
16
86 1.95 2.03 0.24
1.46
4.6
1.19
2.48
392
78
2
11.84 2.89 2.23
18
112 1.72 1.32 0.43
0.95
2.65
0.96
2.52
500
79
2
12.33 0.99 1.95 14.8
136
1.85 0.35
2.76
3.4
1.06
2.31
750
80
2
12.7
3.87
2.4
23
101 2.83 2.55 0.43
1.95
2.57
1.19
3.13
463
81
2
12
0.92
2
19
86 2.42 2.26
0.3
1.43
2.5
1.38
3.12
278
82
2
12.72 1.81
2.2
18.8
86
2.2
2.53 0.26
1.77
3.9
1.16
3.14
714
83
2
12.08 1.13 2.51
24
78
2
1.58
1.4
2.2
1.31
2.72
630
1.9
1.7
1.1
2.1
2.4
2.6
2.5 2.28
1.45 2.53
0.9
1.7
15 17
16.7 16
15 17
3
3.1
1.1
3.3
1.9
3
3
0.4
23 84
2
13.05 3.86 2.32 22.5
85
1.65 1.59 0.61
1.62
4.8
0.84
2.01
515
85
2
11.84 0.89 2.58
18
94
2.2
2.21 0.22
2.35
3.05
0.79
3.08
520
86
2
12.67 0.98 2.24
18
99
2.2
1.94
0.3
1.46
2.62
1.23
3.16
450
87
2
12.16 1.61 2.31 22.8
90
1.78 1.69 0.43
1.56
2.45
1.33
2.26
495
88
2
11.65 1.67 2.62
88
1.92 1.61
0.4
1.34
2.6
1.36
3.21
562
89
2
11.64 2.06 2.46 21.6
84
1.95
1.6
0.48
1.35
2.8
1
2.75
680
90
2
12.08 1.33
23.6
70
2.2
1.59 0.42
1.38
1.74
1.07
3.21
625
91
2
12.08 1.83 2.32 18.5
81
1.6
1.5
0.52
1.64
2.4
1.08
2.27
480
92
2
86
1.45 1.25
0.5
1.63
3.6
1.05
2.65
450
93
2
12.69 1.53 2.26 20.7
80
1.38 1.46 0.58
1.62
3.05
0.96
2.06
495
94
2
12.29 2.83 2.22
18
88
2.45 2.25 0.25
1.99
2.15
1.15
3.3
290
95
2
11.62 1.99 2.28
18
98
3.02 2.26 0.17
1.35
3.25
1.16
2.96
345
96
2
12.47 1.52
19
162
2.5
2.27 0.32
3.28
2.6
1.16
2.63
937
97
2
11.81 2.12 2.74 21.5
134
1.6 0.099 0.14
1.56
2.5
0.95
2.26
625
98
2
12.29 1.41 1.98
16
85
2.55
0.29
1.77
2.9
1.23
2.74
428
99
2
12.37 1.07
18.5
88
3.52 3.75 0.24
1.95
4.5
1.04
2.77
660
100
2
12.29 3.17 2.21
18
88
2.85 2.99 0.45
2.81
2.3
1.42
2.83
406
101
2
12.08 2.08
1.7
17.5
97
2.23 2.17 0.26
1.4
3.3
1.27
2.96
710
102
2
12.6
1.9
18.5
88
1.45 1.36 0.29
1.35
2.45
1.04
2.77
562
103
2
12.34 2.45 2.46
21
98
2.56 2.11 0.34
1.31
2.8
0.8
3.38
438
104
2
11.82 1.72 1.88 19.5
86
2.5
1.64 0.37
1.42
2.06
0.94
2.44
415
105
2
12.51 1.73 1.98 20.5
85
2.2
1.92 0.32
1.48
2.94
1.04
3.57
672
106
2
12.42 2.55 2.27
22
90
1.68 1.84 0.66
1.42
2.7
0.86
3.3
315
107
2
12.25 1.73 2.12
19
80
1.65 2.03 0.37
1.63
3.4
1
3.17
510
108
2
12.72 1.75 2.28 22.5
84
1.38 1.76 0.48
1.63
3.3
0.88
2.42
488
109
2
12.22 1.29 1.94
19
92
2.36 2.04 0.39
2.08
2.7
0.86
3.02
312
110
2
11.61 1.35
20
94
2.74 2.92 0.29
2.49
2.65
0.96
3.26
680
111
2
11.46 3.74 1.82 19.5
107 3.18 2.58 0.24
3.58
2.9
0.75
2.81
562
112
2
12.52 2.43 2.17
21
88
1.22
2
0.9
2.78
325
113
2
11.76 2.68 2.92
20
100 1.75 2.03
0.6
1.05
3.8
1.23
2.5
607
114
2
11.41 0.74
2.5
21
88
2.48 2.01 0.42
1.44
3.08
1.1
2.31
434
115
2
12.08 1.39
2.5
22.5
84
2.56 2.29 0.43
1.04
2.9
0.93
3.19
385
116
2
11.03 1.51
2.2
21.5
85
2.46 2.17 0.52
2.01
1.9
1.71
2.87
407
117
2
11.82 1.47 1.99 20.8
86
1.98
0.3
1.53
1.95
0.95
3.33
495
118
2
12.42 1.61 2.19 22.5
108
2
2.09 0.34
1.61
2.06
1.06
2.96
345
119
2
12.77 3.43 1.98
16
80
1.63 1.25 0.43
0.83
3.4
0.7
2.12
372
120
2
12
3.43
2
19
87
2
1.64 0.37
1.87
1.28
0.93
3.05
564
121
2
11.45
2.4
2.42
20
96
2.9
2.79 0.32
1.83
3.25
0.8
3.39
625
122
2
11.56 2.05 3.23 28.5
119 3.18 5.08 0.47
1.87
6
0.93
3.69
465
123
2
12.42 4.43 2.73 26.5
100
2.2
1.71
2.08
0.92
3.12
365
124
2
13.05
86
2.62 2.65
0.3
2.01
2.6
0.73
3.1
380
125
2
11.87 4.31 2.39
21
82
2.86 3.03 0.21
2.91
2.8
0.75
3.64
380
126
2
12.07 2.16 2.17
21
85
2.6
1.35
2.76
0.86
3.28
378
12
2.3
1.51 2.42
1.34
5.8
2.2
2.1
2.7
26
22
2.13 21.5
2.5
2.55 2.27 0.26
1.6
2.13 0.43
2.65 0.37
24 127
2
12.43 1.53 2.29 21.5
86 2.74 3.15 0.39
1.77
3.94
0.69
2.84
352
128
2
11.79 2.13 2.78 28.5
92 2.13 2.24 2.58
1.76
3
0.97
2.44
466
129
2
12.37 1.63
2.3
24.5
88 2.22 2.45
0.4
1.9
2.12
0.89
2.78
342
130
2
12.04
2.38
22
80
1.75 0.42
1.35
2.6
0.79
2.57
580
131
3
12.86 1.35 2.32
18
122 1.51 1.25 0.21
0.94
4.1
0.76
1.29
630
132
3
12.88 2.99
2.4
20
104
1.22 0.24
0.83
5.4
0.74
1.42
530
133
3
12.81 2.31
2.4
24
98 1.15 1.09 0.27
0.83
5.7
0.66
1.36
560
134
3
12.7
3.55 2.36 21.5
106
1.7
1.2
0.17
0.84
5
0.78
1.29
600
135
3
12.51 1.24 2.25 17.5
85
2
0.58
0.6
1.25
5.45
0.75
1.51
650
136
3
12.6
18.5
94 1.62 0.66 0.63
0.94
7.1
0.73
1.58
695
137
3
12.25 4.72 2.54
21
89 1.38 0.47 0.53
0.8
3.85
0.75
1.27
720
138
3
12.53 5.51 2.64
25
96 1.79
0.63
1.1
5
0.82
1.69
515
139
3
13.49 3.59 2.19 19.5
88 1.62 0.48 0.58
0.88
5.7
0.81
1.82
580
140
3
12.84 2.96 2.61
24
101 2.32
0.6
0.53
0.81
4.92
0.89
2.15
590
141
3
12.93 2.81
2.7
21
96 1.54
0.5
0.53
0.75
4.6
0.77
2.31
600
142
3
13.36 2.56 2.35
20
89
0.5
0.37
0.64
5.6
0.7
2.47
780
143
3
13.52 3.17 2.72 23.5
97 1.55 0.52
0.5
0.55
4.35
0.89
2.06
520
144
3
13.62 4.95 2.35
92
0.47
1.02
4.4
0.91
2.05
550
145
3
12.25 3.88
112 1.38 0.78 0.29
1.14
8.21
0.65
2
855
146
3
13.16 3.57 2.15
21
102
1.3
4
0.6
1.67
830
147
3
13.88 5.04 2.23
20
80 0.98 0.34
0.4
0.68
4.9
0.58
1.33
415
148
3
12.87 4.61 2.48 21.5
86
0.65 0.47
0.86
7.65
0.54
1.86
625
149
3
13.32 3.24 2.38 21.5
92 1.93 0.76 0.45
1.25
8.42
0.55
1.62
650
150
3
13.08
3.9
113 1.41 1.39 0.34
1.14
9.4
0.57
1.33
550
151
3
13.5
3.12 2.62
24
123
1.57 0.22
1.25
8.6
0.59
1.3
500
152
3
12.79 2.67 2.48
22
112 1.48 1.36 0.24
1.26
10.8
0.48
1.47
480
153
3
13.11
1.9
2.75 25.5
116
2.2
1.28 0.26
1.56
7.1
0.61
1.33
425
154
3
13.23
3.3
2.28 18.5
98
1.8
0.83 0.61
1.87 10.52 0.56
1.51
675
155
3
12.58 1.29
2.1
20
103 1.48 0.58 0.53
1.4
156
3
13.17 5.19 2.32
22
93 1.74 0.63 0.61
157
3
13.84 4.12 2.38 19.5
89
1.8
0.83 0.48
158
3
12.45 3.03 2.64
27
97
1.9
159
3
14.34 1.68
25
98
160
3
13.48 1.67 2.64 22.5
161
3
12.36 3.83 2.38
162
3
163
4.3
2.46
2.2
2.2
20 18.5
2.36 21.5
2.1 1.3
1.4 2 1.5 1.7
1.4
0.6
0.8
0.55 0.43
7.6
0.58
1.55
640
1.55
7.9
0.61
1.48
725
1.56
9.01
0.57
1.64
480
0.58 0.63
1.14
7.5
0.67
1.73
880
2.8
1.31 0.53
2.7
13
0.57
1.96
660
89
2.6
1.1
0.52
2.29 11.75 0.57
1.78
620
21
88
2.3
0.92
0.5
1.04
7.65
0.56
1.58
520
13.69 3.26 2.54
20
107 1.83 0.56
0.5
0.8
5.88
0.96
1.82
680
3
12.85 3.27 2.58
22
106 1.65
0.6
0.6
0.96
5.58
0.87
2.11
570
164
3
12.96 3.45 2.35 18.5
106 1.39
0.7
0.4
0.94
5.28
0.68
1.75
675
165
3
13.78 2.76
90 1.35 0.68 0.41
1.03
9.58
0.7
1.68
615
166
3
13.73 4.36 2.26 22.5
88 0.128 0.47 0.52
1.15
6.62
0.78
1.75
520
167
3
13.45
3.7
2.6
23
111
1.46 10.68 0.85
1.56
695
168
3
12.82 3.37
2.3
19.5
0.97 10.26 0.72
1.75
685
169
3
13.58 2.58 2.69 24.5
1.54
1.8
750
2.7
2.3
22
1.7
0.92 0.43
88 1.48 0.66
0.4
105 1.55 0.84 0.39
8.66
0.74
25 170
3
13.4
4.6
2.86
25
112 1.98 0.96 0.27
1.11
8.5
0.67
1.92
630
171
3
12.2
3.03 2.32
19
96
1.25 0.49
0.4
0.73
5.5
0.66
1.83
510
172
3
12.77 2.39 2.28 19.5
86
1.39 0.51 0.38
0.64
9.89
0.57
1.63
470
173
3
14.16 2.51 2.48
91
1.68
0.44
1.24
9.7
0.62
1.71
660
174
3
13.71 5.65 2.45 20.5
95
1.68 0.61 0.52
1.06
7.7
0.64
1.74
740
175
3
13.4
3.91 2.48
23
102
1.8
0.75 0.43
1.41
7.3
0.7
1.56
750
176
3
13.27 4.28 2.26
20
120 1.59 0.69 0.43
1.35
10.2
0.59
1.56
835
177
3
13.17 2.59 2.37
10
120 1.65 0.68 0.53
1.46
9.3
0.6
1.62
840
178
3
14.13
96
1.35
9.2
0.61
1.6
560
4.1
20
2.74 24.5
0.7
2.05 0.76 0.56
26 Lampiran 2 Data nilai eigen dan vector eigen untuk fungsi Gauss h0 = 3 Empat vektor eigen terurut
Sepuluh nilai eigen terurut
0.10
0.06
-0.02
0.01
21.94
0.00
0.00
0.00
0.00
0.07
0.01
0.02
0.12
0.00
15.84 0.00
0.00
0.00
0.09
0.04
-0.02
-0.06
0.00
0.00
6.35
0.00
0.00
0.08
0.07
-0.04
0.02
0.00
0.00
0.00
6.11
0.00
0.06
0.01
0.00
-0.20
0.00
0.00
0.00
0.12
0.08
0.01
0.02
4.71
0.00
0.00
0.00
0.00
0.11
0.06
0.05
0.05
0.00
4.03
0.00
0.00
0.00
0.10
0.06
0.06
-0.06
0.00
0.00
3.60
0.00
0.00
0.10
0.05
0.01
0.11
0.00
0.00
0.00
3.31
0.00
0.13
0.05
0.01
0.08
0.00
0.00
0.00
0.00
3.22
0.11
0.07
0.00
0.03
0.09
0.04
0.10
0.06
0.11
0.04
0.08
0.05
0.05
0.04
-0.05
0.05
0.06
0.05
-0.06
0.04
0.10
0.06
0.05
-0.07
-0.01
0.01
-0.08
0.00
0.10
0.06
0.04
-0.10
0.08
0.06
-0.02
0.01
0.11
0.04
0.03
-0.02
0.10
0.05
-0.03
0.03
0.08 -0.03
0.02
-0.12
0.11
0.01
0.05
0.03
0.08 -0.04
0.08
-0.05
0.08 -0.03
0.05
-0.10
0.02
0.01
-0.05
-0.14
0.10
0.03
0.08
-0.03
0.06 -0.01
0.10
0.11
0.10
0.03
0.04
-0.14
0.11
0.02
0.04
0.10
0.08
0.04
0.00
-0.09
0.11
0.07
0.03
0.00
0.10
0.01
0.08
0.01
0.06
0.05
0.02
-0.10
0.09
0.03
0.11
-0.12
0.11
0.00
0.03
-0.05
0.07
0.02
0.08
-0.12
0.07
0.00
0.13
-0.06
0.06 -0.04
0.07
0.14
0.08
-0.03
0.01
0.05
0.00
5.42
27 0.11
0.04
-0.04
0.03
-0.03
-0.10 0.03 -0.12
0.06 -0.03
0.07
0.10
-0.09
-0.01 0.10 -0.03
0.11
0.06
0.01
0.01
0.00
-0.08 -0.07 -0.08
0.06 -0.04
0.03
0.03
0.01
-0.13 0.02 0.04
0.10 -0.01 -0.04
0.08
-0.04
-0.11 0.05 -0.06
0.10
0.05
0.07
-0.02
-0.02
-0.08 -0.01 -0.14
0.13
0.06
0.00
0.07
-0.05
-0.12 0.08 -0.10
0.11
0.04
-0.03
0.11
-0.03
-0.12 0.01 -0.06
0.12
0.06
0.02
0.00
-0.05
-0.11 0.10 0.01
0.11
0.07
-0.01
0.04
-0.06
-0.10 0.10 -0.08
0.05
0.02
-0.07
0.09
-0.07
-0.07 0.13 0.01
0.11
0.05
0.04
-0.02
0.00
-0.15 -0.10 0.04
0.10
0.07
-0.03
0.03
0.00
-0.11 -0.09 0.01
0.11
0.07
0.06
-0.07
0.00
0.01 -0.09 -0.01
0.11
0.05
0.04
0.05
-0.02
0.01 -0.03 -0.05
0.11
0.05
-0.02
-0.03
0.00
-0.12 -0.08 0.15
0.12
0.07
-0.01
0.04
0.04
-0.06 -0.12 0.05
0.12
0.06
0.06
-0.06
0.01
-0.06 -0.12 0.01
0.12
0.07
-0.01
0.01
0.00
-0.09 -0.04 0.17
-0.01
0.00
-0.05
0.06
-0.04
-0.11
-0.04 -0.01
0.09
0.04
-0.01
-0.11 -0.01 -0.11
-0.07
0.00
0.09
0.11
-0.04
-0.13 -0.02 0.10
-0.01 -0.05
0.07
0.14
0.00
-0.14 -0.01 0.10
0.03 -0.08 -0.13
0.04
-0.05
-0.10
0.05 -0.05
-0.02 -0.05
0.06
-0.05
-0.03
-0.15
0.03 0.08
0.03 -0.06
0.01
-0.09
-0.07
-0.08
0.11 -0.03
0.02 -0.04 -0.11
0.13
-0.02
-0.13 -0.08 0.08
-0.01 -0.11 -0.02
0.13
0.02
-0.07 -0.10 -0.13
-0.03
0.01
0.12
0.01
0.00
-0.01 -0.12 0.01
0.00
0.00
-0.09
0.01
-0.03
-0.14 -0.02 0.01
-0.07 -0.01
0.12
0.03
-0.03
-0.03
0.05 -0.14
0.02 -0.03 -0.06
-0.10
-0.03
-0.12
0.01 -0.11
-0.04 -0.07
0.08
-0.02
-0.03
-0.12
0.00 -0.12
0.01
-0.08
-0.06
-0.01
-0.05 -0.09 -0.02
0.03 -0.07 -0.07
-0.04
-0.03
-0.15 -0.02 0.06
-0.03 -0.07
0.02
0.13
-0.02
-0.12
-0.01 -0.07 -0.02
0.20
-0.06
-0.02 0.08 0.12
-0.05 -0.06
0.10
0.03
-0.02
-0.14 -0.02 0.08
0.01
-0.08
0.03
0.01
-0.10 -0.10 -0.09
0.02 -0.10 -0.06
-0.13
0.00
0.01 -0.09 -0.04
-0.01 -0.13 -0.08
0.09
-0.02
-0.07 -0.03 -0.19
0.03 -0.12
0.07
0.00
-0.10 -0.08
0.01
0.00
0.01
0.06 0.16
0.00 -0.04
0.00
28 0.01 -0.06 -0.15
-0.05
-0.07
0.10 -0.13 -0.04
-0.02 -0.15 -0.06
-0.01
-0.10
0.10 -0.05 0.06
-0.01 -0.10 -0.08
-0.05
-0.08
0.10 -0.10 -0.07
-0.01
-0.08
0.00
-0.06
0.08 -0.11 -0.09
-0.03 -0.13 -0.04
-0.10
-0.11
0.05 0.10
-0.06 -0.11
0.07
-0.07
-0.09
0.09 -0.05 0.06
-0.06
0.04
0.05
0.03
-0.09
0.11 -0.10 0.02
-0.10
0.06
0.08
0.03
-0.11
0.11 -0.01 0.01
-0.10
0.07
0.03
0.00
-0.11
0.11 -0.03 -0.04
-0.09
0.05
0.06
0.01
-0.07
0.10 -0.12 0.02
-0.09
0.03
0.10
0.07
-0.03
0.04 -0.07 0.03
-0.11
0.07
0.07
0.07
-0.07
0.09 -0.13 -0.05
-0.10
0.04
0.12
-0.01
-0.04 0.06 -0.16 -0.02
-0.10
0.04
0.07
-0.10
-0.10 0.07 -0.01 0.01
-0.11
0.06
0.12
0.07
-0.09 0.07 0.10 -0.03
-0.08
0.03
0.10
-0.12
-0.10 0.05 0.11 -0.08
-0.10
0.04
0.13
-0.07
-0.11 0.07 0.11 0.05
-0.09
0.05
0.11
0.04
-0.10 0.11 -0.07 0.03
-0.08
0.05
0.10
-0.08
-0.07 0.05 0.00 0.03
-0.09
0.02
0.16
0.02
-0.08
0.07
-0.02
0.06
-0.10
0.06
0.09
0.05
-0.08
0.06
0.03
0.05
-0.12
0.10
0.01
0.01
-0.11
0.11
-0.06
0.02
-0.09
0.11
-0.11
0.01
-0.06
0.08
-0.13
-0.04
-0.07
0.09
-0.15
0.00
-0.06
0.06
-0.11
-0.08
-0.07
0.09
-0.12
0.03
-0.10
0.08
-0.01
0.07
-0.11
0.10
-0.04
0.02
-0.09
0.10
-0.09
0.03
-0.08
0.07
-0.04
-0.07
-0.02
0.04
-0.14
-0.02
0.01
0.05
29
RIWAYAT HIDUP Penulis dilahirkan pada tanggal 29 September 1991 di Sawah Lunto Sijunjung Sumatera Barat, sebagai puteri kedua dari pasangan berbahagia H Asrial dan Hj Mardawilis. Penulis lulus dari SMA Islam PB Soedirman Jakarta dan melanjutkan studi di Institut Pertanian Bogor dengan jalur USMI. Selama menjalankan studi di Institut Pertanian Bogor penulis juga mengikuti beberapa organisasi yaitu himpro dan LDF serta beberapa kegiatan didalamnya. Penulis juga pernah menjadi asisten praktikum untuk dua mata kuliah yaitu Kalkulus 2 dan Persamaan Diferensial Parsial, serta menjadi tutor untuk mata kuliah Persamaan Diferensial Parsial.