ANALISIS KOMPONEN UTAMA KERNEL: SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH
PUTRI THAMARA
DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014
PERNYATAAN MENGENAI SKRIPSI DAN SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA Dengan ini saya menyatakan bahwa skripsi berjudul Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah adalah benar karya saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk apapun kepada perguruan tinggi manapun. Sumber informasi yang berasal atau dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini. Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut Pertanian Bogor.
Bogor, November 2014 Putri Thamara NIM G54100050
ABSTRAK PUTRI THAMARA. Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah. Dibimbing oleh SISWADI dan TONI BAKHTIAR. Analisis Komponen Utama Kernel (AKUK) merupakan perluasan dari Analisis Komponen Utama (AKU) yang berguna untuk menyelesaikan masalah data yang takterpisah atau taklinear. AKUK adalah AKU yang diterapkan di ruang fitur, yang merupakan ruang hasil pemetaan objek-objek dari ruang asal. Pada AKUK, data asal dipetakan ke ruang fitur. Namun tidak semua hasil pemetaannya diketahui, sehingga nilai eigen dan vektor eigen hanya dapat diperoleh dari matriks dual hasil pemetaan tersebut di ruang fitur, tidak dari matriks primalnya. Hasil kali dalam dari pemetaan di ruang fitur disebut dengan fungsi kernel. Fungsi kernel polinom memiliki hasil pemetaan yang jelas sehingga pembakuan peubah di ruang fitur dapat dieksplorasi. Pada karya tulis ini, eksplorasi pembakuan peubah diterapkan pada data pengenalan anggur (Forina 1991). Eksplorasi pembakuan peubah tersebut memberikan gambaran bahwa ada perbedaan pada waktu pembakuan dilakukan terhadap konfigurasi yang terbentuk dan terhadap nilai salah klasifikasinya. Perbedaan hasil pembakuan peubah tercermin dari ukuran kemiripan dan nilai salah klasifikasinya. Kata kunci: Analisis Komponen Utama, Analisis Komponen Utama Kernel, Fungsi Kernel Polinom, Pembakuan Peubah
ABSTRACT PUTRI THAMARA. Kernel Principal Component Analysis: an Exploratory Study on Standardization of Variables. Supervised by SISWADI and TONI BAKHTIAR. Kernel Principal Component Analysis (KPCA) is an extension of the Principal Component Analysis (PCA) which are useful to solve the problem of data which are unseparable or nonlinear. The KPCA is also considered as a PCA applied in the feature space. In the KPCA, the original data were mapped into the feature space. However, if they are mapping results are unknown, therefore the eigenvalues and eigenvectors can only be obtained from the dual matrix mapping results in the feature space, not from the primal matrix. An inner product of the mapping in the feature space called the kernel function. The Polynomial kernel function has a clear mapping results, so that standardization of variables in the feature space could be explored. In this paper, exploratory on standardization of variables were applied into the wine recognition datasets (Forina 1991). Exploratory on standardization of the variables illustrate that there is a difference on time of standardization conducted into the configuration and to the missclassification error. The difference in the results of standardization of variables reflected goodness of fit and value of the missclassification error. Keywords: Principal Component Analysis, Kernel Principal Component Analysis, Polynomial Kernel Function, Standardized Variable.
ANALISIS KOMPONEN UTAMA KERNEL: SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH
PUTRI THAMARA
Skripsi sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains pada Departemen Matematika
DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2014
Judul Skripsi : Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah Nama : Putri Thamara NIM : G54100050
Disetujui oleh
Prof Dr Ir Siswadi, MSc Pembimbing I
Dr Toni Bakhtiar, MSc Pembimbing II
Diketahui oleh
Dr Toni Bakhtiar, MSc Ketua Departemen
Tanggal Lulus:
PRAKATA Alhamdulillaahirabbil’aalamiin. Puji dan syukur Penulis panjatkan ke hadirat Alloh SWT atas segala nikmat dan karunia-Nya sehingga karya ilmiah ini dapat diselesaikan. Penulis karya ilmiah ini juga tidak lepas dari bantuan dan dukungan dari berbagai pihak. Untuk itu Penulis mengucapkan terimakasih kepada Prof Dr Ir Siswadi, MSc dan Dr Toni Bakhtiar, MSc sebagai dosen pembimbing I dan dosen pembimbing II, serta kepada Bapak Ir Ni Komang Kutha Ardhana, MSc sebagai dosen penguji atas semua ilmu, nasihat, kesabaran, motivasi, dan bimbingannya selama penulisan skripsi ini. Selain itu, Penulis juga mengucapkan terimakasih kepada Kak Wirdania yang telah bersedia manjadi tempat untuk bertanya, Pak Deni yang membantu menginstal software-software yang diperlukan, dan tentunya kepada Mamah dan Bapak yang setiap hari selalu mengingatkan dan mendoakan agar karya tulis ini dapat segera diselesaikan. Semoga karya ilmiah ini dapat bermanfaat dan menjadi inspirasi bagi penelitian-penelitian selanjutnya.
Bogor, November 2014 Putri Thamara
DAFTAR ISI DAFTAR TABEL
viii
DAFTAR GAMBAR
viii
DAFTAR LAMPIRAN
viii
PENDAHULUAN
1
Latar Belakang
1
Tujuan Penelitian
1
TINJAUAN PUSTAKA METODE
2 11
Sumber Data
11
Prosedur Analisis Data
11
HASIL DAN PEMBAHASAN
13
SIMPULAN DAN SARAN
19
Simpulan
19
Saran
19
DAFTAR PUSTAKA
20
LAMPIRAN
21
RIWAYAT HIDUP
31
DAFTAR TABEL 1 Klasifikasi kelompok 13 2 Deskripsi data pengenalan anggur 13 3 Proporsi total varians yang ditampilkan oleh dua komponen utama pertama15 4 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan seluruh komponen utama 16 5 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan dua komponen utama pertama 16 6 Ukuran kesesuaian matriks X terhadap Y dari berbagai kondisi dengan seluruh komponen utama 17 7 Ukuran kesesuaian matriks X terhadap Y dari berbagai kondisi dengan dua komponen utama pertama 17 8 Klasifikasi kelompok data asal tanpa pembakuan (I) 18 18 9 Klasifikasi kelompok data asal terkoreksi atau baku (II) 10 Klasifikasi kelompok menggunakan metode kernel (III) 18
DAFTAR GAMBAR 1 2 3 4
Ilustrasi pemetaan data ke ruang fitur Konfigurasi AKUK primal dengan data asal tanpa pembakuan (I) Konfigurasi AKUK primal dengan data asal terkoreksi atau baku (II) Konfigurasi AKU Kernel dual dengan data asal baku (III)
6 14 14 15
DAFTAR LAMPIRAN 1 Data Pengenalan Anggur (Wine Recognition Data) 2 Data dua komponen utama pertama dari berbagai kondisi 3 Fungsi yang digunakan untuk memperoleh nilai perbedaan minimum antarkonfigurasi 4 Fungsi yang digunakan untuk memperoleh matriks komponen utama menggunakan metode kernel
21 25 29 30
PENDAHULUAN Latar Belakang Permasalahan yang sering muncul dalam penelitian ialah banyaknya peubah yang terlibat sehingga terlalu kompleks untuk langsung diinterpretasikan. Oleh karena itu, diperlukan suatu teknik untuk menyederhanakannya. Dalam statistika, masalah semacam itu umumnya diselesaikan dengan menggunakan analisis peubah ganda. Salah satu jenis analisis peubah ganda adalah Analisis Komponen Utama (AKU), yaitu suatu analisis statistika yang digunakan untuk mereduksi dimensi data berukuran besar dengan mempertahankan sebanyak mungkin informasi yang terkandung pada data asalnya dengan membentuk peubah baru yang tidak berkorelasi yang merupakan kombinasi linear dari peubah-peubah asalnya dan beragam terurut. Peubah baru ini disebut dengan komponen utama. Meskipun AKU sering dan baik digunakan untuk mereduksi dimensi data, namun AKU juga masih memiliki keterbatasan. Keterbatasan yang paling menonjol dari AKU adalah ketidakmampuannya dalam mengatasi masalah data yang taklinear dan tak terpisah. Untuk itu ditemukan perluasan dari AKU, yaitu AKU Kernel. Pada dasarnya, AKU merupakan AKU Kernel dengan fungsi kernel polinom berderajat satu. Pada AKU Kernel ini, terlebih dahulu dilakukan pemetaan data ke ruang fitur sehingga membentuk vektor-vektor baru di ruang fitur. Hasil kali dalam dari vektor-vektor tersebut disebut dengan fungsi kernel. AKU Kernel ini merupakan AKU yang diterapkan di ruang fitur. Pada AKU Kernel, matriks komponen utama dapat diperoleh dari formula primal dan formula dual. Namun pada fungsi kernel yang hasil pemetaan di ruang fiturnya tidak diketahui, formula primal tidak dapat digunakan. Salah satu fungsi kernel yang sering digunakan adalah fungsi kernel polinom. Untuk fungsi kernel ini, hasil pemetaan di ruang fiturnya jelas, sehingga matriks komponen utama dapat diperoleh melalui formula primalnya. Bila peubah asal memiliki varians yang jauh berbeda akan menyebabkan adanya peubah yang memberikan kontribusi varians yang dominan sebagai penentu komponen utama. Salah satu upaya untuk mengendalikannya adalah dengan melakukan pembakuan peubah. Dalam karya tulis ini, akan dilakukan eksplorasi mengenai pengaruh pembakuan peubah yang dilakukan di ruang asal, atau ruang fitur, atau keduanya (ruang asal dan ruang fitur) terhadap konfigurasi yang terbentuk dan terhadap salah klasifikasi yang diperoleh. Untuk menelusuri seberapa jauh berbeda, konfigurasi titik yang diperoleh dari setiap pembakuan perlu dibandingkan. Salah satu teknik analisis yang digunakan untuk membandingkan suatu konfigurasi terhadap konfigurasi yang lainnya ialah Analisis Procrustes (Procrustes Analysis) sehingga menghasilkan suatu ukuran kesesuaian. Selain itu, pengaruh pembakuan peubah juga akan dilihat dari nilai salah klasifikasinya. Tujuan Penelitian Tujuan penelitian ini ialah menelusuri perbedaan hasil berbagai kemungkinan pembakuan peubah dalam AKU Kernel, menentukan kemiripan konfigurasi, serta menentukan nilai salah klasifikasinya.
2
TINJAUAN PUSTAKA Nilai Eigen dan Vektor Eigen Misalkan adalah suatu matriks . Skalar disebut sebagai nilai eigen atau nilai karakteristik dari jika terdapat suatu vektor taknol , sehingga . Vektor disebut vektor eigen atau vektor karakteristik matriks yang bersesuaian dengan . (Leon 2014) Nilai Singular Misalkan adalah suatu matriks . Nilai-nilai singular dari adalah akar dari nilai eigen yang positif dari matriks atau . (Leon 2014) Teras Misalkan Y ( ) adalah suatu matriks . Teras (trace) dari matriks Y atau ditulis tr Y merupakan jumlah elemen-elemen diagonal utama dari Y: tr Y ∑ . (Leon 2014)
Jarak Euclid antara didefinisikan sebagai (
Jarak Euclid dan dari matriks
)
√(
) (
(
) .
)
(Jolliffe 2002)
Analisis Komponen Utama Analisis Komponen Utama (AKU) adalah analisis peubah ganda yang paling tua dan sudah banyak digunakan. Analisis ini pertama kali diperkenalkan oleh Pearson pada tahun 1901 kemudian oleh Hotelling pada tahun 1935 (SchÖlkopf dan Smola 2002). Ide pokok analisis ini ialah mereduksi dimensi data berukuran besar dari data dengan p peubah yang saling berkorelasi dengan mempertahankan sebanyak mungkin variasi yang terdapat pada data. Meskipun dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, namun seringkali variasi ini dapat diwakili oleh k komponen utama pertama, dengan (Jollife 2002), sehingga data asal yang mengandung n objek dengan p peubah dapat direduksi menjadi n objek dengan k komponen utama. Misalkan adalah vektor dengan p peubah acak, ( ) memunyai matriks kovarians Σ dengan nilai eigen . Misalkan kombinasi linear memiliki varians terbesar, dengan merupakan vektor koefisien . Kombinasi linear dapat dituliskan sebagai berikut ∑ . Kombinasi linear kedua, , tidak berkorelasi dengan . Kombinasi linear ini memiliki varians terbesar kedua, dan seterusnya, sehingga kombinasi linear ke-k, , memiliki varians maksimum ke-k dan tidak berkorelasi dengan
3
,…, (
. Dengan demikian terdapat vektor bobot yang tidak diketahui ). merupakan Misalkan X memiliki matriks kovarians dengan elemen kovarians antara peubah ke-i dan peubah ke-j dari X saat dan varians peubah ke-j saat . Jika X memiliki nilai harapan E[X] maka kovarians X ialah sebagai berikut , , -)( , -) - . ,( Misalkan maka , ]= , , dengan varians sebagai berikut , ,( , -)( , -) ,( ,(
[ ])( , -)(
[ , -) -
]) -
, . Untuk menentukan komponen utama pertama, pandang kombinasi linear , pertama dan vektor yang memaksimumkan . Nilai , - dapat terus membesar bila dikalikan dengan suatu konstanta yang lebih besar dari satu maka dibutuhkan batasan , yaitu jumlah kuadrat elemen sama dengan 1. Untuk komponen utama pertama yang ingin memaksimumkan , [ ] dengan kendala dapat diselesaikan melalui persamaan Lagrange berikut ( ) ( ) ( ) dengan adalah pengganda Lagrange, kemudian mencari titik kritis dari persamaan Lagrange dapat dilakukan dengan cara mencari turunan pertama terhadap sebagai berikut:
atau ( ) dengan merupakan matriks identitas berukuran . Dengan demikian merupakan vektor eigen yang bersesuaian. Untuk adalah nilai eigen dari dan menentukan vektor eigen yang memberikan kombinasi linear dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah . , - maksimum maka haruslah merupakan nilai Dengan demikian agar eigen terbesar dari matriks kovarians dan merupakan vektor eigen yang bersesuaian dengan nilai eigen terbesar dari . Komponen utama kedua, , memaksimumkan dengan kendala dan tidak berkorelasi dengan , atau ekuivalen dengan syarat , , - menyatakan kovarians antara peubah , dengan dan peubah . Diperoleh , (1)
4
karena
maka . Didefinisikan kembali fungsi Lagrange ( ) ( ) ( ) ( ) dengan dan adalah pengganda Lagrange, untuk mencari titik kritis dapat diperoleh sebagai berikut . Jika persamaan (2) dikalikan dengan
(2)
didapatkan
Persamaan (1) menjadikan dan karena sehingga persamaan (2) dapat ditulis menjadi
. maka haruslah
,
atau ( ) merupakan persamaan eigen dari matriks . Dengan demikian merupakan nilai eigen dan merupakan vektor eigen yang bersesuaian. Untuk menentukan vektor eigen yang memberikan kombinasi linear dengan varians terbesar, kuantitas yang akan dimaksimumkan ialah . Karena nilai eigen terbesar pertama merupakan varians dari komponen utama pertama maka dipilih nilai eigen terbesar kedua dari matriks . Demikian juga dengan vektor eigen merupakan vektor eigen yang bersesuaian dengan nilai eigen terbesar kedua . Berdasarkan uraian sebelumnya, dapat ditunjukkan bahwa komponen utama ketiga, keempat sampai ke-p, vektor koefisien merupakan vektor eigen yang bersesuaian dengan nilai eigen , secara berturut-turut. Secara umun, komponen utama ke-k dari X adalah dan , ] untuk , ,…, adalah vektor eigen yang dengan merupakan nilai eigen terbesar ke-k dan bersesuaian. Apabila varians antarpeubah memiliki perbedaan cukup besar akan mengakibatkan salah satu peubah menjadi dominan dalam menentukan komponen utama, maka biasanya digunakan matriks korelasi ρ. Bila peubah telah dibakukan sebagai berikut ,
-
√
,
, √
,
-
, ... ,
-
√
maka komponen utama dari [ ] adalah kombinasi linear dari p peubah acak baku, yaitu + +...+ di mana i 1,2, ... , p . Dalam kasus ini ( ), ( ), ... , ( ) adalah pasangan nilai eigen ⁄ ⁄ dan vektor eigen untuk matriks korelasi ρ , dengan ⁄ diag( ) dan λ1 ≥ … ≥ λp > 0. √
√
√
Apabila matriks kovarians populasi dan matriks korelasi dari populasi ρ tidak diketahui, maka dapat diduga dengan matriks kovarians contoh S dan
matriks
korelasi
contoh
⁄
⁄
dengan
5
⁄
(
√
√
√
) , dalam hal ini
adalah matriks data yang
sudah terkoreksi nilai tengahnya. ⁄( ) yang berukuran ( Formulasi primal dianalisis dengan Formulasi primal memiliki permasalahan persamaan eigen sebagai berikut
).
Formulasi primal sangat baik digunakan saat ukuran , sehingga dapat meringkas dalam menyelesaikan masalah persamaan eigen. Selain formulasi primal dijelaskan pula tentang formulasi dual. Formulasi dual dianalisis dengan ⁄( ) yang berukuran ( ) dalam amatan dapat menjadi sangat besar. Formulasi dual memiliki permasalahan persamaan eigen sebagai berikut
dengan adalah nilai eigen dan . Jika persamaan ini dikalikan
adalah vektor eigen yang bersesuaian dengan dari kiri maka akan diperoleh (
)
(
)
proporsional dengan , atau dilambangkan dengan , yaitu sebuah vektor eigen dari matriks kovarians S dengan nilai eigen . Dalam hal ini nilai eigen yang diperoleh dari kedua formulasi adalah sama-sama , dan dengan mengasumsikan vektor eigen adalah vektor satuan ( ) diperoleh . ( ) √
⁄( Jika dan berpangkat * + , ⁄( ) memunyai r nilai eigen taknol yang sama dan bahwa ⁄√( ) dan ⁄√( eigennya saling terkait yaitu Total varians yang dijelaskan oleh komponen utama adalah ∑ merupakan total varians peubah asal, sehingga proporsi total varians komponen utama pertama (Pk) ialah di mana k ≤ p .
) dan vektor ) . yang dari k
Analisis Komponen Utama Kernel Analisis Komponen Utama Kernel (AKUK) adalah suatu analisis yang dapat menunjukkan bentuk taklinear dari AKU. Dengan menggunakan fungsi kernel dapat diperoleh komponen utama secara lebih efisien dalam dimensi yang lebih tinggi di ruang fitur. Dalam AKUK dikenal kernel trick, yaitu suatu cara yang memberikan kemudahan karena hanya cukup mengetahui fungsi kernel yang digunakan dan tidak perlu mengetahui wujud dari fungsi pemetaan taklinearnya. Misalkan dinotasikan pemetaan Φ dari ruang input ke ruang fitur dengan Φ: →Ƒ x → Φ(x) Ƒ
6
Gambar 1 Ilustrasi pemetaan data ke ruang fitur di mana data asal berada dalam ruang dan fitur dalam Ƒ. Permasalahan muncul karena bentuk konkret dan dimensi dari Ƒ tidak semua diketahui. Namun permasalahan tersebut dapat diselesaikan menggunakan kernel trick. Hasil kali dalam dari pemetaan data merupakan fungsi kernel. Kernel adalah sebuah fungsi k di mana memenuhi k( , ) 〈 ( ) ( )〉 . (Shen 2007) Dimensi Ƒ dapat memunyai perubahan dimensi yang besar dan mungkin tak terbatas (Shen 007). Pemetaan Φ mungkin taklinear dan tak dapat dijelaskan secara eksplisit. Matriks data hasil pemetaan di ruang fitur adalah sebagai berikut : ( ) ( ) Φ . ( ( ) ) Matriks Φ berisi n objek dan q peubah, di mana q adalah banyaknya peubah di ruang fitur dan nilainya bisa sangat besar atau tak terbatas. Asumsikan bahwa data dalam ruang fitur memunyai rata-rata nol, yaitu ∑ ( ) 0 , sehingga matriks kovarians memiliki bentuk ∑ ( ) ( ) S yang bersesuaian dengan formulasi primal sebagai berikut . Untuk formulasi dual yang bersesuaian diperoleh , di mana digunakan kembali simbol sebagai nilai eigen dan vektor eigen secara berturut-turut. Seperti pada AKU, nilai eigen taknol untuk formulasi primal dan dual adalah sama dan vektor eigen dihubungkan dengan ⁄√( ⁄√( ) dan ) . Dengan mengganti hasil kali dalam ( ) ( ) pada dengan sebuah fungsi kernel k( , ) yang berasal dari pemetaan , diperoleh ( ) ( ) ( ) ( ) ( ) ( ) , dengan sebagai berikut
) ( ) ( ( adalah matriks berukuran
( )) , dengan persamaan nilai eigen
7
( ) . Permasalahan nilai eigen tersebut memberikan semua solusi dari vektor ( ) eigen dan dari nilai eigen, sehingga dalam hal ini ) . ⁄√( ) dan ⁄√( Pada kenyataannya tidak dapat diasumsikan bahwa data pada ruang fitur sudah terkoreksi terhadap nilai tengahnya. Oleh karena itu agar matriks ( ) ( ) di mana terkoreksi nilai tengah, digunakan ( ) . √ Untuk mendapatkan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal ⁄√( ) ( ) ( ) ) ( ) ( ( ) ( ) ( )) ⁄√( ( ( ) ( ) ( ) ( ) ) ( ) ( )) ⁄√( ( ( ) ( ) ) . ( )) ⁄√( Berikut merupakan tiga fungsi kernel yang biasa digunakan
Gauss : k(
Polinom : k( Sigmoid : k(
)
‖
.
exp( ) )
( tanh(k(
‖
/ ),
) , ) + θ) .
Sebelum menggunakan fungsi kernel, harus ditentukan terlebih dahulu fungsi k( , ) untuk memastikan bahwa fungsi tersebut adalah fungsi kernel untuk beberapa ruang fitur. Oleh karena itu, perlu diketahui beberapa hal yang berhubungan dengan fungsi kernel, yaitu: 1. Fungsi kernel harus simetrik ( , ) 〈 ( ) ( )〉 〈 ( ) ( )〉 k( , ) . 2. Memenuhi ketaksamaan Cauchy-Schwarz 〈 ( ) ( )〉 ( ) ‖ ( )‖ ‖ ( )‖ 〈 ( ) ( )〉 〈 ( ) ( ) ( ).
( )〉
Misalkan pemetaan ke ruang fitur diberikan sebagai berikut : x = ( , ) → (x) = ( ). √ Pemetaan mengambil data dari ruang input dua dimensi dan memetakan ke ruang fitur tiga dimensi. Komposisi dari pemetan fitur dengan hasil kali dalam pada ruang fitur dapat dievaluasi sebagai berikut: 〈 ( ) ( ) 〉 〈( )( )〉 √ √ 〈
〉 .
〈
〉
Karenanya, fungsi k(x, )
8
merupakan sebuah fungsi kernel dengan ruang fitur yang bersesuaian. Hal tersebut berarti dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam ruang fitur tanpa mengevaluasi koordinatnya secara eksplisit. Dekomposisi Nilai Singular (DNS) dapat dinyatakan sebagai bentuk Setiap matriks yang berdimensi Dekomposisi Nilai Singular (DNS) sebagai berikut: (Jolliffe 2002), di mana dan masing-masing dengan kolom ortonormal, * +. merupakan pangkat matriks dengan , dengan merupakan matriks identitas berukuran . (√ √ √ ) dengan dan √ merupakan nilai singular dari matriks . ( ) adalah matriks yang kolom-kolomnya terdiri Matriks atas vektor eigen yang ortonormal dan berpadanan dengan nilai eigen taknol i dari matriks dalam bentuk (
)
(
√
√
√
).
( ) adalah matriks yang kolom-kolomnya Matriks merupakan vektor eigen yang ortonormal dan berpadanan dengan nilai eigen taknol i dari matriks dalam bentuk (
)
(
√
√
√
).
Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) Setiap matriks berdimensi dapat dinyatakan sebagai bentuk Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) sebagai berikut: di mana dengan adalah matriks identitas berukuran n, 3) dengan adalah matriks identitas berukuran , dan (√ √ √ ) ). ( * +. Matriks Dalam hal ini merupakan pangkat matriks dengan ( ) adalah matriks yang kolom-kolomnya terdiri atas vektor eigen yang ortonormal. Vektor eigen berpadanan dengan nilai eigen taknol (i = 1, 2, r) seperti pada DNS matriks Y dan vektor eigen nol (i ( ) adalah r+1, r+2, , ) dari matriks . Matriks matriks yang kolom-kolomnya terdiri atas vektor eigen yang ortonormal. Vektor eigen berpadanan dengan nilai eigen taknol (i = 1, 2, r) seperti pada DNS matriks Y dan vektor eigen nol (i r+1, r+2, , ) dari matriks . Vektor-vektor eigen dan yang berpadanan dengan nilai eigen taknol ( ) memiliki keterkaitan seperti pada DNS, yaitu √
atau
√
.
9
Analisis Procrustes Misalkan adalah matriks berukuran dan berukuran yang masing-masing merupakan representasi konfigurasi yang akan dibandingkan. Koordinat titik ke- pada ruang Euclid diberikan oleh nilai-nilai pada baris kematriks. Konfigurasi pertama berada pada ruang berdimensi dan titik kememiliki koordinat ( ), sedangkan konfigurasi kedua berada pada ruang berdimensi dan titik ke- memiliki koordinat ( ). Jika maka konfigurasi kedua berada dalam subruang dari ruang berdimensi . Perbedaan dimensi ruang ini dapat diselesaikan dengan memasangkan kolom nol di kolom mana saja termasuk memasangkan di kolom terakhir dari sehingga menjadi matriks berukuran (Siswadi et al. 2012). Dengan demikian, tanpa mengurangi keumuman dapat diasumsikan bahwa . Untuk menentukan nilai perbedaan dari konfigurasi dan , jarak Procrustes menggunakan jumlah kuadrat jarak antartitik yang bersesuaian, yaitu: (
)
∑ ∑(
)
( ) ( ). (3) Nilai perbedaan minimum dihitung dengan menggunakan tiga transformasi geometris yaitu translasi, rotasi, dan dilasi yang diberikan oleh Bakhtiar dan Siswadi (2011). 1. Translasi Misalkan ( ), maka sentroid kolom dari matriks dinotasikan sebagai ∑ ( ), di mana , . Dalam analisis Procrustes, translasi diartikan sebagai proses pemindahan seluruh titik dengan jarak yang tetap dan arah yang sama. ( ) ∑ ∑ [( ) ( )] ∑ ∑ [( ) ( )] ( ) ∑ ( ) . Penguraian persamaan (4) menghasilkan ( ) ( )
(4)
∑ ( ) . dan merupakan konfigurasi dan setelah ditranslasi. dan masing-masing adalah sentroid kolom dari dan , merupakan vektor kolom berukuran yang semua unsurnya bernilai 1, sedangkan merupakan jarak kuadrat dari kedua sentroid kolom dan . Penyesuaian optimal dengan translasi dapat dilakukan dengan menghimpitkan sentroid kolom dan sehingga . Dengan demikian, nilai perbedaan minimum dari konfigurasi dan setelah dilakukan penyesuaian optimal dengan translasi ialah ( ) ( ) ∑ ∑ [( ) ( )] . 2. Rotasi Rotasi merupakan proses pemindahan seluruh konfigurasi titik dengan sudut yang tetap tanpa mengubah jarak setiap titik terhadap sentroidnya. Rotasi di mana
10
terhadap dilakukan dengan mengalikan matriks dengan matriks ortogonal , dengan . Nilai perbedaan minimum dari konfigurasi dan setelah dilakukan penyesuaian dengan rotasi ialah ( ) ( ). Berdasarkan persamaan (3), nilai perbedaan pada penyesuaian dengan rotasi dapat dituliskan sebagai ( ) ( ) ( ) ( ) ( ) ( ). ) yang maksimum akan meminimumkan ( ) . Jadi, Nilai ( ) . adalah harus dipilih matriks ortogonal yang memaksimumkan ( matriks ortogonal yang diperoleh dari Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) matriks . Jika DNSBL matriks adalah , maka Q . Dengan menggunakan matriks Q tersebut, nilai perbedaan minimum dari konfigurasi dan setelah dilakukan penyesuaian optimal dengan rotasi ialah ( ) ( ) ( ) ( ) ( ) ( ) ( ). 3. Dilasi Dilasi merupakan proses penskalaan data melalui pembesaran/pengecilan jarak setiap titik dalam konfigurasi terhadap sentroidnya. Dilasi terhadap dilakukan dengan cara mengalikan konfigurasi dengan suatu skalar . Nilai perbedaan minimum dari dua konfigurasi dan setelah dilakukan penyesuaian dengan dilasi ialah ). ( ) ( Berdasarkan persamaan (3), nilai perbedaan pada penyesuaian dengan dilasi dapat dituliskan sebagai ( ) ( ) ( ) ( ) ( ). ( ) (5) Persamaan (5) merupakan bentuk fungsi kuadrat dengan variabel sehingga ), turunan pertamanya harus sama dengan untuk meminimumkan nilai ( nol dan turunan keduanya lebih besar dari nol.
(
)
(
)
(
)
(
)
(
)
(
)
(
)
(
)
(
(
(6)
8)
)
.
( ) minimum pada saat memiliki nilai seperti pada persamaan (6). Dengan menyubstitusikan nilai , nilai perbedaan minimum setelah penyesuaian optimal dengan dilasi menjadi (
)
(
)
(
)
(
)
.
11
Dengan menggunakan aljabar sederhana, secara analitik telah dibuktikan bahwa dalam analisis Procrustes, urutan pengerjaan yang menghasilkan jarak paling minimum adalah translasi-rotasi-dilasi. Bukti dapat dilihat di Bakhtiar dan Siswadi (2011). Ukuran kesesuaian analisis Procrustes diberikan sebagai berikut ( ) ( ) ( )
( ) merupakan nilai perbedaan minimum translasi, rotasi dan dengan dilasi dari matriks X terhadap matriks Y.
METODE Sumber Data Data yang digunakan dalam karya ilmiah ini adalah data sekunder yang diperoleh dari internet, yaitu data pengenalan anggur (Forina 1991). Data ini adalah hasil analisis kimia dari anggur yang tumbuh di daerah yang sama di Italia, tetapi berasal dari tiga budidaya/kultivar yang berbeda. Data tersebut terdiri atas 178 objek dan 13 peubah yaitu kadar alkohol (alcohol), kadar asam malat (malic acid), banyaknya abu (ash), banyaknya alkali pada abu (alcanity of ash), kadar magnesium (magnesium), kadar fenol (total phenols), kadar flavonoid (flavonoids), kadar fenol bukan flavonoid (nonflavonoids phenols), kadar proanthosianin (proanthocyanins), intensitas warna (color intensity), warna berdasarkan tingkat kecerahannya (hue), anggur yang diencerkan pada OD280/OD315 (OD280/OD315 of diluted wines), dan kadar prolina (proline). Dari 178 objek terbagi ke dalam 3 kelompok yaitu kelompok anggur yang berasal dari budidaya 1, budidaya 2, dan budidaya 3 yang banyaknya objek dari tiap kelompok berturut-turut adalah 59, 71, dan 48 objek. Prosedur Analisis Data Pada karya tulis ini, matriks data di ruang asal yang bedimensi 178 13 diperluas menjadi matriks data berdimensi 178 105 di ruang fitur. Perluasan ini didasarkan pada pemetaan kernel polinom berderajat 2 dengan parameter . Hal tersebut menyebabkan matriks data hasil pemetaan di ruang fitur merupakan komposisi dari bentuk konstanta, linear, cross product, dan kuadratik dari peubahpeubah asalnya. Secara umum, matriks berukuran 178 105 tersebut dibakukan, selanjutnya dicari model primalnya (bersesuaian dengan matriks korelasi di ruang fitur) kemudian didapatkan nilai eigen dan vektor eigen yang merupakan solusi dari persamaan nilai eigennya. Kemudian untuk menggambarkan konfigurasi, diambil dua komponen utama yang diperoleh dari dua nilai eigen terbesar pertama. Eksplorasi dilakukan terhadap tiga kondisi, yaitu: I. Matriks data asli dipetakan ke ruang fitur kemudian dibakukan di ruang fitur. Selanjutnya matriks data baku di ruang fitur dikerjakan menggunakan AKU.
12
II. Matriks data asli terkoreksi atau baku dipetakan ke ruang fitur. Setelah itu hasil pemetaan di ruang fitur dibakukan. Selanjutnya matriks data baku di ruang fitur dikerjakan menggunakan AKU. (Catatan: Matriks data hasil pembakuan di ruang fitur baik pada matriks data asal terkoreksi maupun matriks data asal baku adalah sama). III. Matriks data asal yang sudah baku dikerjakan menggunakan metode Kernel dengan fungsi kernel polinom berderajat 2 dan parameter . Berikut adalah tahapan yang dilakukan untuk mengerjakan menggunakan metode kernel: 1. Menentukan fungsi kernel yang akan digunakan, dalam hal ini fungsi kernel polinom berderajat 2 dengan parameter . Kemudian menghitung matriks kernel yang elemen-elemennya adalah fungsi kernel = k( )=( ) yang merupakan hasil kali dalam dari vektor-vektor di ruang fitur. ( ) ( ) di mana 2. Mengoreksi matriks kernel dengan ( ) . √
dengan 3. Menyelesaikan permasalahan nilai eigen dari matriks ( ) persamaan . Dua vektor eigen yang bersesuaian dengan dua nilai eigen terbesar pertama kemudian dijadikan sebagai koefisien-koefisien pada komponen utama 1 dan komponen utama 2. 4. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal ) ( ) ( ) /√( ( ( ) , ) ( ) ( )) √( di mana i 1, 2 . Setelah diperoleh matriks-matriks komponen utamanya, kemudian divisualisasikan menjadi konfigurasi atau plot pencaran menggunakan software Minitab. Dari konfigurasi-konfigurasi tersebut akan diperoleh gambaran bagaimana perbedaan plot pencaran dari masing-masing pembakuan secara visual. Untuk memperoleh ukuran kesesuaiannya, pertama-tama dicari terlebih dahulu nilai perbedaan minimum antar konfigurasi dengan melakukan ( )). Selanjutnya adalah mencari penyesuaian translasi, rotasi, dan dilasi ( ukuran kesesuaian (goodness of fit) dari analisis Procrustes yaitu ( ) ( ) ( ) 100% . ( ) Salah satu tolok ukur dalam menentukan keberhasilan suatu klasifikasi adalah dengan melihat nilai salah klasifikasinya (misclassification error). Semakin kecil nilai salah klasifikasinya maka semakin baik. Pengklasifikasian yang dilakukan dalam karya tulis ini menggunakan jarak Euclid untuk ruang dimensi dua dengan menghitung kuadrat jarak terkecil antara objek baru ) menggunakan dua komponen utama pertama terhadap rataan dari setiap ( , kelompok, yaitu rataan kelompok 1 ( ̅ ), rataan kelompok 2 ( ̅ ), dan rataan kelompok 3 ( ̅ ) sebagai berikut ( ̅ ) ( ̅ ) ( ̅ ) di mana k = . * +. Objek masuk ke dalam kelompok k jika Hasil klasifikasi kelompok yang diperoleh akan disajikan dalam tabel seperti pada Tabel 1.
13
Tabel 1 Klasifikasi kelompok Kelompok Prediksi (j) 1 2 3
Kelompok asal (k)
Total
1 2 3 Total Salah Klasifikasi (SK)
(
∑
)
, dengan
banyaknya
anggota kelompok k yang diklasifikasikan ke dalam kelompok j.
HASIL DAN PEMBAHASAN Data yang digunakan dalam karya ilmiah ini adalah data sekunder yang diperoleh dari internet, yaitu data pengenalan anggur (Forina 1991). Data ini adalah hasil analisis kimia dari anggur yang tumbuh di daerah yang sama di Italia, tetapi berasal dari tiga budidaya/kultivar yang berbeda. Data tersebut terdiri atas 178 objek dan 13 peubah yaitu kadar alkohol (alcohol), kadar asam malat (malic acid), banyaknya abu (ash), banyaknya alkali pada abu (alcanity of ash), kadar magnesium (magnesium), kadar fenol (total phenols), kadar flavonoid (flavonoids), kadar fenol bukan flavonoid (nonflavonoids phenols), kadar proanthosianin (proanthocyanins), intensitas warna (color intensity), warna berdasarkan tingkat kecerahannya (hue), anggur yang diencerkan pada OD280/OD315 (OD280/OD315 of diluted wines), dan kadar prolina (proline). Dari 178 objek terbagi ke dalam 3 kelompok yaitu kelompok anggur yang berasal dari budidaya 1, budidaya 2, dan budidaya 3 yang banyaknya objek dari tiap kelompok berturut-turut adalah 59, 71, dan 48 objek. Berikut ini ditampilkan tabel yang berisi deskripsi data pengenalan anggur secara ringkas. Tabel tersebut menggambarkan nilai minimum, rataan, nilai maksimum, dan simpangan baku (SB) dari setiap peubah. Tabel 2 Deskripsi data pengenalan anggur Peubah Min Rataan Alcohol 11.030 13.004 Malic Acid 0.740 2.342 Ash 1.360 2.366 Alcanity of Ash 10.000 19.439 Magnesium 70.000 99.714 Total Phenols 0.128 2.289 Flavanoids 0.099 2.024 Nonflavanoids 0.130 0.363 Phenols 0.410 1.591 Proanthocyanins 1.280 5.058
Maks 14.830 5.800 3.230 30.000 162.000 3.880 5.080 0.660 3.580 13.000
SB 0.809 1.119 0.274 3.414 14.279 0.642 1.007 0.124 0.572 2.318
14
Color Intensity OD280/OD315 of Diluted Wines Proline
0.480 1.270
0.958 2.612
1.710 4.000
0.229 0.710
278.000
746.893
1680.000
314.908
Komponen Utama 2 (proporsi λ_2 = 18,0016%)
Tabel tersebut memberikan informasi bahwa peubah proline memiliki simpangan baku paling besar. Simpangan baku antara peubah tersebut dengan peubah yang lain memiliki perbedaan yang cukup besar. Sehingga peubah tersebut akan dominan dalam menentukan komponen utama. Rata-rata dan SB pada tabel tersebut akan digunakan untuk pembakuan pada data asal. Dalam penelitian ini, fungsi kernel yang digunakan adalah fungsi kernel polinom berderajat 2. Alasan pemilihan fungsi kernel tersebut karena hasil pemetaan di ruang fiturnya diketahui dengan jelas sehingga dapat dilakukan eksplorasi pembakuan peubah di ruang fiturnya, yang selanjutnya dapat dijadikan sebagai pembanding dengan hasil yang diperoleh melalui metode kernel untuk melihat seberapa jauh berbeda, karena dengan menggunakan metode kernel artinya nilai eigen dan vektor eigen hanya dapat diperoleh dari matriks yang setara dengan matriks kovarians ruang fiturnya, tidak dari matriks korelasinya. Gambar 2 dan 3 di bawah ini merupakan visualisasi konfigurasi atau plot pencar dari analisis terhadap data asal tanpa pembakuan dan data asal terkoreksi atau baku yang diperluas dan dibakukan di ruang fiturnya. Data Asal Tanpa Pembakuan Kelompok 1 2 3
10
5
0
-5
-10 -10 -5 0 5 10 Komponen Utama 1 (proporsi λ_1 = 37.2239%)
15
Komponen Utama 2 (proporsi λ_2 = 11.4957%)
Gambar 2 Konfigurasi AKUK primal dengan data asal tanpa pembakuan (I) Data Asal Terkoreksi atau Baku 15
Kelompok 1 2 3
10
5
0
-5 -10
-5 0 5 Komponen Utama 1 (proporsi λ_1 = 12.8488%)
10
Gambar 3 Konfigurasi AKUK primal dengan data asal terkoreksi atau baku (II)
15
Komponen Utama 2 (proporsi λ_2 = 10.7961%)
Konfigurasi yang diperoleh dengan menggunakan metode kernel dapat dilihat pada Gambar 4. Metode Kernel 20
Kelompok 1 2 3
15 10 5 0 -5 -10 -15 -15
-10 -5 0 5 10 Komponen Utama 1 (proporsi λ_1 = 12.7136%)
15
Gambar 4 Konfigurasi AKUK dual dengan data asal baku (III) Berikut ini adalah tabel yang memberikan informasi mengenai proporsi varians yang ditampilkan oleh dua komponen utama pertama. Tabel 3 Proporsi total varians yang ditampilkan oleh dua komponen utama pertama KU 1 KU 2 Total I . .7 0 II . 0 III 7 .07 7 . . Nilai eigen yang diperoleh dari matriks tanpa faktor pembagi (
Proporsi 55.2255% 24.3445% 23.5097% )
Gambar 2 dan Gambar 3 memberikan gambaran konfigurasi dari data asal tanpa pembakuan dan terkoreksi atau baku yang dikerjakan menggunakan AKU Kernel dalam formula primal baku atau setara dengan matriks korelasi di ruang fiturnya. Berdasarkan Tabel 3, saat data asal tidak dibakukan, proporsi nilai eigen yang ditampilkan adalah 55.2255% sedangkan proporsi nilai eigen yang ditampilkan saat data asal dibakukan adalah sebesar 24.3445%. Gambar 4 merupakan visualisasi dari data asal baku yang dikerjakan menggunakan metode kernel atau sama saja dengan AKU Kernel dalam formula dual di ruang fiturnya. Fungsi kernel yang digunakan adalah fungsi kernel polinom derajat 2 dengan parameter Jika dibandingkan dengan kedua konfigurasi sebelumnya, Gambar 4 ini memiliki pola pencaran data yang relatif mirip dengan Gambar 3. Namun yang membedakan ialah Gambar 4 ini merepresentasikan dua komponen utama pertama yang diperoleh dari matriks kovarians karena data di ruang fiturnya hanya terkoreksi nilai tengah, sedangkan pada Gambar 3 merepresentasikan dua komponen utama pertama dari matriks korelasinya karena dilakukan pembakuan peubah di ruang fiturnya. Proporsi nilai eigen yang ditampilkan saat data asal baku dikerjakan menggunakan metode kernel dapat dilihat pada Tabel 3, yaitu sebesar 23.5097%.
16
Dalam karya tulis ini, setiap konfigurasi titik yang terbentuk dibandingkan menggunakan analisis Procrustes. Sebelum ditemukan ukuran kemiripannya, dicari terlebih dahulu nilai perbedaan minimum antar konfigurasi dengan melakukan penyesuaian konfigurasi dari dua konfigurasi yang akan dibandingkan. Penyesuaian tersebut diawali dengan penyesuaian translasi, rotasi, kemudian dilasi. Berikut ini diberikan tabel-tabel yang berisi informasi mengenai nilai perbedaan minimum dari matriks seluruh komponen utama dan dua komponen utama pertamanya. Tabel 4 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan seluruh komponen utama Y ( ) I II III I 0 10488 10454 II 10488 0 135.73 X III 19985 259.48 0 Namun pada kenyataannya, representasi komponen utama yang dapat digambarkan umumnya hanya dua atau tiga saja. Dalam karya ilmiah ini, konfigurasi hanya digambarkan oleh dua komponen utama pertama. Nilai perbedaan minimum yang digambarkan oleh dua komponen utama pertama ditampilkan dalam tabel di bawah ini. Tabel 5 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai kondisi dengan dua komponen utama pertama Y ( ) I II III I 0 4620.9 4687 II 2037 0 108.5201 X III 3814.5 200.3489 0 Tabel 4 dan 5 memberikan informasi mengenai nilai perbedaan minimum antar konfigurasi. Dalam hal ini, semakin kecil nilai perbedaan minimum dan semakin besar matriks pembagi yang bersesuaian maka dapat dikatakan antar konfigurasi tersebut semakin mirip. Pada perbandingan seluruh komponen utama, konfigurasi tanpa pembakuan memiliki nilai perbedaan minimum sebesar 10488 dan 10454 terhadap konfigurasi terkoreksi atau baku dan kernel. Konfigurasi terkoreksi atau baku memiliki nilai perbedaan minimum sebesar 10488 dan 135.73 terhadap konfigurasi tanpa pembakuan dan kernel. Sedangkan konfigurasi kernel memiliki nilai perbedaan minimum sebesar 19985 dan 259.48 terhadap konfigurasi tanpa pembakuan dan terkoreksi atau baku. Pada perbandingan dua komponen utama pertama, konfigurasi tanpa pembakuan memiliki nilai perbedaan minimum sebesar 4620.9 dan 4687 terhadap konfigurasi terkoreksi atau baku dan kernel. Konfigurasi terkoreksi atau baku memiliki nilai perbedaan minimum sebesar 2037 dan 108.5201 terhadap konfigurasi tanpa pembakuan dan kernel. Sedangkan konfigurasi kernel memiliki
17
nilai perbedaan minimum sebesar 3814.5 dan 200.3489 terhadap konfigurasi tanpa pembakuan dan terkoreksi atau baku. Tabel 6 dan Tabel 7 menunjukkan ukuran kesesuaian Procrustes. Ukuran kesesuaian memperlihatkan seberapa besar kemiripan antara dua konfigurasi. Dalam hal ini, jika ukuran kesesuaian semakin besar artinya konfigurasikonfigurasi yang dibandingkan semakin mirip. Berdasarkan pada penelitian ini, jika dua matriks yang dibandingkan telah terkoreksi terhadap rataan kolomnya atau dengan kata lain rataan kolomnya menjadi nol maka ukuran kesesuaian Procrustes yang diperoleh adalah simetrik, artinya ukuran kesesuaian matriks X terhadap matrik Y sama dengan matriks Y terhadap matriks X. Setelah ditelusuri melalui sejumlah percobaan ternyata kesimetrikan ini terjadi jika matriks yang dianggap tetap adalah matriks yang sudah ditranslasikan. Sedangkan matriks yang menyesuaikan telah melalui proses translasi saat mencari nilai perbedaan minimumnya. Tabel 6 Ukuran kesesuaian matriks X dan Y dari berbagai kondisi dengan seluruh komponen utama Y ( ) I II III I 100% 43.02% 43.21% II 43.02% 100% 99.26% X III 43.21% 99.26% 100% Tabel 7 Ukuran kesesuaian matriks X dan Y dari berbagai kondisi dengan dua komponen utama pertama Y ( ) I II III I 100% 54.54% 53.89% II 54.54% 100% 97.58% X III 53.89% 97.58% 100% Dari Tabel 6 dan Tabel 7 dapat dilihat bahwa ukuran kesesuaian antar konfigurasi yang sama bernilai 100%. Semakin mendekati 100% maka semakin mirip. Pada ukuran kesesuaian dari seluruh komponen utama, yang paling mendekati 100% adalah ukuran kemiripan untuk pasangan konfigurasi dengan pembakuan di ruang asal dan ruang fiturnya (II) dengan konfigurasi yang diperoleh menggunakan metode kernel (III), yaitu sebesar 99.26%. Begitu pun pada ukuran kemiripan dari dua komponen utama pertama, yang mendekati nilai 100% adalah pasangan konfigurasi antara primal terkoreksi atau baku dengan konfigurasi yang diperoleh dari metode kernel, yaitu sebesar 97.58%. Dengan menggunakan metode kernel artinya nilai eigen dan vektor eigen pembentuk komponen utama hanya dapat diperoleh dari matriks kernel terkoreksi (dual terkoreksi) atau setara dengan yang diperoleh dari AKU kovarians di ruang fitur. Dengan demikian, eksplorasi ini juga dapat memberikan gambaran seberapa besar data baku yang dikerjakan menggunakan metode kernel dapat menggambarkan data baku yang dikerjakan menggunakan AKU korelasi di ruang fitur. Dengan menggunakan data pengenalan anggur, fungsi kernel polinom derajat 2, dan parameter sebesar 99.26% metode kernel dapat
18
menggambarkan data baku yang dikerjakan menggunakan AKU korelasi di ruang fitur. Nilai persentase tersebut menggambarkan keseluruhan komponen utama. Sedangkan untuk matriks komponen utama yang sudah tereduksi atau dua komponen utama pertamanya saja, metode kernel menggambarkan sebesar 97.58% AKU korelasi di ruang fitur. Salah satu tolok ukur untuk melihat keberhasilan dalam menggunakan AKU Kernel adalah terpisahnya objek ke dalam kelompok aslinya. Oleh karena itu, untuk melihat pembakuan mana yang paling baik, dicari nilai salah klasifikasinya. Tabel 8 Klasifikasi kelompok data asal tanpa pembakuan (I) Kelompok Prediksi Kelompok asal 1 2 3 1 56 3 0 2 5 64 2 3 0 1 47 Total 61 68 49 Salah klasifikasi = 6.18% Tabel 9 Klasifikasi kelompok data asal terkoreksi atau baku (II) Kelompok Prediksi Kelompok asal 1 2 3 1 46 13 0 2 2 68 1 3 0 4 44 Total 48 85 45 Salah klasifikasi = 12.36% Tabel 11 Klasifikasi kelompok menggunakan metode kernel (III) Kelompok Prediksi Kelompok asal 1 2 3 1 44 15 0 2 1 69 1 3 0 2 46 Total 45 86 47 Salah klasifikasi = 10.67%
Total 59 71 48
178
Total 59 71 48 178
Total 59 71 48 178
Kemiripan konfigurasi yang ditunjukkan oleh Gambar 3 (kondisi II) dan Gambar 4 (kondisi III) yang memiliki kemiripan sebesar 97.58% tercermin pula pada nilai salah klasifikasi yang relatif mirip, yaitu sebesar 12.36% dan 10.67%. Kemiripan nilai salah klasifikasi tersebut memperlihatkan bahwa dengan melakukan pembakuan peubah di ruang asal (sebelum transformasi) dan pembakuan peubah di ruang fitur atau terkoreksi nilai tengah di ruang fitur akan menghasilkan nilai klasifikasi yang relatif mirip. Hal tersebut terjadi karena pada kondisi III sebenarnya terjadi pembakuan peubah sebagian, sehingga ada beberapa peubah yang sama dengan hasil pembakuan di ruang fiturnya.
19
SIMPULAN DAN SARAN Simpulan Eksplorasi pembakuan peubah dalam Analisis Komponen Utama (AKU) Kernel menggunakan data pengenalan anggur (wine recognition) memberikan gambaran bahwa terdapat perbedaan hasil kapan pembakuan dilakukan terhadap konfigurasi dan salah klasifikasi. Perbedaan hasil pembakuan peubah tercermin dari ukuran kemiripan dan nilai salah klasifikasinya. Kemiripan antara konfigurasi yang dilakukan pembakuan di ruang asal dan ruang fiturnya (II) terhadap konfigurasi yang pembakuannya dilakukan di ruang asal dan hanya terkoreksi nilai tengah di ruang fiturnya (III) adalah sebesar 97.58%. Kemiripan tersebut tercermin pula pada nilai salah klasifikasinya yang relatif mirip, yaitu 12.36% dan 10.67%. Kemiripan antara konfigurasi yang dilakukan pembakuan di ruang asal dan ruang fiturnya (II) terhadap konfigurasi yang pembakuannya hanya dilakukan di ruang fiturnya (I) adalah sebesar 54.54%. Kemiripan yang hanya 54.54% tersebut tercermin pula pada nilai salah klasifikasinya yang relatif berbeda, yaitu 12.36% dan 6.18%.
Saran Eksplorasi pembakuan peubah hanya dapat dilakukan pada AKU Kernel dengan fungsi kernel yang hasil pemetaan di ruang fiturnya diketahui, yaitu fungsi kernel polinom. Pada penelitian selanjutnya, diharapkan dapat melakukan pembakuan peubah pada fungsi kernel secara umum. Ukuran kesesuaian Procrustes yang diperoleh pada penelitian ini bersifat simetrik. Menurut penelitian ini, kesimetrikan tersebut terjadi jika matriks yang dianggap tetap adalah matriks yang sudah ditranslasikan. Pada penelitian selanjutnya diharapkan dapat menunjukkan kesimetrikannya melalui perhitungan yang lebih jelas.
DAFTAR PUSTAKA Bakhtiar T, Siswadi. 2011. Orthogonal Procrustes Analysis: Its Transformation Arrangement and Minimal Distance. International Journal of Applied Mathematics and Statistics 20:16 24. Forina M. 1991. Wine Recognition Data. [internet]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data. Jolliffe IT. 2002. Principal Component Analysis. New York (US): Springer-Verlag. Leon SJ. 2014. Linear Algebra with Application. 8th Ed. Edinburg Gate (UK): Pearson. SchÖlkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT Press. Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component. [Disertasi]. Philadelphia (US): Temple University Graduate Board. Siswadi, Bakhtiar T, Maharsi R. 2012. Procrustes Analysis and the Goodness-offit of Biplots: Some Thoughts and Findings. Applied Mathematical Sciences 6(72): 3579 – 3590.
21
Lampiran 1 Data Pengenalan Anggur (Wine Recognition Data) Kel 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
P1 14.23 13.2 13.16 14.37 13.24 14.2 14.39 14.06 14.83 13.86 14.1 14.12 13.75 14.75 14.38 13.63 14.3 13.83 14.19 13.64 14.06 12.93 13.71 12.85 13.5 13.05 13.39 13.3 13.87 14.02 13.73 13.58 13.68 13.76 13.51 13.48 13.28 13.05 13.07 14.22 13.56 13.41 13.88 13.24 13.05 14.21 14.38 13.9 14.1 13.94 13.05 13.83
P2
P3
P4
P5
P6
P7
P8
P9
1.71 1.78 2.36 1.95 2.59 1.76 1.87 3.15 1.64 1.35 2.16 1.48 1.73 1.73 1.87 1.81 1.92 1.57 1.59 3.1 1.63 3.8 1.86 1.6 1.81 2.05 1.77 1.72 1.9 1.68 1.5 1.66 1.83 1.53 1.8 1.81 1.64 1.65 1.5 3.99 1.71 3.84 1.89 3.98 1.77 4.04 3.59 1.68 2.02 1.73 1.73 1.65
2.43 2.14 2.67 2.5 2.87 2.45 2.45 2.61 2.17 2.27 2.3 2.32 2.41 2.39 2.38 2.7 2.72 2.62 2.48 2.56 2.28 2.65 2.36 2.52 2.61 3.22 2.62 2.14 2.8 2.21 2.7 2.36 2.36 2.7 2.65 2.41 2.84 2.55 2.1 2.51 2.31 2.12 2.59 2.29 2.1 2.44 2.28 2.12 2.4 2.27 2.04 2.6
15.6 11.2 18.6 16.8 21 15.2 14.6 17.6 14 16 18 16.8 16 11.4 12 17.2 20 20 16.5 15.2 16 18.6 16.6 17.8 20 25 16.1 17 19.4 16 22.5 19.1 17.2 19.5 19 20.5 15.5 18 15.5 13.2 16.2 18.8 15 17.5 17 18.9 16 16 18.8 17.4 12.4 17.2
127 100 101 113 118 112 96 121 97 98 105 95 89 91 102 112 120 115 108 116 126 102 101 95 96 124 93 94 107 96 101 106 104 132 110 100 110 98 98 128 117 90 101 103 107 111 102 101 103 108 92 94
2.8 2.65 2.8 3.85 2.8 3.27 2.5 2.6 2.8 2.98 2.95 2.2 2.6 3.1 3.3 2.85 2.8 2.95 3.3 2.7 3 2.41 2.61 2.48 2.53 2.63 2.85 2.4 2.95 2.65 3 2.86 2.42 2.95 2.35 2.7 2.6 2.45 2.4 3 3.15 2.45 3.25 2.64 3 2.85 3.25 3.1 2.75 2.88 2.72 2.45
3.06 2.76 3.24 3.49 2.69 3.39 2.52 2.51 2.98 3.15 3.32 2.43 2.76 3.69 3.64 2.91 3.14 3.4 3.93 3.03 3.17 2.41 2.88 2.37 2.61 2.68 2.94 2.19 2.97 2.33 3.25 3.19 2.69 2.74 2.53 2.98 2.68 2.43 2.64 3.04 3.29 2.68 3.56 2.63 3 2.65 3.17 3.39 2.95 3.54 3.27 2.99
0.28 0.26 0.3 0.24 0.39 0.34 0.3 0.31 0.29 0.22 0.22 0.26 0.29 0.43 0.29 0.3 0.33 0.4 0.32 0.17 0.24 0.25 0.27 0.26 0.28 0.47 0.34 0.27 0.37 0.26 0.29 0.22 0.42 0.5 0.29 0.26 0.34 0.29 0.28 0.2 0.34 0.27 0.17 0.32 0.28 0.3 0.27 0.21 0.32 0.32 0.17 0.22
2.29 1.28 2.81 2.18 1.82 1.97 1.98 1.25 1.98 1.85 2.38 1.57 1.81 2.81 2.96 1.46 1.97 1.72 1.86 1.66 2.1 1.98 1.69 1.46 1.66 1.92 1.45 1.35 1.76 1.98 2.38 1.95 1.97 1.35 1.54 1.86 1.36 1.44 1.37 2.08 2.34 1.48 1.7 1.66 2.03 1.25 2.19 2.14 2.38 2.08 2.91 2.29
P10 5.64 4.38 5.68 7.8 4.32 6.75 5.25 5.05 5.2 7.22 5.75 5 5.6 5.4 7.5 7.3 6.2 6.6 8.7 5.1 5.65 4.5 3.8 3.93 3.52 3.58 4.8 3.95 4.5 4.7 5.7 6.9 3.84 5.4 4.2 5.1 4.6 4.25 3.7 5.1 6.13 4.28 5.43 4.36 5.04 5.24 4.9 6.1 6.2 8.9 7.2 5.6
P11 1.04 1.05 1.03 0.86 1.04 1.05 1.02 1.06 1.08 1.01 1.25 1.17 1.15 1.25 1.2 1.28 1.07 1.13 1.23 0.96 1.09 1.03 1.11 1.09 1.12 1.13 0.92 1.02 1.25 1.04 1.19 1.09 1.23 1.25 1.1 1.04 1.09 1.12 1.18 0.89 0.95 0.91 0.88 0.82 0.88 0.87 1.04 0.91 1.07 1.12 1.12 1.24
P12
P13
3.92 3.4 3.17 3.45 2.93 2.85 3.58 3.58 2.85 3.55 3.17 2.82 2.9 2.73 3 2.88 2.65 2.57 2.82 3.36 3.71 3.52 4 3.63 3.82 3.2 3.22 2.77 3.4 3.59 2.71 2.88 2.87 3 2.87 3.47 2.78 2.51 2.69 3.53 3.38 3 3.56 3 3.35 3.33 3.44 3.33 2.75 3.1 2.91 3.37
1065 1050 1185 1480 735 1450 1290 1295 1045 1045 1510 1280 1320 1150 1547 1310 1280 1130 1680 845 780 770 1035 1015 845 830 1195 1285 915 1035 1285 1515 990 1235 1095 920 880 1105 1020 760 795 1035 1095 680 885 1080 1065 985 1060 1260 1150 1265
22
1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
13.82 13.77 13.74 13.56 14.22 13.29 13.72 12.37 12.33 12.64 13.67 12.37 12.7 12.37 13.11 12.37 13.34 12.21 12.29 13.86 13.49 12.99 11.96 11.66 13.03 11.84 12.33 12.7 12 12.72 12.08 13.05 11.84 12.67 12.16 11.65 11.64 12.08 12.08 12 12.69 12.29 11.62 12.47 11.81 12.29 12.37 12.29 12.08 12.6 12.34 11.82 12.51 12.42 12.25 12.72 12.22 11.61
1.75 1.9 1.67 1.73 1.7 1.97 1.43 0.94 1.1 1.36 1.25 1.13 1.45 1.21 1.01 1.17 0.94 1.19 1.61 1.51 1.66 1.67 1.09 1.88 0.9 2.89 0.99 3.87 0.92 1.81 1.13 3.86 0.89 0.98 1.61 1.67 2.06 1.33 1.83 1.51 1.53 2.83 1.99 1.52 2.12 1.41 1.07 3.17 2.08 1.34 2.45 1.72 1.73 2.55 1.73 1.75 1.29 1.35
2.42 2.68 2.25 2.4 2.3 2.68 2.5 1.36 2.28 2.02 1.92 2.16 2.53 2.56 1.7 1.92 2.36 1.75 2.21 2.67 2.24 2.6 2.3 1.92 1.71 2.23 1.95 2.4 2 2.2 2.51 2.32 2.58 2.24 2.31 2.62 2.46 2.3 2.32 2.42 2.26 2.22 2.28 2.2 2.74 1.98 2.1 2.21 1.7 1.9 2.46 1.88 1.98 2.27 2.12 2.28 1.94 2.7
14 17.1 16.4 20.5 16.3 16.8 16.7 10.6 16 16.8 18 19 19 18.1 15 19.6 17 16.8 20.4 25 24 30 21 16 16 18 14.8 23 19 18.8 24 22.5 18 18 22.8 26 21.6 23.6 18.5 22 20.7 18 18 19 21.5 16 18.5 18 17.5 18.5 21 19.5 20.5 22 19 22.5 19 20
111 115 118 116 118 102 108 88 101 100 94 87 104 98 78 78 110 151 103 86 87 139 101 97 86 112 136 101 86 86 78 85 94 99 90 88 84 70 81 86 80 88 98 162 134 85 88 88 97 88 98 86 85 90 80 84 92 94
3.88 3 2.6 2.96 3.2 3 3.4 1.98 2.05 2.02 2.1 3.5 1.89 2.42 2.98 2.11 2.53 1.85 1.1 2.95 1.88 3.3 3.38 1.61 1.95 1.72 1.9 2.83 2.42 2.2 2 1.65 2.2 2.2 1.78 1.92 1.95 2.2 1.6 1.45 1.38 2.45 3.02 2.5 1.6 2.55 3.52 2.85 2.23 1.45 2.56 2.5 2.2 1.68 1.65 1.38 2.36 2.74
3.74 2.79 2.9 2.78 3 3.23 3.67 0.57 1.09 1.41 1.79 3.1 1.75 2.65 3.18 2 1.3 1.28 1.02 2.86 1.84 2.89 2.14 1.57 2.03 1.32 1.85 2.55 2.26 2.53 1.58 1.59 2.21 1.94 1.69 1.61 1.6 1.59 1.5 1.25 1.46 2.25 2.26 2.27 0.099 2.5 3.75 2.99 2.17 1.36 2.11 1.64 1.92 1.84 2.03 1.76 2.04 2.92
0.32 0.39 0.21 0.2 0.26 0.31 0.19 0.28 0.63 0.53 0.32 0.19 0.45 0.37 0.26 0.27 0.55 0.14 0.375 0.21 0.27 0.21 0.13 0.34 0.24 0.43 0.35 0.43 0.3 0.26 0.4 0.61 0.22 0.3 0.43 0.4 0.48 0.42 0.52 0.5 0.58 0.25 0.17 0.32 0.14 0.29 0.24 0.45 0.26 0.29 0.34 0.37 0.32 0.66 0.37 0.48 0.39 0.29
1.87 1.68 1.62 2.45 2.03 1.66 2.04 0.42 0.41 0.62 0.73 1.87 1.03 2.08 2.28 1.04 0.42 2.5 1.46 1.87 1.03 1.96 1.65 1.15 1.46 0.95 2.76 1.95 1.43 1.77 1.4 1.62 2.35 1.46 1.56 1.34 1.35 1.38 1.64 1.63 1.62 1.99 1.35 3.28 1.56 1.77 1.95 2.81 1.4 1.35 1.31 1.42 1.48 1.42 1.63 1.63 2.08 2.49
7.05 6.3 5.85 6.25 6.38 6 6.8 1.95 3.27 5.75 3.8 4.45 2.95 4.6 5.3 4.68 3.17 2.85 3.05 3.38 3.74 3.35 3.21 3.8 4.6 2.65 3.4 2.57 2.5 3.9 2.2 4.8 3.05 2.62 2.45 2.6 2.8 1.74 2.4 3.6 3.05 2.15 3.25 2.6 2.5 2.9 4.5 2.3 3.3 2.45 2.8 2.06 2.94 2.7 3.4 3.3 2.7 2.65
1.01 1.13 0.92 0.98 0.94 1.07 0.89 1.05 1.25 0.98 1.23 1.22 1.45 1.19 1.12 1.12 1.02 1.28 0.906 1.36 0.98 1.31 0.99 1.23 1.19 0.96 1.06 1.19 1.38 1.16 1.31 0.84 0.79 1.23 1.33 1.36 1 1.07 1.08 1.05 0.96 1.15 1.16 1.16 0.95 1.23 1.04 1.42 1.27 1.04 0.8 0.94 1.04 0.86 1 0.88 0.86 0.96
3.26 2.93 3.2 3.03 3.31 2.84 2.87 1.82 1.67 1.59 2.46 2.87 2.23 2.3 3.18 3.48 1.93 3.07 1.82 3.16 2.78 3.5 3.13 2.14 2.48 2.52 2.31 3.13 3.12 3.14 2.72 2.01 3.08 3.16 2.26 3.21 2.75 3.21 2.27 2.65 2.06 3.3 2.96 2.63 2.26 2.74 2.77 2.83 2.96 2.77 3.38 2.44 3.57 3.3 3.17 2.42 3.02 3.26
1190 1375 1060 1120 970 1270 1285 520 680 450 630 420 355 678 502 510 750 718 870 410 472 985 886 428 392 500 750 463 278 714 630 515 520 450 495 562 680 625 480 450 495 290 345 937 625 428 660 406 710 562 438 415 672 315 510 488 312 680
23
2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3
11.46 12.52 11.76 11.41 12.08 11.03 11.82 12.42 12.77 12 11.45 11.56 12.42 13.05 11.87 12.07 12.43 11.79 12.37 12.04 12.86 12.88 12.81 12.7 12.51 12.6 12.25 12.53 13.49 12.84 12.93 13.36 13.52 13.62 12.25 13.16 13.88 12.87 13.32 13.08 13.5 12.79 13.11 13.23 12.58 13.17 13.84 12.45 14.34 13.48 12.36 13.69 12.85 12.96 13.78 13.73 13.45 12.82
3.74 2.43 2.68 0.74 1.39 1.51 1.47 1.61 3.43 3.43 2.4 2.05 4.43 5.8 4.31 2.16 1.53 2.13 1.63 4.3 1.35 2.99 2.31 3.55 1.24 2.46 4.72 5.51 3.59 2.96 2.81 2.56 3.17 4.95 3.88 3.57 5.04 4.61 3.24 3.9 3.12 2.67 1.9 3.3 1.29 5.19 4.12 3.03 1.68 1.67 3.83 3.26 3.27 3.45 2.76 4.36 3.7 3.37
1.82 2.17 2.92 2.5 2.5 2.2 1.99 2.19 1.98 2 2.42 3.23 2.73 2.13 2.39 2.17 2.29 2.78 2.3 2.38 2.32 2.4 2.4 2.36 2.25 2.2 2.54 2.64 2.19 2.61 2.7 2.35 2.72 2.35 2.2 2.15 2.23 2.48 2.38 2.36 2.62 2.48 2.75 2.28 2.1 2.32 2.38 2.64 2.7 2.64 2.38 2.54 2.58 2.35 2.3 2.26 2.6 2.3
19.5 21 20 21 22.5 21.5 20.8 22.5 16 19 20 28.5 26.5 21.5 21 21 21.5 28.5 24.5 22 18 20 24 21.5 17.5 18.5 21 25 19.5 24 21 20 23.5 20 18.5 21 20 21.5 21.5 21.5 24 22 25.5 18.5 20 22 19.5 27 25 22.5 21 20 22 18.5 22 22.5 23 19.5
107 88 100 88 84 85 86 108 80 87 96 119 100 86 82 85 86 92 88 80 122 104 98 106 85 94 89 96 88 101 96 89 97 92 112 102 80 86 92 113 123 112 116 98 103 93 89 97 98 89 88 107 106 106 90 88 111 88
3.18 2.55 1.75 2.48 2.56 2.46 1.98 2 1.63 2 2.9 3.18 2.2 2.62 2.86 2.6 2.74 2.13 2.22 2.1 1.51 1.3 1.15 1.7 2 1.62 1.38 1.79 1.62 2.32 1.54 1.4 1.55 2 1.38 1.5 0.98 1.7 1.93 1.41 1.4 1.48 2.2 1.8 1.48 1.74 1.8 1.9 2.8 2.6 2.3 1.83 1.65 1.39 1.35 0.128 1.7 1.48
2.58 2.27 2.03 2.01 2.29 2.17 1.6 2.09 1.25 1.64 2.79 5.08 2.13 2.65 3.03 2.65 3.15 2.24 2.45 1.75 1.25 1.22 1.09 1.2 0.58 0.66 0.47 0.6 0.48 0.6 0.5 0.5 0.52 0.8 0.78 0.55 0.34 0.65 0.76 1.39 1.57 1.36 1.28 0.83 0.58 0.63 0.83 0.58 1.31 1.1 0.92 0.56 0.6 0.7 0.68 0.47 0.92 0.66
0.24 0.26 0.6 0.42 0.43 0.52 0.3 0.34 0.43 0.37 0.32 0.47 0.43 0.3 0.21 0.37 0.39 0.58 0.4 0.42 0.21 0.24 0.27 0.17 0.6 0.63 0.53 0.63 0.58 0.53 0.53 0.37 0.5 0.47 0.29 0.43 0.4 0.47 0.45 0.34 0.22 0.24 0.26 0.61 0.53 0.61 0.48 0.63 0.53 0.52 0.5 0.5 0.6 0.4 0.41 0.52 0.43 0.4
3.58 1.22 1.05 1.44 1.04 2.01 1.53 1.61 0.83 1.87 1.83 1.87 1.71 2.01 2.91 1.35 1.77 1.76 1.9 1.35 0.94 0.83 0.83 0.84 1.25 0.94 0.8 1.1 0.88 0.81 0.75 0.64 0.55 1.02 1.14 1.3 0.68 0.86 1.25 1.14 1.25 1.26 1.56 1.87 1.4 1.55 1.56 1.14 2.7 2.29 1.04 0.8 0.96 0.94 1.03 1.15 1.46 0.97
2.9 2 3.8 3.08 2.9 1.9 1.95 2.06 3.4 1.28 3.25 6 2.08 2.6 2.8 2.76 3.94 3 2.12 2.6 4.1 5.4 5.7 5 5.45 7.1 3.85 5 5.7 4.92 4.6 5.6 4.35 4.4 8.21 4 4.9 7.65 8.42 9.4 8.6 10.8 7.1 10.52 7.6 7.9 9.01 7.5 13 11.75 7.65 5.88 5.58 5.28 9.58 6.62 10.68 10.26
0.75 0.9 1.23 1.1 0.93 1.71 0.95 1.06 0.7 0.93 0.8 0.93 0.92 0.73 0.75 0.86 0.69 0.97 0.89 0.79 0.76 0.74 0.66 0.78 0.75 0.73 0.75 0.82 0.81 0.89 0.77 0.7 0.89 0.91 0.65 0.6 0.58 0.54 0.55 0.57 0.59 0.48 0.61 0.56 0.58 0.61 0.57 0.67 0.57 0.57 0.56 0.96 0.87 0.68 0.7 0.78 0.85 0.72
2.81 2.78 2.5 2.31 3.19 2.87 3.33 2.96 2.12 3.05 3.39 3.69 3.12 3.1 3.64 3.28 2.84 2.44 2.78 2.57 1.29 1.42 1.36 1.29 1.51 1.58 1.27 1.69 1.82 2.15 2.31 2.47 2.06 2.05 2 1.67 1.33 1.86 1.62 1.33 1.3 1.47 1.33 1.51 1.55 1.48 1.64 1.73 1.96 1.78 1.58 1.82 2.11 1.75 1.68 1.75 1.56 1.75
562 325 607 434 385 407 495 345 372 564 625 465 365 380 380 378 352 466 342 580 630 530 560 600 650 695 720 515 580 590 600 780 520 550 855 830 415 625 650 550 500 480 425 675 640 725 480 880 660 620 520 680 570 675 615 520 695 685
24
3 3 3 3 3 3 3 3 3 3
13.58 13.4 12.2 12.77 14.16 13.71 13.4 13.27 13.17 14.13
2.58 4.6 3.03 2.39 2.51 5.65 3.91 4.28 2.59 4.1
2.69 2.86 2.32 2.28 2.48 2.45 2.48 2.26 2.37 2.74
24.5 25 19 19.5 20 20.5 23 20 10 24.5
105 112 96 86 91 95 102 120 120 96
1.55 1.98 1.25 1.39 1.68 1.68 1.8 1.59 1.65 2.05
0.84 0.96 0.49 0.51 0.7 0.61 0.75 0.69 0.68 0.76
0.39 0.27 0.4 0.38 0.44 0.52 0.43 0.43 0.53 0.56
1.54 1.11 0.73 0.64 1.24 1.06 1.41 1.35 1.46 1.35
8.66 8.5 5.5 9.89 9.7 7.7 7.3 10.2 9.3 9.2
0.74 0.67 0.66 0.57 0.62 0.64 0.7 0.59 0.6 0.61
Keterangan : Kel : Kelompok
P7 : Flavanoids
P1 : Alcohol
P8 : Nonflavanoids
P2 : Malic Acid
P9 : Phenols
P3 : Ash
P10 : Proanthocyanins
P4 : Alcanity of Ash
P11 : Color Intensity
P5 : Magnesium
P12 : OD280/OD315 of Diluted Wines
P6 : Total phenols
P13 : Proline
1.8 1.92 1.83 1.63 1.71 1.74 1.56 1.56 1.62 1.6
750 630 510 470 660 740 750 835 840 560
25
Lampiran 2 Data dua komponen utama pertama dari berbagai kondisi I
II
III
KU 1
KU 2
KU 1
KU 2
KU 1
KU 2
9.786389 3.753162 9.157842 12.83067 4.170684 9.84733 6.458679 5.908853 5.756098 7.524987 11.23893 4.038562 5.798488 10.0722 13.78086 7.816128 8.120226 7.337359 12.92816 5.275166 8.450815 3.462376 6.415332 3.857621 4.813543 5.65528 4.967659 2.111381 7.31549 5.138291 9.541004 8.90675 4.434526 7.228097 3.978303 5.788391 3.439736 2.658114 2.354803 6.699743 7.702932 1.685251 8.278622 1.055487 5.310966 3.874799 8.11777 7.379256 6.6771 9.580824 8.250966
-1.81589 2.245728 -3.16716 -6.81858 -1.66059 -4.90858 -1.48812 -4.09157 -0.13544 -0.99148 -3.03632 0.124569 -1.06173 -1.79096 -5.44115 -4.07148 -5.06382 -3.83863 -7.20825 -1.27953 0.065133 -1.03903 1.872203 2.373439 2.397744 -1.77827 -0.79713 1.220342 -0.44695 1.069265 -2.76361 -3.67527 0.787361 -3.64513 -0.2108 0.40282 0.116277 0.762014 3.134321 -3.28013 -1.22066 -1.07758 -0.92609 -1.15723 0.792778 -4.65197 -2.89328 -0.39753 -2.7567 -5.28222 -0.63385
3.509897 1.045716 2.661984 8.49931 1.44233 6.359 3.818427 3.823778 3.730067 2.765597 4.492265 2.638122 2.852206 4.542203 8.159716 4.077975 4.82682 3.330283 8.285306 2.434877 1.785663 1.103319 0.58097 0.362295 0.313094 1.393285 2.265608 1.496764 1.575115 1.783772 2.97474 4.363412 1.343152 3.26093 1.871559 1.096609 1.722262 1.402254 0.627242 4.044426 2.007432 1.306755 3.383029 1.18535 1.040063 2.875684 3.744275 2.673844 3.108715 4.789673 2.419496
5.836362 0.267604 2.342025 9.889319 -1.98596 6.001295 2.888127 0.461816 2.728816 3.628286 7.281643 0.245714 1.507656 7.523731 13.32057 2.26208 1.724442 0.9205 9.411611 0.363835 4.185577 -2.07465 1.670586 -1.12744 -0.89191 -2.43846 0.240825 -1.42153 0.918585 1.205832 2.659342 4.063686 -0.61296 0.749859 -0.92357 -0.01408 -1.12614 -1.592 -1.72649 1.626808 2.515794 -2.2032 4.599275 -2.45983 0.355487 -1.23067 3.191497 3.519514 1.14415 4.569348 4.95497
-6.4456 -1.64299 -4.36572 -13.1684 -1.64859 -9.66634 -5.81795 -5.08647 -5.67627 -4.84805 -7.75934 -3.47025 -4.25457 -8.52334 -14.2421 -5.96349 -6.50868 -4.65161 -12.9712 -3.74287 -3.97747 -1.4093 -1.6381 -0.42582 -0.56426 -1.44969 -3.20834 -1.69986 -2.69613 -2.88089 -4.55578 -6.4651 -1.80721 -4.53713 -2.22735 -1.78463 -2.19687 -1.52117 -0.46589 -6.42321 -3.72369 -1.41697 -5.87063 -1.14813 -1.73101 -3.50484 -6.22753 -4.64163 -4.48791 -7.52293 -4.69178
6.565006 0.478098 1.740189 10.24562 -3.64906 6.803569 3.197675 -0.34805 3.516209 4.335251 8.190426 0.19305 1.799249 9.846653 16.1253 2.076568 0.929777 0.29522 10.32291 0.207772 5.229254 -3.03199 1.946289 -1.32316 -1.42738 -6.48195 0.12664 -1.90008 0.071293 1.502428 1.894881 4.287361 -0.5814 -0.37335 -1.41172 -0.39418 -1.53422 -1.88036 -2.00235 1.522337 2.958446 -2.72448 5.143971 -2.94861 0.518205 -1.89009 3.33706 4.280945 1.240112 5.011538 6.530223
26
8.626081 10.90077 7.76963 5.274755 7.999969 7.67593 7.124352 9.584616 -7.21662 -5.62765 -6.23614 -2.24606 4.338035 -2.57543 2.335796 3.995804 -1.27688 -3.75896 2.69167 -5.22922 4.859102 -2.89288 10.19138 3.827848 -4.49672 -2.00868 -5.17447 1.573946 1.995167 -0.19387 1.784548 -1.67914 -6.01737 0.807726 0.014468 -2.70687 -1.04681 -3.15591 -2.1219 -4.59434 -4.43772 -5.65208 0.348294 0.657316 7.323338 -3.78356 0.389468 5.465785 4.030424 0.053911 -3.9141 -1.00562 -3.65166 -0.27008 -4.5915 -2.20808 -4.59053 -1.42627
-0.81446 -3.69627 -4.66161 -0.82884 -2.48625 -2.07435 -2.85633 -3.13329 8.387039 3.566384 2.118151 4.745041 5.468632 5.091537 2.347656 5.121583 5.967125 2.260953 5.374232 2.63036 4.610944 3.993521 0.630729 4.33048 5.586441 6.320964 3.154878 3.201805 1.560731 8.822604 4.032886 6.02374 -1.81653 5.050278 6.647076 5.419469 5.405184 3.454924 6.37728 4.832849 4.020417 3.659653 5.990998 5.912565 1.012426 2.583183 6.840253 4.07307 4.307769 5.498395 6.485572 3.37776 6.313462 5.3117 3.340449 5.214084 3.385566 6.024766
2.599306 4.92048 4.430368 2.786621 2.876091 3.771804 3.228656 4.951662 1.846343 1.330026 0.316034 1.04904 -1.72984 1.756838 0.715973 -0.93782 0.882333 0.673979 -1.6198 0.633942 -0.58587 1.304619 -0.91064 -1.03143 2.217855 0.966724 1.710179 0.267018 0.795725 -0.21555 0.275583 2.160682 -1.6421 0.401633 0.136494 2.480014 2.471915 2.207558 2.076645 2.539667 2.747029 1.762424 0.444748 -0.24977 -0.1851 0.586327 -0.14057 -1.12574 -0.43124 0.050449 1.795254 1.217378 2.337409 0.598061 2.370414 1.698043 1.71795 1.473593
3.857705 7.730051 2.149613 1.17034 2.292462 3.555254 1.653651 5.795833 -5.49562 -2.05638 -1.10977 -3.76422 -2.12348 -3.19645 -2.50611 -1.40911 -4.76782 -2.62813 -3.06748 -1.20368 -2.19167 -2.727 1.488421 -1.66121 -3.59329 -4.67319 -1.30347 -2.86392 -3.12655 -5.81847 -3.03348 -3.89526 1.310296 -3.43046 -3.93958 -3.19428 -3.79733 -2.44161 -4.15303 -2.04974 -1.64973 -0.64783 -4.29383 -4.10327 0.351032 -1.75279 -4.45017 -0.63365 -3.3586 -4.65694 -3.81621 -3.13787 -3.89613 -4.08636 -0.91798 -3.75203 -1.27673 -4.20916
-4.60236 -8.64357 -6.28841 -3.91547 -4.28798 -5.9483 -4.73241 -7.67881 -1.21749 -1.68139 -0.47079 -0.51121 2.569721 -1.33605 -0.3944 1.171596 -0.19379 -0.68968 3.148722 -1.03201 1.111309 -1.02785 0.6711 1.703451 -1.70811 -0.12666 -1.78502 0.424015 -0.32528 2.110226 0.228421 -1.58415 2.090955 0.262105 0.928421 -2.14237 -2.01675 -2.18548 -1.6325 -2.49626 -2.97998 -2.1397 0.631772 1.419364 0.389623 -0.82682 1.532361 1.491636 1.725512 1.174592 -1.29454 -1.02031 -1.87368 0.021593 -2.70244 -1.21267 -1.89946 -0.73408
4.324183 8.912265 1.862595 1.345006 2.199407 4.125799 1.545301 6.478342 -13.3226 -4.10345 -2.82129 -5.35809 -1.98376 -4.291 -2.96856 -1.4102 -5.84531 -3.93664 -2.17414 -1.92109 -3.28465 -3.14166 -1.36642 -1.59048 -5.7387 -6.64018 -1.83774 -2.69247 -4.54037 -6.68791 -3.47389 -4.8532 2.641012 -3.70533 -4.2778 -4.16194 -4.91583 -2.97244 -5.0359 -3.09119 -2.16918 -1.26251 -5.11752 -4.58013 1.237349 -2.30327 -5.30726 -0.38427 -4.42405 -6.03615 -5.46774 -3.76496 -5.47089 -4.94708 -1.12904 -4.70248 -1.58896 -5.17348
27
4.490051 3.820942 -2.28527 -2.7624 -1.86935 -1.63294 1.14478 -2.48767 -1.33183 -8.08961 -2.79471 2.084442 9.662481 -1.84825 -1.02752 3.253316 -0.96894 0.045545 -2.21796 -1.41588 -4.61705 -5.52991 -7.23395 -8.01002 -6.52877 -7.10296 -8.2768 -10.1692 -9.40313 -8.70874 -6.00856 -7.56199 -6.90704 -8.01752 -6.81496 -6.17489 -7.50814 -11.8569 -8.97921 -7.12252 -7.24849 -5.71802 -6.36313 -4.37786 -6.6468 -7.572 -8.57795 -7.47698 -7.18287 0.10083 -2.53567 -7.86382 -6.35725 -7.30763 -7.66 -7.68501 -11.0377 -5.18511
4.205295 1.650908 5.515818 0.797803 5.615467 5.082546 8.205243 7.044489 5.810454 2.971579 4.589654 2.867921 -2.15353 0.665443 0.002271 2.219348 5.057609 3.448048 1.668448 5.194775 1.096814 2.201567 0.088331 0.148173 -0.30058 0.710548 -2.42232 -2.31563 -5.18882 -1.95209 -1.71189 -0.85982 -0.42303 -1.01707 -2.36677 -4.3417 -1.71772 -1.48634 -5.28417 -5.05063 -6.02888 -5.10724 -5.20103 -2.73764 -8.15667 -1.46683 -8.31335 -6.22832 -6.55269 -11.6223 -8.22134 -4.0855 -3.14826 -2.74069 -1.65032 -4.45623 -3.08523 -9.00717
-0.66563 0.766229 1.545936 1.780198 2.135787 1.857439 0.588463 1.835468 1.473056 0.211381 1.863681 0.489961 0.034233 1.521648 0.827025 0.645838 1.409847 1.274998 2.609628 2.044396 1.127726 -0.97508 -2.59581 -3.0253 -2.30001 -1.15505 -3.94212 -4.92998 -5.48947 -4.11862 -1.10599 -1.90619 -2.06403 -2.50192 -2.70374 -3.77962 -3.63447 -8.92145 -7.54975 -6.16377 -7.55357 -6.16083 -6.59552 -2.98867 -7.99183 -3.37427 -9.66496 -7.82582 -5.66687 -4.29222 -4.54149 -4.8314 -3.01289 -2.58956 -3.50594 -6.61324 -8.27061 -6.69336
-2.51267 -3.6994 -3.5414 -1.83575 -3.66693 -3.58387 -6.21215 -4.50847 -3.55765 1.350726 -3.45256 -3.39166 -2.36167 -1.78407 -2.75938 -4.07992 -3.93827 -3.48148 -1.80771 -3.45089 -0.56936 -1.52257 1.284551 2.885614 0.757324 0.339417 2.354189 7.227996 6.803315 3.1353 0.614368 2.01399 0.505712 2.859553 1.30066 0.069972 1.525225 9.614967 4.530728 1.148916 1.45392 -0.46477 0.188302 -1.36395 0.268703 1.096807 3.816318 1.49145 2.316314 -4.72933 -2.99253 2.914776 0.042166 2.014544 1.52728 1.624559 8.564782 -0.89886
1.49617 0.045096 -1.08199 -1.71879 -1.58344 -1.51757 1.806037 -1.20937 -0.93533 -0.43717 -1.35317 0.024425 -0.45401 -1.48795 -0.4903 -0.4004 -0.90893 -0.78356 -2.80735 -1.69261 -1.18788 0.692606 2.538054 2.632688 2.191953 0.896971 4.392313 4.388443 6.059021 4.721276 1.288964 1.953638 2.534071 2.668673 3.537772 5.064322 3.799733 9.404829 9.294386 8.131156 9.849141 8.092538 8.939415 3.970807 11.13395 3.83681 12.33954 10.59463 6.944948 8.574922 7.808878 6.007733 3.896979 2.954849 3.910587 8.737821 9.181175 9.574166
-3.49431 -5.12259 -4.32112 -2.67467 -4.70447 -4.32293 -7.94934 -5.50395 -4.15813 0.323952 -4.55474 -4.40051 -10.9886 -3.03548 -3.81961 -6.56973 -4.81348 -4.33599 -3.23091 -4.38095 -0.23082 -2.68874 1.608778 3.941408 1.156283 -0.46561 3.034818 10.5497 11.13208 4.386751 1.650518 3.240822 0.831671 4.517318 2.72582 0.756676 2.50634 12.60309 8.039356 3.010398 3.508944 0.595153 1.519094 -1.28935 2.201244 1.110961 7.977949 3.72416 5.334298 -4.55718 -2.29855 5.126414 0.837322 3.55819 2.26263 3.249791 12.24453 0.973
28
-7.61339 -4.81442 -5.25738 -9.20117 -9.35597 -6.50623 -8.51972 -6.32788 -6.67803 -5.61076 -7.24153
-5.05479 -5.86675 -7.80065 0.291269 -2.40632 -5.54072 -8.27104 -5.87549 -9.24573 -5.94205 -9.12541
-6.11426 -4.62163 -6.12354 -2.32738 -6.27633 -6.49305 -9.81871 -5.64901 -8.44689 -4.55176 -9.89146
1.90962 -1.14705 -0.56362 4.1434 3.893597 -0.32853 3.059414 0.566728 -0.18001 -2.19442 0.924442
8.032526 6.658241 8.620186 1.778966 7.567508 9.196301 12.85547 7.384555 11.80274 6.381587 13.7471
3.459621 -0.06718 1.038686 4.97418 5.101489 0.921084 7.063796 2.565667 1.971595 -2.86632 4.244518
29
Lampiran 3 Fungsi yang digunakan untuk memperoleh nilai perbedaan minimum antarkonfigurasi function E=eproc(X,Y) E=sum(sum((X-Y).^2)); function E=TRD(X,Y) [rx,cx]=size(X); [ry,cy]=size(Y); CX=mean(X); CY=mean(Y); X=X-ones(rx,1)*CX; Y=Y-ones(ry,1)*CY; [U,S,V]=svd(X'*Y); Q=V*U'; Y=Y*Q; c=trace(X’*Y)/trace(Y’*Y); Y=c*Y; E=eproc(X,Y)
30
Lampiran 4 Fungsi yang digunakan untuk memperoleh matriks komponen utama
menggunakan metode kernel function Z = polinom2(X,r,ho) [rx,cx] = size(X); if r > cx error('Number of principal component must be smaller than that of variables.') end K = zeros (rx,rx); for i = 1:rx, for j=1:i, K(i,j) = (X(i,:)*X(j,:)'+ho).^2; K(j,i)=K(i,j); end end vector1 = ones (size(K))/rx; K = K - repmat(mean(K),rx,1); [v,lambda]=eig(K); for j = 1:size(v,2) v(:,j)=v (:,j)./(sqrt(lambda(j,j))); end [l,k] = sort(diag(lambda),'descend'); v = v(:,k); Z = zeros(rx,r); for j = 1:r Z(:,j) = K*v(:,j); end
31
RIWAYAT HIDUP Penulis dilahirkan di Sumedang, Jawa Barat pada tanggal 28 April 1992 sebagai anak pertama dari tiga bersaudara dari pasangan Wawan Rohendi dan Yeni Widayani. Pendidikan formal yang ditempuh penulis yaitu di TK Gelatik Kabupaten Sumedang lulus tahun 1998, SD Negeri Cikubang Kabupaten Sumedang lulus pada tahun 2004, SMP Negeri 1 Tanjungsari Kabupaten Sumedang lulus pada tahun 2007, dan SMA Negeri Tanjungsari lulus pada tahun 2010 kemudian di tahun yang sama penulis diterima di Departemen Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Institut Pertanian Bogor melalui jalur USMI. Selama menuntut ilmu di Institut Pertanian Bogor, penulis mendapatkan beasiswa penuh dari Bidikmisi dan penulis juga aktif di organisasi kemahasiswaan Gugus Mahasiswa Matematika (GUMATIKA) pada periode kepengurusan 20122013 sebagai staf PSDM. Penulis pernah menjadi Asisten Praktikum Fisika Dasar pada tahun 2011.