Soelaiman, Penerapan Metode Analisa Diskriminan Majemuk Dengan Pendekatan Transformasi Fukunaga Koontz
PENERAPAN METODE ANALISA DISKRIMINAN MAJEMUK DENGAN PENDEKATAN TRANSFORMASI FUKUNAGA KOONTZ Rully Soelaiman1
Wiwik Anggraini2
M.Mujahidillah3
1,2,3
Fakultas Teknologi Informasi Institut Teknologi Sepuluh Nopember (ITS) Surabaya, 60111, Indonesia Email:
[email protected]
ABSTRACT Linear discriminant analysis is one of method frequently used and developed in the field of pattern recognition. This method tries to find the optimal subspace by maximizing the Fisher Criterion. Application of pattern recognition in highdimensional data and the less number of training samples cause singular within-class distribution matrix. In this paper, we developed Linear Discriminant Analysis method using Fukunaga Koontz Transformation approach to meet the needs of the nonsingular within-class distribution matrix. Based on Fukunaga Koontz Transformation, the entire space of data is decomposed into four subspaces with different discriminant ability (measured by the ratio of eigenvalue). Maximum Fisher Criterion can be identified by linking the ratio of eigenvalue and generalized eigenvalue. Next, this paper will introduce a new method called complex discriminant analysis by transforming the data into intraclass and extraclass then maximize their Bhattacharyya distance. This method is more efficient because it can work even though within-class distribution matrix is singular and between-class distribution matrix is zero. Keywords: pattern classification, linier discriminant analysis, complex discriminant analysis, Fukunaga Koontz Transformation ABSTRAK Analisa Diskriminan Linier merupakan salah satu metode yang sering digunakan dan dikembangkan pada bidang pengenalan pola. Metode ini mencoba menemukan subspace optimal dengan memaksimalkan Fisher Criterion. Penerapan pengenalan pola pada data berdimensi tinggi dan jumlah sample training yang sedikit menyebabkan matriks sebaran within-class bersifat singular. Pada makalah ini, dikembangkan metode Analisa Diskriminan Linier dengan pendekatan Transformasi Fukunaga Koontz untuk memenuhi kebutuhan matriks sebaran within-class yang bersifat nonsingular. Berdasarkan Transformasi Fukunaga Koontz, seluruh space data didekomposisi ke dalam empat subspace dengan kemampuan diskriminan yang berbeda-beda (diukur dari rasio eigenvalue). Fisher Criterion maksimal dapat diketahui dengan menghubungkan rasio eigenvalue dan generalized eigenvalue. Selanjutnya akan diperkenalkan metode baru bernama Analisa Diskriminan Majemuk dengan mentransformasikan data menjadi intraclass dan extraclass dan memaksimalkan jarak Bhattacharyya. Metode ini lebih efisien karena dapat bekerja meskipun matriks sebaran within-class singular dan matriks sebaran between-class bernilai nol. Kata kunci: klasifikasi pola, analisa diskriminan linier, analisa diskriminan majemuk, transformasi Fukunaga Koontz Saat ini, analisa subspace diskriminan telah dipelajari secara luas pada bidang visi komputer dan pengenalan pola. Hal ini telah umum digunakan untuk ekstraksi fitur dan reduksi dimensi pada pengenalan wajah, dan klasifikasi teks. Salah satu metode yang populer adalah Diskriminan Linier Fisher, disebut juga Analisa Diskriminan Linier. Metode ini mencoba menemukan subspace optimal dengan cara memaksimalkan perpisahan dua kelas. Hal ini dapat diperoleh dengan meminimalkan jarak matriks sebaran within-class Sw dan memaksimalkan jarak matriks sebaran between-class Sb secara simultan sehingga menghasilkan Fisher Criterion JF yang maksimal. Dengan memaksimalkan Fisher Criterion tersebut, Diskriminan Linier Fisher menemukan subspace dimana kelas-kelas paling terpisah secara linier [1] [2]. Namun pada banyak aplikasi dengan data berdimensi tinggi, contohnya pengenalan wajah, matriks sebaran Sw bersifat singular karena pada umumnya dimensi data lebih besar dari jumlah sample. Hal ini disebut undersampled atau small sample size problem. Sampai sekarang, banyak metode ditawarkan untuk me-
nangani masalah kebutuhan nonsingularity dari Sw , seperti Fisherface, Discriminant Common Vectors, Dual Space, LDA/GSVD dan LDA/QR. Tetapi metode-metode diatas tidak secara langsung bersesuaian dengan generalized eigenvalue λ, alat pengukur essensial kemampuan mendiskriminasi. Kenyataannya, metode yang sudah ada menghasilkan suboptimum pada Fisher Criterion karena informasi diskriminan penting diabaikan untuk membuat Sw dapat diinverskan. Berdasarkan Transformasi Fukunaga Koontz, seluruh space data didekomposisi ke dalam empat subspace dan mengoreksi maksimasi JF meskipun Sw bersifat singular. Analisa Diskriminan Linier hanya optimal jika diterapkan pada dua distribusi Normal dengan matriks kovarian yang sama. Kasus terburuk terjadi ketika semua kelas mempunyai rata-rata yang sama sehingga matriks sebaran betweenclass Sb = 0. Makalah ini disusun untuk membahas penerapan metode Analisa Diskriminan Majemuk dengan membuat dua kelas dan memaksimalkan jarak Bhattacharyya (batas error dari Bayes Classifier) menggunakan Transformasi Fuku135
Volume 7, Nomor 3, Januari 2009 : 135–142
naga Koontz [3] [4]. Subspace diskriminan diperoleh dari Transformasi Fukunaga Koontz sehingga dapat ditemukan global optimum secara langsung (tanpa iterasi). Metode Analisa Diskriminan Majemuk dan Transformasi Fukunaga Koontz ini lebih efisien sehingga dapat bekerja meskipun matriks sebaran within-class Sw bersifat singular dan matriks sebaran between-class bernilai nol (Sb = 0). ANALISA DISKRIMINAN LINEAR, ADL Jika A = {a1 , ..., aN }, ai ∈ RD merupakan set data dari D − vektor dimensional. Setiap titik data objek bersesuaian tepat satu dengan kelas objek C {L1 , ..., LC }. Jumlah vektor data pada kelas Li dinotasikan dengan Ni ; sehingga, N = ΣNi . Untuk data berdimensi tinggi seperti gambar wajah, umumnya, C ≤ N << D [5] [6]. Matriks sebaran between-class Sb , matriks sebaran within-class Sw , dan matriks sebaran total St didefinisikan sebagai berikut: Sb =
C X
Ni (mi − m)(mi − m)T
=Hb HbT
Sw =
P T SP = P T (S1 + S2 )P = Se1 + Se2 = I X
(aj − mi )(aj − mi )T
=Hw HwT
(2)
=Ht HtT
(3)
i=1 aj ∈Li
St =
N X
Tanpa kehilangan sifat umum, S dapat bersifat singular dan r = rank(S) < D; sehingga, D = diag {λ1 , ..., λr }, λ1 ≥ ... ≥ λr ≥ 0. Set eigenvector U ∈ RDxR bersesuaian dengan eigenvalue selain nol dan set U⊥ ∈ RDx(D−r) adalah komplemen orthogonal dari U . S dapat diperjelas 1 dengan operator transformasi P = U D− 2 . Jumlah dua matrix S1 dan S2 menjadi:
(1)
i=1 C X
TRANSFORMASI FUKUNAGA KOONTZ, TFK Transformasi Fukunaga Koontz telah didesain untuk masa-lah pengenalan dua kelas [3][7][8]. Jika terdapat matriks data A1 dan A2 dari dua kelas, dengan matriks autokorelasi S1 = A1 A1 T dan S2 = A2 A2 T adalah semidefinit positif dan simetris. Jumlah dari kedua matriks ini tetap semi-definit positif dan simetris dan dapat difaktorisasikan dalam bentuk: T U D 0 (10) S = S1 + S2 = [U, U⊥ ] T 0 0 U⊥
(ai − m)(ai − m)T
(11)
Dimana Se1 = P T S1 P, Se2 = P T S2 P , dan I ∈ Rrxr adalah matriks identitas. Anggap eigenvector dari S1 adalah v dengan eigenvalue λ1 sehingga S1 v = λ1 v. Karena Se1 = I − Se2 , sehingga dapat dituliskan sebagai berikut:
i=1
St = Sb + Sw
(4)
Dimana, mi adalah rata-rata kelas (rata-rata objek yang termasuk anggota sebuah kelas) dan m adalah rata-rata global (rata-rata dari semua kelas) dari A. Matriks Hb ∈ RDxC , Hw ∈ RDxN , dan Ht ∈ RDxN berturut-turut adalah matriks precursor dari matriks sebaran between-class, matriks sebaran within-class, dan matriks sebaran total, Hb Hw Ht
p p =[ N1 (m1 − m), ..., NC (mC − m)] m1 .l1T , ..., AC
=[A1 − − =[a1 − m, ..., aN − m]
T mC .lC ]
(5) (6) (7)
Dimana, li = (1, ..., l)T ∈ RNi dan Ai adalah matriks data untuk kelas Li . Rank tiap matriks sebaran adalah rw = rank(Sw ), rb = rank(Sb ), dan rt = rank(St ). Untuk data berdimensi tinggi (N << D), rb ≤ C − 1, rw ≤ N − C dan rt ≤ N − 1. Metode Analisa Diskriminan Linier mencoba menemukan subspace optimal dengan cara memaksimalkan perpisahan dua kelas. Hal ini dapat diperoleh dengan meminimalkan jarak matriks sebaran within-class Sb dan memaksimalkan jarak matriks sebaran between-class Sw secara simultan. Fisher Criterion dapat dituliskan sebagai JF (Φ) = trace{(ΦT Sw Φ)−1 (ΦT Sb Φ)}
(8)
Dimana Φ adalah matriks transformasi linier. Solusi yang memaksimalkan Fisher criterion (JF ) adalah set dari eigenvector {φi |i = 1, 2, ..., k} yang bersesuaian dengan k eigenvalue terbesar {λi |i = 1, 2, ..., k}. Batas atas dari k adalah C − 1, dimana C adalah jumlah kelas. Sb φ = λSw φ 136
(9)
I − Se2 v = λ1 v Se2 v = (1 − λ1 ) v
(12) (13)
Ini artinya Se2 mempunyai eigenvector yang sama dengan Se1 tetapi eigenvalue yang bersesuaian adalah λ2 = 1 − λ1 . Konsekuensinya, eigenvector yang dominan pada S1 adalah eigenvector terendah pada S2 dan sebaliknya. Akibatnya, pola yang merupakan anggota kelas 1 mendapatkan nilai koefisien besar ketika diproyeksikan pada eigenvector dominan dari S1 dan sebaliknya. Eigenvector akan membentuk subspace dimana 2 kelas terpisah. Klasifikasi dapat dilakukan dengan mengambil nearest neighbor pada subspace ini. ALGORITMA ADL/TFK Transformasi Fukunaga Koontz diterapkan untuk mengatasi masalah singularity Sw . Umumnya, pada permasalahan Analisa Diskriminan Linier terdapat lebih dari dua kelas. Untuk menangani masalah banyak kelas, matriks autokorelasi S1 dan S2 disubstitusi dengan matriks sebaran Sb dan Sw . Transformasi Fukunaga Koontz dapat diaplikasikan pada Sb , Sw , dan St karena Sb , Sw , dan St bersifat semi-definit positif dan simetris dimana St = Sb + Sw . Metode tersebut dinamakan Analisa Diskriminan Linier/Transformasi Fukunaga Koontz (ADL/TFK). Seluruh space data didekomposisikan menjadi U dan U⊥ . U⊥ adalah suatu set eigenvector yang berhubungan dengan eigenvalue nol dari St . Set eigenvector ini adalah titik temu null space Sb dan Sw dan tidak memiliki informasi diskriminan. Disisi lain, U adalah set eigenvector yang berhubungan dengan eigenvalue bukan nol dari St dan berisi informasi diskriminan.
Soelaiman, Penerapan Metode Analisa Diskriminan Majemuk Dengan Pendekatan Transformasi Fukunaga Koontz
Berdasarkan rumus Transformasi Fukunaga Koontz yaitu Seb = P T Sb P dan Seb = P T Sw P membagi eigenspace yang sama dan jumlah dari dua eigenvalue yang berhubungan dengan eigenvector yang sama adalah sama dengan 1. Berdasarkan rasio eigenvalue λλwb , U dapat didekomposisi menjadi tiga subspace. U⊥ disertakan sebagai subspace keempat untuk menjaga integritas keseluruhan space data [3][1]. Subspace 1. span (Sb ) ∩ null (Sw ), set eigenvector {vi } berhubungan dengan λw dan λb = 1. Karena λλwb = ∞, pada subspace ini rasio eigenvalue maksimal. Subspace 2. span (Sb ) ∩ span (Sw ), set eigenvector {vi } berhubungan dengan dan 0 < λw <1 dan 0 < lambdab <1. Karena 0 < λλwb < ∞, rasio eigenvalue terbatas dan lebih rendah dari Subspace 1. Subspace 3. null (Sb ) ∩ span (Sw ), set eigenvector {vi } berhubungan dengan λw = 1 dan λb = 0. Karena λλwb = 0, rasio eigenvalue minimal. Subspace 4. null (Sb ) ∩ null (Sw ), set eigenvector berhubungan dengan eigenvalue nol dari St . Pada prakteknya, beberapa subspace dari keempat subspace ini mungkin tidak ada, tergantung rank dari Sb , Sw , dan St .
1 HI = √ [..., (ai − aj ), ...] NI Dimana L(ai ) = L(aj ) HE = √
1 [..., (ai − aj ), ...] NE
mI = mE = 0 X
X
I=
1 NI
1 E= NE
X
(ai − aj )(ai − aj )T
(14) (15)
L(ai )=L(aj )
X
(ai − aj )(ai − aj )T
(16)
L(ai )6=L(aj )
1X ni (ni − 1) 2 X NE = ni nj NI =
(17) (18)
Li 6=Lj
Dimana, NI adalah jumlah sample pada ΩI dan NE adalah sejumlah sample pada ΩE . P P Sebagai catatan, biasanya, rank ( E ) dan rank ( I ) keduanya lebih besar dari C − 1, dimana C adalahP jumlah kelas. HI dan HE adalah matriks precursor dari I dan P E dinyatakan dengan
(20)
Dimana L(ai ) 6= L(aj ) Tujuan utama adalah menemukan subspace Φ dimana ΩI dan ΩE dapat dipisahkan sejauh mungkin. Jarak Bhattacharyya dapat digunakan untuk menghitung overlap dari berbagai fungsi padat peluang (probability density function). Berdasarkan referensi [6], subspace optimal Φ dapat dihitung dengan memaksimalkan criterion baru dimana jarak Bhattacharyya: JM DA = ln|(ΦT
X
Φ)−1 (ΦT
X
E
(ΦT
X
Φ) +
I
Φ)−1 (ΦT
I
ALGORITMA ADM/TFK Dari perspektif Bayes Classifier, Analisa Diskriminan Li-nier hanya optimal jika diterapkan pada dua distribusi Normal dengan matriks kovarian yang sama. Metode berbasis Analisa Diskriminan Linier akan tidak optimal jika dibanding dengan Bayes Classifier [6][7]. Kasus terburuk terjadi ketika semua kelas mempunyai rata-rata yang sama. Pada kasus ini, Sb = 0 dan semua metode berbasis Analisa Diskriminan Linier akan gagal. Untuk menangani permasalahan ini, masalah banyak kelas diubah menjadi masalah klasifikasi pola binary dengan memperkenalkan 4 = ai − aj dan mendefinisikan space intraclass ΩI = {(ai − aj )|L(ai )} = L(aj ), begitu juga extraclass ΩE = {(ai − aj )|L(ai )} 6= L(aj ) dimana L(ai ) adalah label kelas dari ai .
(19)
X
Φ) + 2Id |
(21)
E
Dimana Id adalah matriks identitas pada space dimensi rendah. P P Jika I atau E singular, subspace tidak dapat diperoleh secara langsung dengan inversi matriks. Namun, dengan Transformasi Fukunaga Koontz paPmengaplikasikan P da I dan E dapat diperoleh empat subspace dengan dua kurva eigenvalue seperti pada Gambar 1. Anggap λI dan λE adalah eigenvalue yang berasosiasi dengan eigenvector yang sama dan adalah generalized eigenvalue dari P λP pasangan matriks ( I , E ), maka generalized eigenvalue λ = λλEI dan λI + λE = 1. Berdasarkan referensi [6], JM DA dapat dimaksimalkan dengan menghitung eigenvector yang bersesuaian dengan λ + λ1 . Teori ini dinamakan Analisa Diskriminan Majemuk / Transformasi Fukunaga Koontz, ADM/TFK. ADM memiliki beberapa fitur dengan fitur pertama mengenai subspace diskriminan yang dihasilkan optimal pada jarak Bhattacharyya. Fitur kedua menyatakan bahwa ADM menemukan subspace optimal global dengan memaksimalkan jarak Bhattacharyya yang merupakan batas error Bayes Classifier. Fitur terakhir tentang eigenvector diskriminan yang P dihasilkan bisa lebih dari C–1 karena umumnya rank I P dan E lebih besar dari C–1, batas atas rank Sb . Berdasarkan criterion baru pada persamaan (20), analisa pada Transformasi Fukunaga Koontz menunjukkan bahwa Subspace 1 dan Subspace 3 adalah subspace paling P diskriminan.P Tetapi, akan beresiko jika menggunakan PI ∈ D×D secara langsung. Karena I RD×D P dan E ∈ R dan E mungkin bersifat singular atau terlalu besar untuk dibentuk. Matriks precursor HI ∈ RD×NI dan HE ∈ RD×NE dapat digunakan sebagai alternatif. Namun menggunakan HE juga tidak P efisien Pkarena NE terlalu besar. Hubungan antara St , I , dan E adalah N St = NI
X I
+NE
X
(22)
E
137
Volume 7, Nomor 3, Januari 2009 : 135–142
Gambar 1: Dekomposisi seluruh data menjadi 4 subspace
Jika didefinisikan maka
P0
I
St =
=
X0
NI N
I+
P
I
X0
dan
P0
E
=
NE N
P
E
E,
(23)
Persamaan P P generalized P eigenvalue P untuk pasangan matriks ( I , E ) adalah E v = λ I v. P0 P0 P P Karena I = NNI I dan E = NNE E P P 0 0 maka NNE E v = λ NNI I v, sehingga X0
Ev =
NE X0 λ Iv NI
(24)
JikaP dibandingkan dengan eigenP0 persamaan Pgeneralized 0 P0 0 value ( I , E ) adalah E v 0 = λ0 I v 0 , dapat diketahui bahwa v = v0
(25)
dan λ=
NI 0 λ NE
(26)
IMPLEMENTASI ADM/TFK Berikut adalah tahapan-tahapan implementasi menggunakan algoritma ADM/TFK. Pertama-tama input data awal adalah matriks A. Hitung jumlah seluruh data N dan rata-rata seluruh data m, jumlah NI sesuai persamaan (17), serta Ht dan HI sesuai persamaan (7) dan (19). Kemudian terapkan dekomposisi QR pada Ht . Langkah berikut adalah menghitung Set = RRT karena Set = QT St Q = QT Ht HtT Q = RRT P0 Asumsi bahwa Z = QT ∗ HI , untuk menghitung fI = NI T N ZZ karena 0 X g I
138
= QT
0 X I
Q=
NI T NI Q HI HIT Q = ZZ T N N
P0 P0 Selanjutnya hitung fE = Set − fI . Hitung eigenvecP−1 P0 tor v dan eigenvalue σi dari fI fE serta jumlah NE sesuai persamaan (18). Diawali dengan menghitung generalized eigenvalue λi menggunakan eigenvalue σi sesuai persamaan (26), kemudian urutkan eigenvector v berdasarkan λ+ λ1 . Langkah terakhir pada implementasi ADM/TFK adalah menghitung matriks proyeksi akhir dimana φM DA = QVk (k adalah kolom pertama dari V dan V adalah set eigenvector vi ). UJI COBA Uji coba metode ADM/TFK yang dilakukan menggunakan data buatan dan akan dilakukan perbandingan kinerja dengan metode lain. Metode pembanding yang dipergunakan adalah Analisa Komponen Utama (Principal Common Analysis), dan Analisa Diskriminan Linier (Linear Discriminant Analysis). Uji Coba 1 Uji coba 1 dilakukan dengan menggunakan data yang terdiri dari tiga kelas dan berada pada tiga dimensi. Tujuannya adalah memproyeksikan data pada dua dimensi. Tiap kelas memiliki 100 data, rata-rata tiap kelas adalah nol dan matriks kovarian adalah: C1 = [1, 1, 0]T ∗ [1, 1, 0] + 0.1[0, 1, 1]T ∗ [0, 1, 1] C2 = [0, 1, 1]T ∗ [0, 1, 1] + 0.1[1, 0, 1]T ∗ [1, 0, 1] C3 = [1, 0, 1]T ∗ [1, 0, 1] + 0.1[1, 1, 0]T ∗ [1, 1, 0] Uji Kebenaran 1 Pertama akan dilakukan pengujian kebenaran pada algoritma ADM/TFK akan ditampilkan perhitungan langsung generalized eigenvalue dan eigenvector yang berseP−1 P suaian dari fI fE . Untuk data training sample 1, matriks generalized eigenvalue dan eigenvector yang bersesuaian serta hasil dari λ+ 1 λ adalah:
Soelaiman, Penerapan Metode Analisa Diskriminan Majemuk Dengan Pendekatan Transformasi Fukunaga Koontz
λ=
v= λ+
1.0091 0 0 0.4167 0.7433 0.5233
1 = ( 2.0001 λ
0 0 0.9950 0 0 0.9900 ! 0.6535 0.3019 −0.5956 −0.6510 −0.4672 0.6965 !
2.0000
2.0001 )
Dari hasil λ + λ1 diatas dapat diketahui bahwa untuk proyeksi 2 dimensi, eigenvector yang terpilih adalah dari kolom 1 dan 3. Berikut ini adalah data eigenvalue dan eigenvector, generalized eigenvalue λ dan hasil dari λ + λ1 yang diperoleh dari Implementasi ADM/TFK: ! 2.0385 0 0 0 2.0100 0 σ= 0 0 2.000 ! 0.4167 0.6535 0.3019 0.7433 −0.5956 −0.6510 v= 0.5233 −0.4672 0.6965 λ = ( 1.0091 0.9950 0.9900 ) 1 λ + = ( 2.0001 2.0000 2.0001 ) λ
Matriks sebaran lain yang menjadi nilai pembeda kelas seperti matriks sebaran within–class, between-class, intra– class, maupun extraclass tidak diperhitungkan. Proyeksi menggunakan Analisa Diskriminan Linier dan metode apapun yang berbasis Analisa Diskriminan Linier (misalnya: ADL/TFK) tidak dapat dilakukan. Matriks sebaran between–class Sb bernilai nol karena nilai rata–rata pada pada ketiga kelas adalah nol. Akibatnya generalized eigenvalue yang dihasilkan lebih kecil atau sama dengan nol (λ ≤ 0). Uji Coba 2 Uji coba 2 dilakukan dengan menggunakan data yang hanya memiliki dua kelas dengan tiga dimensi. Kelas pertama memiliki 50 data dengan rata-rata nol dan matriks kovarian 0.5I. Kelas kedua de√ √ terdiri dari tiga komponen ngan rata-rata:[1, 4, 0] , b2 3, −2, 0c, dan b−2 3, 2, 0c. Tiap komponen terdiri dari 25 data dan matriks kovarian 0.5I. I adalah matriks identitas dengan jumlah baris dan kolom sama dengan jumlah dimensi (dalam hal ini memiliki 3 dimensi). Uji Kebenaran 2 P−1 P Hasil perhitungan langsung (fI fE ) menghasilkan generalized eigenvalue, eigenvector, serta λ + λ1 : λ=
Untuk proyeksi 2 dimensi, eigenvector terpilih juga berasal dari kolom 1 dan 3. v= Uji Efisiensi 1 Biaya komputasional minimal perhitungan langsung P f = ((QT ∗)(HE ∗ H T ) ∗ Q) = 270054 E E P f = ((QT ∗)(HI ∗ H T ) ∗ Q) = 133704 I I Biaya komputasional minimal dengan algoritma ADM/TFK P0 P Set = R ∗ RT = 2700, fI = (N I/N ) * fI = 133714 P P Pembentukan matriks fE dan fI memerlukan biaya komputasional sebanyak 270054 + 133704 = 403758, sedangP0 kan biaya komputasional ADM/TFK Set dan fI hanya berjumlah 2700 + 133714 = 136414. Perbandingan Kinerja 1 Proyeksi menggunakan ADM/TFK dapat dilakukan P P karena matriks sebaran intraclass I dan extraclass E tidak bernilai nol. Hasil proyeksi menunjukkan perpisahan tiga kelas yang cukup jelas meskipun terdapat daerah yang merupakan perpotongan tiga kelas. Selanjutnya hasil proyeksi menggunakan ADM/TFK dibandingkan dengan metode Analisa Komponen Utama dan Analisa Diskriminan Linier. Hasil proyeksi menggunakan Analisa Komponen Utama menunjukkan penumpukan daerah klasifikasi antara kelas pertama (warna hitam) dan kelas kedua (warna biru). Analisa Komponen Utama gagal melakukan proyeksi pada dua dimensi karena hanya memperhitungkan matriks sebaran total sementara semua kelas memiliki rata–rata nol.
λ+
! 0.9525 0 0 0 0.7213 0 0 0 0.7413 ! 0.6791 −0.7014 0.0059 −0.3702 −0.5519 −0.7052 −0.6338 −0.4510 0.7090
1 = ( 2.0024 λ
2.1076
2.0902 )
Dari hasil diatas dapat diketahui bahwa untuk proyeksi 2 dimensi, eigenvector yang terpilih adalah dari kolom 2 dan 3. Berikut ini adalah data eigenvalue dan eigenvector, generalized eigenvalue dan hasil dari yang diperoleh dari Implementasi ADM/TFK: ! 0.8930 0 0 0 0.6763 0 σ= 0 0 0.6950 ! 0.6791 −0.7014 0.0059 −0.3702 −0.5519 −0.7052 v= −0.6338 −0.4510 0.7090 λ = ( 0.9525 0.7213 0.7413 ) 1 λ + = ( 2.0024 2.1076 2.0902 ) λ Untuk proyeksi 2 dimensi, eigenvector terpilih juga berasal dari kolom 2 dan 3. Data pada uji coba 1 dan 2 di atas membuktikan bahwa penerapan Transformasi Fukunaga Koontz akan menghasilkan eigenvector yang sama (shared eigenvector). Lebih lanjut lagi, metode ADM/TFK yang telah dibuat mampu menghitung eigenvector tanpa P menghitung matriks E secara langsung yang pada umumnya terlalu besar untuk dibentuk. 139
Volume 7, Nomor 3, Januari 2009 : 135–142
(a) Representasi data pada 3 dimensi
(b) Proyeksi 2 dimensi dengan ADM/TFK
Gambar 2: Data uji coba 2
Gambar 3: Data uji coba 1: proyeksi 2 dimensi dengan Analisa Komponen Utama
Uji Efisiensi 2 Biaya komputasional minimal perhitungan langsung P f = ((QT ∗ (HE ∗ H T )) ∗ Q) = 33804 E E P f = ((QT ∗ (HI ∗ H T )) ∗ Q) = 36054 I I Perhitungan menggunakan algoritma Analisa Diskriminan Majemuk atau Transformasi Fukunaga Koontz. Biaya komputasional minimal dengan algoritma ADM/TFK. Set = R ∗ RT = 1125 0 P f = (N I/N ) ∗ P f = 36064 I I P P Pembentukan matriks fE dan fI memerlukan biaya komputasional sebanyak 33804 + 36054 = 69858, sedangP0 kan biaya komputasional ADM/TFK Set dan fI hanya berjumlah 1125 + 36064 = 37189. Dari perbandingan dua metode yang menghasilkan eigenvector yang sama dapat diketahui bahwa perhitungan algoritma ADM/TFK memerlukan biaya komputasional pada pembentukan matriks yang lebih sedikit daripada meto140
de langsung. Perbandingan Kinerja 2 Hasil proyeksi menunjukkan perpisahan dua kelas yang sangat jelas meskipun kelas kedua terdiri dari tiga komponen yang menyebar disekitar kelas pertama. Hal ini karena P analisa yang dilakukan pada matriks sebaran intraclass I P dan extraclass P untuk melakukan proyeksi E mengizinkanP mengingat rank( I ) dan rank( E ) lebih P besar dariPC-1 dimana C adalah jumlah kelas. Rank( I ) dan rank( E ) diperoleh dari jumlah data sample yang digunakan bukan jumlah kelas. Jika subspace diskriminatif pada ADM/TFK semakin besar maka perpisahan data pada masing-masing kelas dapat dilakukan. Proyeksi menggunakan Analisa Komponen Utama sangat jelas. Hal ini karena rata-rata yang berbeda antara kelas pertama dengan ketiga komponen pada kelas kedua. Rendahnya nilai matriks kovarian (yaitu 0.5*I) menyebab-
Soelaiman, Penerapan Metode Analisa Diskriminan Majemuk Dengan Pendekatan Transformasi Fukunaga Koontz
(a) Representasi data pada 3 dimensi
(b) Proyeksi 2 dimensi dengan ADM/TFK
Gambar 4: Data uji coba 2
Gambar 5: Data uji coba 1: proyeksi 2 dimensi dengan Analisa Komponen Utama
kan data berkumpul disekitar rata-rata. Sehingga data dapat dibedakan tanpa menggunakan matriks sebaran yang membedakan proyeksi tiap kelas. Proyeksi menggunakan Analisa Diskriminan Linier berupa garis lurus dan tidak dapat membedakan data pada matriks kelas pertama dan kedua. Proyeksi hanya dapat dilakukan pada dimensi satu karena untuk data dengan dua kelas rank (Sb ) = 1. Proyeksi pada dimensi satu tidak dapat digunakan untuk membedakan masing-masing kelas yang ada. SIMPULAN Beberapa kesimpulan yang dapat diambil adalah sebagai berikut. Metode Analisa Diskriminan Majemuk atau Transformasi Fukunaga Koontz dibentuk berdasarkan jarak Bhattacharyya yang merupakan batas error dari Bayes Classifier. Sehingga, secara teoritis, metode ini lebih ung-
gul dari Fisher Criterion yang dibentuk berdasarkan matriks sebaran dan tidak berhubungan dengan Bayes Classifier. Metode Analisa Diskriminan Majemuk atau Transformasi Fukunaga Koontz dapat menyediakan subspace diskriminatif yang lebih besar dan tidak dibatasi oleh jumlah kelas. Metode Analisa Diskriminan Majemuk atau Transformasi Fukunaga Koontz dapat bekerja meskipun matriks sebaran between-class Sb = 0 dimana semua metode berbasis Analisa Diskriminan Linier gagal diterapkan. Metode Analisa Diskriminan Majemuk atau Transformasi Fukunaga Koontz dapat diterapkan meskipun jumlah data lebih kecil dari jumlah dimensi yang ada. Metode Analisa Diskriminan Majemuk / Transformasi Fukunaga Koontz melakukan proses penghematan space dengan tidak mengguP nakan fE secara langsung. Penelitian lebih lanjut dapat dilakukan dengan mengembangkan teori Transformasi Fukunaga Koontz pada analisa subspace diskriminan nonlinier.
141
Volume 7, Nomor 3, Januari 2009 : 135–142
Gambar 6: Data uji coba 1: proyeksi 2 dimensi dengan Analisa Diskriminan Linier
DAFTAR PUSTAKA [1] Anton, H., Rorre, C.: Elementary Linear Algebra: Application Version. 7 edn. J. Wiley and Sons (1997) [2]
http://people.revoledu.com/kardi/ tutorial/LDA/index.html
[3] Zhang, S., Sim, T.: Discriminant Subspace Analysis: A Fukunaga Koontz Approach. IEEE Transaction On Pattern Analysis and Machine Intelligence 29(10) (October 2007) 1732–1745 [4] Duda, R., Hart, P., Stork, D.: Pattern Recognition. 2 edn. [5] Soelaiman, R.: Sistem Pengenalan Wajah Dengan Penerapan Algoritma Genetika pada Optimasi Basis
142
Eigenface dan Proyeksi Fisherface. Master’s thesis, Universitas Indonesia (2003) [6] Fukunaga, K.: Introduction to Statistical Pattern Recognition. 2 edn. Academic Press (1990) [7] Jain, A.K., Duin, R.P., Mao, J.: Statistical Pattern Recognition: A Review. IEEE Transaction On Pattern Analysis and Machine Intelligence 22(1) (January 2000) 4–37 [8] Laaksonen, J.: Subspace Classifiers in Recognition of Handwritten Digits. Technical report, Helsinki University of Technology (1997)