SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND IT’S EDUCATIONS 2009
PENGENALAN CITRA WAJAH MENGGUNAKAN SUPPORT VECTOR MACHINE BERBASIS SEGMENTASI 2D-DISCRETE COSINE TRANSFORM (1)
(1)
1) Arif Muntasa , Mochamad Kautshar Sophan 1). Jurusan Teknik Informatika, Universitas Trunojoyo Madura. Jl Raya Telang, Bangkalan Telp. (031)3011147-Faks. (031)3011147 Email :
[email protected],
[email protected] ABSTRAKS Pada penelitian ini penulis mengusulkan pendekatan ekstraksi fitur menggunakan satu sinyal dari Two Dimensional-Discrete Cosine Transform (DCT-2D) dengan membagi citra menjadi beberapa region. Setiap region akan diekstrak fiturnya menggunakan 2D-DCT dan menghasilkan satu koefisien. Jumlah fitur yang dihasilkan pada ekstraksi fitur kemudian dihutung pengukuran kemiripannya menggunakan support vector machine dengan metode voting one-againone. Eksperimen dilakukan pada citra wajah basisdata YALE, menghasilkan rata-rata akurasi pengenalan untuk 6 sampel sebesar 96%. Sedangkan untuk 7 sampel data pelatihan rata-rata akurasinya sebesar 97.16667%. Usulan metode yang penulis usulkan juga dibandingkan dengan metode lain, yaitu Markov Random Field (MRF) dan Segmentasi 2D-DCT. Hasil perbandingan menunjukkan bahwa metode yang penulis usulkan akurasinya lebih tinggi 1.33% untuk 6 sampel dan 1.10667% untuk 7 sampel dibandingkan metode Segmentasi 2D-DCT. Namun jika dibandingkan dengan MRF, maka lebih rendah 0.11% untuk 6 sampel data dan 1.5033% untuk 7 sampel. Namun untuk maksimal akurasi pengenalan usulan metode penulis lebih tinggi jika dibandingkan dengan metode Segmentasi 2D-DCT maupun MRF Kata Kunci : Ekstraksi fitur, 2D-Discrete Cosine Transform, Pengukuran Kemiripan, Support Vector Machine, one-again-one 1. LATAR BELAKANG Penelitian pengenalan wajah yang model holistic telah banyak dilakukan, diantaranya yang berbasis kernel PCA (Muntasa 2008c) dan yang berbasis Two Dimensional Discrete Cosinus Transform (2DDCT) model zig-zag 8x8 dapat ditemukan pada beberapa penelitian (Ekenel ,2005; Ekenel, 2007; Hafed ,2001; Pan, 1999, muntasa 2009). Pada pengenalan citra wajah terdapat tiga macam metode yaitu metode holistic, berdasarkan fitur, dan hybrid. Diantara metode holistic, metode berdasarkan penampakan (appearance based-methode) adalah teknik paling banyak digunakan oleh para peneliti. Sebagai contoh metode yang sukses adalah PCA(Turk, 1991) dan LDA (Belhumeur, 1997). Hasil pengenalan maksimal dapat diperoleh dengan eigenvector dari sejumlah eigenface dengan threshold antara 0.8 sampai 0.99 (Muntasa, 2008a). Pada penelitian ini, penulis mengusulkan metode penedekatan lain berdasarkan penampakan yang berbasis signal yang menggunakan DCT 2D yang dibagi menjadi region-region dan setiap region cukup dihitung satu koefisien saja. Hasil ekstraksi menggunakan DCT 2D selanjutnya diukur kemiripannya menggunakan support vector machine. Pendekatan yang digunakan pada penelitian ini berbeda dengan penelitian yang umumnya dilakukan. Ekstraksi fitur menggunakan DCT-2D dan diukur menggunakan naive bayesian (Muntasa 2009).
C( x, y) =
2 M .N
N −1 M −1
α (u)α (v)∑∑ f ( x, y) cosα cos β
(1)
x = 0 y =0
Invers 2D-DCT dapat dituliskan dalam bentuk Persamaan. N −1 M −1 2 (2) f( x, y) = α (u)α (v)∑∑C(u, v) cosα cosβ M .N x=0 y =0 Dimana : π (2 x + 1)u , α= 2N π (2 y + 1)v β = 2M dan α (u ) =
1 N 2 N
Untuk Untuk
u = 0 u <> 0
u = 0,1,2, . . . ., N-1 dan v = 0,1,2, . . . ., M-1. Dengan N=8 dan M=8, maka DCT-2D akan menghasilkan gambar seperti pada Gambar 1.
2.1 DISCRETE COSINE TRANSFORM (DCT) 2D-DCT merupakan model yang memetakkan data spasial kedalam bentuk sinyal, model 2D-DCT dapat dituliskan menggunakan persamaan
Gambar 1. DCT 2 Dimensi dengan basis N = 8 B1-18
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND IT’S EDUCATIONS 2009
B1-19
2.2. Pengukuran Kemiripan Hasil reduksi dimensi akan diproses lebih lanjut menggunakan Support Vector Machine (SVM), metode ini mampu memisahkan data yang non linier. Berbeda dengan strategi neural network yang berusaha mencari hyperplane pemisah antar kelas, SVM berusaha menemukan hyperplane yang terbaik pada input space. Prinsip dasar SVM adalah linear classifier, dan selanjutnya dikembangkan agar dapat bekerja pada problem non-linear. dengan memasukkan konsep kernel trick pada ruang kerja berdimensi tinggi. SVM awalnya dikembangkan untuk pemisahan dua kelas saja, namun akhirnya dikembangkan lebih luas untuk klasifikasi banyak kelas.
Nilai margin ini dimaksimalkan dengan tetap menggunakan persamaan (4), hal ini sama artinya 2 dengan meminimimkan nilai dari |W| . Sehingga bidang pemisah terbaik dengan nilai margin terbesar dapat dirumuskan menjadi masalah optimasi 2 konstrain, yaitu min 0.5 |W| menggunakan persamaan
2.2.1.
s. t
SVM pada Linearly Separable Data Jika diketahui {X1, X2 . . . . . . . . ., Xn} adalah merupakan himpunan data dengan output label Yi mempunyai anggota {+1, -1}, merupakan label kelas dari data Xi. Ilustrasi dari penjelasan tersebut dapat dilihat pada Gambar 2. Pada Gambar 2 menjelaskan dua kelas dengan garis pemisah yang berbedabeda, hal ini menunjukkan bahwa untuk memisahkan data tersebut, mempunyai banyak kemungkinan garis atau bidang pemisah. Bidang pemisah yang paling baik adalah berada ditengahtengah antara support vector dari dua data yang akan dipisahkan seperti pada Gambar 3.
Gambar 2. Himpunan Dua Kelas Data Dengan Berbagai Bidang Pemisah Untuk Memisahkan Dua Kelas
W(Xi – Xj) = 2 (Xi – Xj) = 2/W
(3)
Jika m = (Xi – Xj), maka akan didapatkan nilai m m = 2/|W| (4)
Yi(Xi . W + b) – 1 >=0
min LP ( w, b, α ) = w, b
n n 1 | w |2 −∑ α i yi ( xi w + b) + ∑ α i 2 i =1 i =1
(5)
dengan meminimkan Lp terhadap w dan b, maka diperoleh. n
∑α y
=0
i i
(6)
i =1
w=
n
α i yi xi ∑ i =1
(7)
Vektor W seringkali bernilai besar, tetapi nilai α terhingga, oleh karena itu formula lagrangian LP (Primal Problem) diubah kedalam bentuk LD (dual problem) (Tsuda, 2000), dengan mensubstitusikan Persamaan (7) kedalam LP, maka akan diperoleh :
LD (α ) =
n
∑αi − i =1
1 n α iα j yi y j xi x j 2 i =1, j =1
(8)
sehingga
bidang
∑
min L p = min L D w,b
α
pencarian
pemisah terbaik dapat dituliskan Bidang pembatas pertama membatasi kelas pertama sedangkan bidang pembatas kedua membatasi kelas kedua yang dapat dituliskan dengan menggunakan Xi W + b >= +1 untuk Yi = +1 Xj W + b <= – 1 untuk Yi = –1 (2)
Gambar 3. Himpunan Dua Kelas Data Dengan Bidang Pemisah terbaik
max L D (α ) =
∑αi − i =1
1 2
n
∑α α i
i =1, j =1
j
y i y j xi x j
(9)
dengan n
s.t
α i y i = 0, ∑ i =1
αi ≥ 0
Dengan demikian, dapat diperoleh nilai αi yang nantinya digunakan untuk menemukan w. Terdapat nilai αi untuk setiap data pelatihan. Data pelatihan yang memiliki nilai αi > 0 adalah support vector sedangkan sisanya memiliki nilai αi =0. Dengan demikian fungsi keputusan yang dihasilkan dipengaruhi oleh support vector (Christopher, 1998). Kelas data pengujian x dapat ditentukan berdasarkan nilai fungsi keputusan f (xd ) =
W adalah bidang normal dan b adalah posisi bidang relatif terhadap pusat koordinat. Nilai margin (jarak) antara bidang pembatas (berdasarkan rumus jarak garis ke titik pusat) adalah
n
2.2.2.
m
α i y i xi + b ∑ i =1
(10)
SVM pada Nonlinearly Separable Data
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND IT’S EDUCATIONS 2009
Pada kenyataannya, kebanyakan sebaran data adalah nonlinier. Ada dua cara penyelesaian pemisahan data nonlinier, pertama dengan memodifikasi linearly separable data melalui penambahan variabel . Kedua adalah dengan memetakkan input space ke feature space menggunakan fungsi Kernel yang memenuhi syarat Mercer yaitu menghasilkan matrik yang positive semi definite a. Nonlinearly Separable Data melalui penambahan variabel Untuk mengklasifikasikan data yang tidak dapat dipisahkan secara linier formula SVM harus dimodifikasi karena tidak akan ada solusi yang ditemukan. Oleh karena itu, kedua bidang pembatas pada Persamaan (2) harus dimodifikasi sehingga lebih fleksibel (untuk kondisi tertentu) dengan penambahan variabel ξi (ξi > 0, ∀i : ξ= 0 jika xi diklasifikasikan dengan benar) menjadi Xi W + b >= +1 – ξ untuk Yi = +1 Xj W + b <= – 1 + ξ untuk Yi = –1
(11)
Pencarian bidang pemisah terbaik dengan dengan penambahan variabel ξi sering juga disebut soft margin hyperplane. Dengan demikian formula pencarian bidang pemisah terbaik berubah menjadi n
1 min | w | 2 +c ( ξ i ) 2 i =1
∑
s.t.
Xi W + b >= +1 – ξ
(12)
dimana ξ > 0 c merupakan parameter yang menentukan besar penalti akibat kesalahan dalam klasifikasi yang dilakukan oleh pengguna. Sehingga bentuk primal sebelumnya dapat dirubah menjadi bentuk dual 1 (13) min L p ( w, b, α ) = | w |2 + G w, b 2 dimana n
n
n
i =1
i =1
i =1
G = c(∑ ξ i ) − ∑ α i { y i ( xi w + b) − 1 + ξ i } + ∑ µ i ξ i
c<=α<=0 (Christopher, 1998). Ilustrasinya dapat dilihat pada Gambar 4. b. Nonlinearly Separable Data melalui pemetaan input space menjadi feature space Pada dasarnya kernel didasarkan pada penggunaan fungsi Mercer Kernel. Fungsi Kernel adalah fungsi yang memetakkan dari input space menjadi feature space (Scholkopf dkk,1998; Scholkopf dkk,1999) menggunakan persamaan berikut : φ : Rn → F
(14)
k ( x, y ) = (φ ( x), φ ( y ))
(15)
Pemetaan φ adalah nonlinier yang digunakan untuk menghindari komputasi secara eksplisit dari φ(x). Beberapa fungsi Kernel nonlinier yang memenuhi fungsi Mercer Kernel antara lain adalah Gaussian, Polynomial dan Sigmoidal. Masing-masing fungsi tersebut dapat dilihat pada persamaan k ( z1 , z 2 ) = exp(
bidang pemisah terbaik dilakukan dengan cara mirip dengan kasus dari data yang dapat dipisahkan secara linier, tetapi rentang nilai αi berubah menjadi
− || z1 − z2 ||2
σ
)
(16)
k ( z1 , z ) = (a( z1 .z 2 ) + b) d
(17)
k ( z1, z ) = tanh(a( z1.z2 ) + b)
d
(18)
Secara prinsip, pemetaan φ dapat digunakan untuk merubah suatu permasalahan nonlinier pada ruang R menjadi permasalahan linier pada ruang F. Pada ruang F , semua proses diperlakukan sebagai model linier.
3. METODE USULAN Secara garis besar usulan metode terdiri dari dua tahapan besar. Pertama, ekstraksi fitur, kedua pengukuran kemiripan. Untuk melakukan ekstraksi 2 fitur dengan membagi citra menjadi sejumlah P region. Masing-masing region hanya diekstrak 1 koefisien saja sesuai dengan lokasi region menggunakan Persamaan (1). Jika satu citra dibagi 2 menjadi P , maka jumlah fitur yang diperoleh adalah
Fi =
Gambar 4. Softmargin hyperplane
B1-20
F(1,1) F(2,1) F(3,1) ..... F(P,1)
F(1,2). . . F(2,2). . . F(3,2). . .
F(1,P) F(2,P) F(3,P)
F(P,2). . .
F(P,P)
(19)
Selanjutnya untuk setiap citra, koefisien DCT-2D tersebut dibentuk dalam bentuk vektor baris Fi, 2 dimana i=1, . . P . Jika jumlah data pelatihan sebanyak N, maka vektor fitur yang terbentuk adalah F(1,1) F(2,1) F(3,1)
F(1,2). . . F(2,2). . . F(3,2). . .
2
F(1,P ) 2 F(2, P ) 2 F(3, P )
(20)
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND IT’S EDUCATIONS 2009
2
F(N,2). . .
F(N, P )
Pada fase pelatihan, setiap vektor fitur citra pelatihan akan disatukan dan membentuk matrik vektor fitur. Pada fase ujicoba, vektor fitur citra yang akan diuji coba dibandingkan dengan matrik vektor fitur citra pelatihan. Jarak terpendek antara yang diperoleh dari hasil perbandingan antara citra pelatihan dan citra ujicoba merupakan citra hasil pengenalan. Untuk melakukan pengukuran kemiripan, digunakan Persamaan (9). Sedangkan untuk mengambil keputusan pemisahan data multi kelas, penulis menggunakan metode voting one-again-one. Pada metode ini, dibangun k(k-1)/2 buah model klasifikasi biner (k adalah jumlah kelas). Setiap model klasifikasi dilatih pada data dari dua kelas. Untuk data pelatihan dari kelas ke-i dan kelas ke-j, dilakukan pencarian solusi untuk persoalan optimasi konstrain menggunakan persamaan (21).
min
w ij , b ij , ζ ij
1 2
( wi )T wi +
∑ζ
ij t
t
(21)
subject to : ij ij T ij (W ) φ(Xt ) + b >= 1 – ξt untuk Yt = i ij ij T ij (W ) φ(Xt ) + b >= –1 + ξt untuk Yt <> i ij dan ξt >=0 Jika data x dimasukkan ke dalam fungsi hasil ij T ij pelatihan f(x) =(W ) φ(Xt ) + b dan hasilnya menyatakan x adalah kelas i, maka suara untuk kelas i ditambah satu. Kelas dari data x akan ditentukan dari jumlah suara terbanyak. Jika terdapat dua buah kelas yang jumlah suaranya sama, maka kelas yang indeksnya lebih kecil dinyatakan sebagai kelas dari data (Christopher, 1998). 4. UJI COBA DAN ANALISA Pada penelitian ini, penulis menggunakan database wajah Citra wajah basisdata YALE (YALE, 2007). Memuat 165 citra dari 15 orang, dimana tiap orang memiliki 11 citra variasi, subyek bervariasi terhadap jenis kelamin, ekspresi wajah, pencahayaan (lighting) dan aksesoris wajah (misalnya kacamata). Pada Gambar 2 dapat dilihat contoh citra wajah basisdata YALE. Penulis melakukan ujicoba dengan menggunakan 6 dan 7 sampel. Ketentuan untuk uji coba adalah Ai ∩ Bk = 0, dimana Ai merupakan citra wajah pelatihan yang akan dilatih, sedangkan Bk merupakan citra wajah yang akan diuji coba. Urutan ujicoba dapat dilihat pada Tabel 1.
Gambar 2. Citra Wajah Basisdata YALE Tabel 1. Daftar urutan sampel uji coba menggunakan Citra wajah basisdata YALE Jumlah Data Sampel Data Sampel Sampel Pelatihan Ujicoba 6 5, 7, 4, 2, 1, 11 8, 10, 3, 6, 9 7 5, 7, 4, 2, 1, 11, 8 10, 3, 6, 9 Hasil pengukuran kemiripan untuk 6 sampel menggunakan 40 sampai dengan 90 fitur. Sedangkan hasil pengukuran kemiripan untuk 7 sampel menggunakan 40 sampai dengan 105 fitur, hasil ujicobanya dapat dilihat tingkat akurasi kebenarannya pada Gambar 3. Jumlah fitur yang banyak tidak menjamin akurasi yang lebih tinggi. Berdasarkan beberapa hasil pengukuran menggunakan basisdata YALE, rata-rata akurasi pengenalan untuk 6 sampel 95.33% dan akurasi maksimalnya adalah 97.333. Sedangkan rata-rata akurasi pengenalan untuk 7 sampel adalah 965.5% dan akurasi maksimalnya adalah 100%. Akurasi rata-rata dan maksimal pengenalan untuk 6 dan 7 sampel dapat dilihat selengkapnya pada Tabel 2. Tabel 2. Akurasi Pengenalan Maksimal Basisdata YALE Menggunakan Segmentasi 2D-DCT 2. Akurasi Pengenalan. Jumlah Sampel Maksimal Rata-rata 6 97.333 96 7 100 97.16667 Penulis juga melakukan perbandingan hasil ujicoba terhadap metode Markov Random Field (MRF)(Huang, 2004) dan segmentasi 2D-DCT (Muntasa, 2008b). Hasil perbandingan menunjukkan, untuk 6 dan 7 sampel, rata-rata pengenalan metode usulan lebih tinggi dibanding dengan Segmentasi DCT 2 Dimensi, namun lebih rendah dibandingkan dengan metode MRF. Hasil selengkapnya dapat dilihat pada Tabel 3. Akurasi Pengenalan Menggunakan Support Vector Machine Berbasis 2D-SDCT Pada Basisdata YALE 102 Akurasi Pengenalan (%)
Fi = . . . . . . F(N,1)
B1-21
100 98 96 94 92 90 25
36
49
64
81
100
Jumlah Region
6 Sampel 7 Sampel
121
144
169
196
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND IT’S EDUCATIONS 2009
Gambar 3. Grafik Akurasi Pengenalan Menggunakan Support Vector Machine Berbasis 2D- SDCT Pada Basisdata YALE Tabel 3. Perbandingan Hasil Pengenalan Basisdata YALE Antara Metode Usulan, Metode MRF dan Segmentasi 2D-DCT Jumlah Rata-Rata Akurasi Pengenalan (%) Sampel Usulan Segmentasi MRF Metode 2D-DCT 6 96 94.67 96.11 7 97.16667 96.06 98.67 5. KESIMPULAN Berdasarkan hasil ujicoba dan analisa, dapat disimpulkan a. Semakin banyak jumlah fitur, maka mempunyai kecenderungan terhadap kenaikan prosentase peneganalan, meskipun pada jumlah fitur tertentu hasil pengenalnnya menurun. b. Hasil perbandingan menunjukkan bahwa metode yang penulis usulkan akurasinya lebih tinggi 1.33% untuk 6 sampel dan 1.10667% untuk 7 sampel dibandingkan metode Segmentasi 2DDCT. Namun jika dibandingkan dengan MRF, maka lebih rendah 0.11% untuk 6 sampel data dan 1.5033% untuk 7 sampel. 6. PENELITIAN SELANJUTNYA Pada penelitian selanjutnya, dapat dikembangkan metode ekstraksinya yang berbasis kernel dan pengukurannya menggunakan naive Bayesiam dan Support Vecor Machine. Sehingga rata-rata akurasi yang diharapkan dapat lebih baik dari pada yang dilakukan sekarang ini. Penulis juga akan melakukan eksperimen menggunakan data sketsa wajah yang mempunyai modality yang berbeda antara data pelatihan dan data ujicoba. UCAPAN TERIMA KASIH. Penulis mengucapkan terimakasih pada DP2M DIKTI yang telah mendukung dana melalui dana PHB Tahun Anggaran 2009. Penulis juga mengucapkan terimakasih kepada Laboratorium Computing Universitas Trunojoyo atas dukungan peralatan dan tempat untuk eksperimen. PUSTAKA Belhumeur J.H.P.N, D. Kriegman. (1997). “Eigenfaces vs. fisherfaces: Recognition using class specific linear projection”, IEEE Trans. on PAMI, 19(7):711–720. B. Moghaddam, T. Jebara, and A. Pentland, (2000), “Bayesian Face Recognition,” Pattern Recognition, Vol. 33, pp. 1771-1782 Christianini, Nello dan John S. Taylor (2000). An Introduction to Support Vector Machines and Other Kernel-based Learning Methods. Cambridge University Press. Christopher J.C. Burges , (1998), "A Tutorial On Support Vector Machines For Pattern
B1-22
Recognition", Kluwer Academic Publishers, Boston. Manufactured In The Netherlands. Ekenel H. K, R. Stiefelhagen. (2007). “Analysis of Local Appearance based Face Recognition : Effects of Feature Selection and Feature Normalization”, Computer Science Department, Universität Karlsruhe (TH) Am Fasanengarten 5, 76131, Karlsruhe, Germany. Ekenel H. K., R. Stiefelhagen. (2005). “Local Appearance based Face Recognition Using Discrete Cosine Transform”, EUSIPCO, Antalya, Turkey. Gonzalez, R. C. And Woods, R. E. (2001). “ Digital Image Processing”, Prentice Hall, International Edition Second Edition. Hafed Z. M. and M. D. Levine. (2001). “Face Recognition Using the Discrete Cosine Transform”, International Journal of Computer Vision, Vol. 43, No. 3, pp. 167-188. Huang, R. and Pavlovic V and Metaxas, D.N. (2004). “A hybrid face recognation method using markov random fields, ICPR04, pp 157-160. Jon Shlens. (2003). ”A Tutorial On Principal Component Analysis And Singular Value Decomposition”, http://mathworks.com Khayam Ali, Syaid (2003). “The Discrete Cosine Transform (DCT): Theory and Application”, Department of Electrical & Computer Engineering Michigan State University. Muntasa A, Hariadi M, Purnomo M H. (2008a). "Penyeleksian Eigenface Secara Otomatis th Untuk Pengenalan Citra Wajah", The 9 Seminar on Intelligent Technology and Its Applications. 29 – 34. Muntasa A, Hariadi M, Purnomo M H. (2008b). "Ekstraksi Fitur Satu Koefisien Berbasis Two Dimensional Discrete Cosine Transform Untuk Pengenalan Wajah". Jurnal ilmiah sains dan teknologi– Vol 7. Nomor 3 Hal 157-165 Muntasa, A., Hariadi, M., Hery Purnomo, M., (2008c), "Maximum Feature Value Selection Of Nonlinear Function Based On Kernel Pca For th Face Recognition", Proceeding of The 4 Conferrence On Information & Communication Technology and Systems, Surabaya, Indonesia, pp 397-402. Muntasa A, Kautsar Sophan Muhammad (2009). " Ekstraksi Fitur Berbasis 2d-Discrete Cosine Transform Dan Principal Component Analysis Untuk Pengenalan Citra Wajah”, Prosiding Seminar Nasional Aplikasi Teknologi Informasi (SNATI) Jogjakarta, Hal I 52 - I 57 Pan Z. and H. Bolouri. (1999). “High Speed Face Recognition Based on Discrete Cosine Transforms and Neural Networks”, IEEE Transaction on Pattern Analysis and Machine Intelligence. Scholkopf, B., Mika, S., Burges, C. J. C., Knirsch, P., Mller, K. R., Raetsch, G. and Smola, (1999), "Input Space vs. Feature Space in Kernel
SEMINAR NASIONAL ELECTRICAL, INFORMATICS, AND IT’S EDUCATIONS 2009
Based Methods", IEEE Trans. on NN, Vol 10. No. 5, pp. 1000-1017. Scholkopf, B., Smola, A.J. and Mller, K.R., (1998), "Nonlinear Component Analysis as a Kernel Eigen-value Problem", Neural Computation, Vol 10, No. 5, pp.1299-1319. Tsuda K. (2000), “Overview of Support Vector Machine”, Journal of IEICE, Japanese, Vol.83, No.6, pp.460-466 Turk M, A. Pentland (1991). “Eigenfaces for recognition”, Journal of Cognitive Science, pages 71–86, 1991. YALE Center for Computational Vision and Control, YALE Face Database, Diakses pada maret 2007 dari http://cvc.YALE. edu/projects/YALEfaces/YALEfaces.html
B1-23