PENGENALAI{ WAJAH BERBASIS METODE TWO.DIMENSIONAL
LINEAR DISCRIMINANT ANALYSIS
Fitri Damayanti, Agus Zainal Arifin, Rully Soelaiman Program Magi ster Telvtik Informatika, Institut Telutologi SepuluhNopember (ITS) - Surabaya Kompus ITS,Jl Rayo ITS,Sukolilo, Suraboya,60lI t email: fitriZ7AB@y ahoo.com Abstract Linesr Discriminant Analysis (LDA) has been widely used in linear pattern recognition for feature extraction and dimension reduction. It aims to find a set of projection vecir that separate the different as far as possible while compressing the same class as compact ss possible. It works by calculated the within class S* and betweenclass Suscotter mstrices. In face recognition application, generally the dimension of data larger than the number of samples,this cqusesthe within clqss scatter matrix S, is singular, that can make the face features'i not well extracted. Two Dimensional Linear Discriminant Analysis IDLDA) is used on this research for feature extraction, thst evalutes directly the within class scatter matrix -fro* the image matrix without image to vector transformation, ond hence dilutes the singular problem of within clqss scatter mqtrix. This research will developt a face recognition application thot combined Two Dimensional Linear Discriminant Analysis and Support YectorMochine. The combinationof two methodsgre optimal results that hove high accuracy of recognition between84,18%until 100% with the ORL, YALE, and BERN database. Key words : Linear Discriminant Analysis, Two Dimensional Linear Discriminant Analysis, Support Vector Mochine PENDAHULUAN Pengenalanwajah dewasa ini telah menjadi salah satu bidang yang banyak diteliti dan juga dikembangkan oleh para pakar pattern recognition, hal ini disebabkankarena semakin luasnya penggunaanteknik identifikasi wajah dalam aplikasi yang digunakan oleh masyarakat. Para peneliti telah melakukanpenelitian terhadapteknik yang sudahada dan mengajukanteknik baru yang lebih baik dari yang larra, sampaisaatini banyakteknik baru yang telah diajukan akan tetapi teknik-teknik tersebutmasih belum bisa memberikanakurasi yang optimal. Dua hal yang menjadi masalahutama pada identifikasi wajah adalahproses ekstraksi fitur dari sampel wajah yang ada danjuga teknik klasifikasi yang digunakanuntuk mengklasifikasikanwajah yang ingin dikenali berdasarkanfitur-fitur yang telah dipilih.
Ekstraksi Jitur adalah proses untuk mendapatkanciri-ciri pembeda yang membedakan suatu sampel wajah dari sampel wajah yang lain, bagi sebagian besar aplikasi pattern recognition, teknik ekstraksi fitur yang handal merupakan kunci utama dalam penyelesaian masalahpattern recognition. Metode Analisa Komponen Utama (PCA) untuk pengenalanwajah dikenalkan oleh M Turk & Pentland, 1991. Metode tersebut bertujuan untuk memproyeksikan data pada arah yang memiliki variasi terbesar, yang ditunjukkan oleh vektor eigen yang bersesuaiandengan nilai eigen terbesar dari matriks kovarian. Kelemahan dari metode PCA adalah kurang optimal dalam pemisahan antar kelas. Pada tatrun 1991, Cheng dkk memperkenalkanmetodeAnalisa Diskriminan Linier (LDA) untuk pengenalanwajah. Metode ini mencobamenemukansubruanglinear yang memaksimalkanperpisahandua kelas pola menurut Fisher Criterion Jr. Hal ini dapatdiperoleh denganmeminimalkanjarak matriks sebaranwithinclass S, dan memaksimalkanjarak matriks sebaranbetween-class56 s€c&rssimultan sehingga menghasilkanFisher Criterion Jp lang maksimal. Dislviminan Fisher Linier akan menemukan subruangdimana kelas-kelassaling terpisah linier denganmemaksimalkanFisher Criterion Jp Jika dimensi data jauh lebih tinggi daripada jumlah sample training akan menyebabkan,S, menjadi singular. Hal tersebutmerupakankelemahandari metodeLDA [5] Untuk mengatasi kovarian within class yang selalu singular karena small sample size problem telah banyak metode yang ditawarkan. Pada tahun 1997, P.N. Belheumeur memperkenalkarr metode fisherface untuk pengenalan wajah. Metode ini
merupakan
penggabungan antara metode PCA dan LDA. Proses reduksi dimensi dilakukan oleh PCA sebelummelakukanprosesLDA. Hal ini bisa mengatasisingular problem. Tetapi kelemahandari metodeini adalahpada saatprosesreduksi dimensi PCA akan menyebabkankehilanganbeberapa informasi diskriminan yang bergunadalam prosesLDA [5] Metode - metode lainnya yang bisa mengatasi singular problem yaitu Direct-LDA, Null-space based LDA, Pseudo-irwerseLDA, Two-stage LDA, Regularized LDA l2l. Bagaimanapun,semua teknik LDA tersebut memakai model representasidata berdasarkanvektor. Menghasilkanvektor-veklor yang biasanyamemiliki dimensi tinggi. Metode Two Dimensional Linear Discriminant Analysis (TDLDA) menilai secara langsungmatrik within-class scatter dan matrik citra tanpa transformasicitra ke vektor, dan hal itu mengatasisingular problem dalam matrik within-class scatter [6l.TDLDA criterion untuk menemukanproyeksi diskriminatif yang optimal l2l.
memakaifisher
Dalam pengenalanwajah, proses klasifikasi sama pentingnya dengan proses ekstraksi fitur. Setelahfitur-fitur penting dataatau citra wajah dihasilkan padaprosesekstraksifitur, fiturfitur tersebut nantinya akan digunakan untuk proses klasifikasi. Metode klasifikasi yang digunakan adalah pengklasifikasi Support Vector Machine (SVM). Pengklasifikasi SVM menggunakansebuahfungsi atauhyperplaneuntuk memisahkandua buah kelas pola. SVM akan berusahamencari hyperplane yang optimal dimana dua kelas pola dapat dipisahkan dengan maksimal. Penelitian ini mengintegrasikanTDLDA dan SVM untuk pengenalanwajah. TDLDA sebagaimetode ekstraksi fitur yang bisa mengatasisingular problem dan SVM sebagaimetode klasifikasi yang mempunyaikemampuangeneralisasiyang tinggi dibanding metodeklasifikasi KNN. Two-Dimensonal Lineor Discriminant Analysis QDLDA) TDLDA adalahpengembangandari metodeLDA. Didalam LDA pada pengenalanwajah dengan matrik 2D terlebih dahulu ditransformasikankedalam bentuk citra vekfor satu dimensi. Sedangkanpada TDLDA atau disebut teknik proyeksi citra secaralangsung,matriks citra wajah 2D tidak perlu ditransformasikankedalam bentuk citra vektor namun secaralangsung matriks scattercitranya dapatdibentuk langsungdenganmenggunakanmatriks citraaslinya. {At,....,An}adalahn matrikscitra,dimanaAi (i:1,...,k) adalahr x c matriks.Mi(i:1,...,k) adalah rata-rata citra pelatihan dari kelas ke i dan M adalah rata-rata citra dari s€mua data pelatihan. Menganggap (.I x (,, ruang dimensi (dimensional space) t 6l ^R, dimana A rnenunjukkan
tensor
product,
L
menjangkau
nr:
{ut,.-.,tt
) dan ^Rmenjangkau{vt,..,vtr}.Sehingga didefinisikandua matriksZ : fut,..,,ttl, I dan ft fvt,..,v(.,] [3]. Metode ekstraksi fitur adalah untuk menemukan L dan R sehingga ruang citra asli (original image space)Ai dirubah kedalarnruang citra dimensi rendah (low-dimensional image) menjadi Bi:LrAiR.
Ruang dimensi rendah (tow-dimensional space) diperoleh dengan
transformasi linier L dan R, jarak between-clqssDt dan jarak within-class D, didefinisikan sebagaiberikut :
I)b : Zn,llt' (M,- M)Rlli,, n
k
,'
..)
(1)
a: i;;p t" -M)A',,
(2)
j=l t€IL
dimanall llr merupakanFrobeniustnrm' Meninjaubahwa||;||,o=pn*'(l,l)=t^ce(AA\untukmatriks-,4.Sedemikian lebih lanjut sebagai: (5) dan(6) dapatdirepresentasikan sehinggapersamaan 't
,. - ,.\^^1 'r' - r,\rt\ D6 : trace(fn 11(M t M)RRI(M, M\' L)'
(3)
i=l
D.: trace(f2l:(x
-M,)RR'(1-M,)'L).
(4)
,=l r€II,
Samaha|nyadenganLDA,metodeTDLDAadalahuntukmenemukanmatriksZdan]R' proyeksi' sehingga sedernikianhingga struktur kelas dari ruang orisinil tetap didalam ruang patakan(criterioa) dapatdidefinisikansebagai: Jt&,R) = ^*
Do'
(5)
Dv
(9) terdiri dari matrikstransformasiI danR- Matiks Hal tersebutjelas bahwapersamaan meminimumkan transformasioptimal tr dan R dapatdiperolehdenganmemaksimallanDa dan D,.Bagaimanapun,sangatsulituntukmenghitungl,danRyangoptimalsecarasimultan'Dua yang pasti' 't fungsi optimasidapatdidefinisikanuntuk memperolehI dan i. Untuk sebuah R fungsiopimasi sebagaiberikut : dapatdiperolehdenganmenyelesaikan t (Lrsf LD, Jz(L)= a*oo""(Lrs|L)
(6)
dimana
-
t
^ . \ n n r , ,(M, , . " t . ' r, - M)r sf = 'n,(u, - MrRRr t=l
(7)
S; : Il1x-u;an, 1x-u,1'.
(8)
t I Ffl,
Dengancatatanbahwaukuranmatriks Sf dan Sf adalahr rcr yurg lebih kecil daripada ukuranmatriks& danSapadatrDl klasik' Untuksebuahtryangpasti,,Rdapstdipero|ehdenganmenyelesaikanfungsioptimasi sebagaiberikut : h(R): mactrace(RrshRf&rsLbR))' dimana
(9)
'st:
- M)'tf 1u,* M), t",(M,
(l 0)
sh : I I (x -M,)' LL'(x-M,), i=l refli
(l 1)
,k
Ukuran matriks ,Sf dan Srradalahc x c yang lebih kecil daripadaukuran matriks S, dan ,56 padaLDA klasik. Secara khusus, untuk sebuah R yang pasti, L yang optimal dapat diperoleh dengan menyelesaikangeneralizedeigenvalueproblem dari persamaan(6). Demikian pula, R dapat diperolehdenganmenyelesaikangeneralizedeigerwalueproblem dari pers arnaan(9) padaL yang pasti. Support Vector Machine (SVM) SVM berusahamenemukanhyperplaneyang terbaik padainput space.Prinsip dasarSVM adalah linear classiJier, dan selanjutnya dikembangkan agar dapatbekerja padaproblem nonIinear- denganmemasukkankonsepkernel trick padaruangkerja berdimensi tinggi. t4l SVM dapatmelakukanklasifikasi data yang terpisahsecaralinier (linearly separable) dan nonlinier (nonlinear separable) tU. Linearly separable data merupakan data yang dapat dipisahkansecaralinier. Misalkan{xr,...,xn} adalahdatasetdanx, e$td dan yi € {+1,_l} adalah label kelas dari datax;.. Anggap adabeberapahyperplaneyang memisahkan sampelpositif dan negatif, maka x yang berada pada hyperplane akan memenuhi persamaan w.x * b: A. Untuk permasalahandata linier, algoritma support vector hanya mencari hyperplane dengan margin yang terbesarfiarak antaradua kelas pola). Hard margin lryperplane ditunjukkan padaGambar l'
Hltperplane terbaik tidak hanya dapat memisahkan data dengan baik tetapi juga yang memiliki margin paling besar.Data yangberadapada bidang pembatasini disebut support vector. Untuk menyelesaikanpennasalahan data nonlinier dalam SVM adalah dengan cara memetakan datake ruang dimensi lebih tinggi( ruang fitur ataufeoture space) [U, dimana data pada ruang tersebut dapatdipisahkansecaralinier, denganmenggunakan transformasiip. O: frd r+ H
eZ)
kehs 1r
t.
Gambar l. Hard margin hyperplane. Dengan demikian algoritma pelatihan tergantungdari data melalui dot product dalamH. Sebagaicontoh O(ri). O(x). Jika terdapatfungsi kernel K, sedemikianhingga K(xrt): @(x). @(t;), dengan demikian dalam algoritma pelatihan hanya memerlukan fungsi kernel K, tanpa harusmengetahuitransformasiO secarapasti. SVM pertama kali dikembangkan oleh Vapniks
untuk klasifikasi biner, namun
selanjutnyadikembangkan untuk klasifikasi multiclass (banyak kelas). Pendekatannyaadalah dengan membangun multiclass classifier, yaitu dengan cara menggabungkanbeberapa SVM biner- Pendekatanini terdiri dari metode satu lawan semua(One Against Att) danmetode safu lawan satu(OneAgoinst One) [ll.
PERANCANGAN SISTEM Secaragaris besar sistem terdiri dari dua bagian, yaitu prosespelatihan citra dan proses pengujian. Pada Gambar 2 merupakan gambaran garis besar sistem pengenalanwajah. Pada proses pelatihan terdapat proses TDLDA yang digunakan unfuk mengekstraksifitur, fitur-fitur yang terpilih pada saatprosespelatihan digunakan dalam prosesklasifikasi dan juga digunakan untuk mendapatkanfitur-fitur yang terpilih pada datauji coba. Masing-masingbasis datawajah yang digunakan dibagi menjadi dua, sebagiandigunakan untuk prosespelatihan (noining) dan sisanya digunakanuntuk prosespengujian(testing).
r:| i *,i
Memasukkan data pengujian
Ekstraksifitur data Ekstraksi fitur TDLDA
PengklasifikasiSVM
Pengklasifikasi SVM
H
Hasil identifikasi
Gambar2. SistemPengenalanWajah. Desain Algoritma TDLDA Berikut ini adalah langkah-langkahdalam prosesTDLDA terhadapsuatu basis datacitra pelatihan: 1. Jika dalam suatu basis data citra wajah terdapat himpunan sebanyakn citra pelatihan Ar : fAt,Az,...,Anf(i : 1,2,...,n)dengandimensicitra (r x c), maka himpunantotal matriks dari semuacitra tersebutadalah: f ' -t,ln l
A@)r, | A@)r, A(nt, A, n -- | .|. . 1 ll
A1n1,,
LAr^^
Arrr"l Ar^r" I Arr*
)
2. Menentukannilai /, (dimensi proyeksi baris) dan (.r(dimensi proyeksi kolom). Nilai (.r< r d a n( r . 3 c . 3. Tahapanberikutnya adalahperhitunganrata-rata citrapelatihandari kelas ke i : 1
M, =:Z*.n,X ni
4. Menghitungmta+atasemuacitrapelatihan:
M- T IL Z*.N,X nu antara 5. Menetapkan matriks transformasi R ukuran (c, {.r) yang diperoleh dari gabungan matriks identitasukuran (( r,l. r) denganmaffiks nol ukuran(c'l r,l r)' 6. Menghitung matriks betweenclass scatter R Sf :
fn,(u,
- MIRR.(M, - M)' , ukuran matriksnya (r x r)'
7. Menghitung matrikswithin classscqtter R
Sf, :
*e
(r x /)' 6 - M)RR.(x - M,)', ukuranmatriksnya
8. Hitung generalizedeigenvalue(1)
dansf dan Sfl menggunakanSVD
I J4&) : maxtrace((trsf, Lf &rSI t)), ukuran matriksnya (r x r)' g. Ambil sebanyak(, eigerwector dari langkah 8 sebagaimatriks transformasi baris (L).L
--
(r)' matriksnYa(r* l,Ol, ...,0f,1,ukuran 10.MenghitungmatriksbetweenclassscatterL St : *r,r*
* M), rf 1u,- M), ukuranmatriksnya(c x c)'
11.Menghitungmatrikswithin classscatterL :I SLw
ukuranmatriksnya (c x c)' I 6 M,)' Lf (x M,;, ",
12.Hitung)*uAr"d
SVD ().,) danSfdanSf, menggunakan eigenvatue
n;' 6n'S!nD,ukuranmatriksnya(c x c). J5(R):maxtrace((R'S', matrikstransformasikolom(ft)- ,Rdarilangkah12sebagai 13.Ambil sebanyak(,, eigenvector * l r\' tO{ , ..., Of,l, ukuranmatriksnya(c ( 14.Hitungmatriksfitur pkstraksiadalahBi:LrAiR oukuranmatriksnya(1, x z)
15' Output : matriks fitur ektraksi B;, matriks transformasi baris L, dan matriks transformasi kolom l?. DesainAlgoritma SVM Blok diagramprosespelatihandan pengujian SVM dapatditunjukkan pada Gambar 3.
Proses pelatihanpada setiap SyM biner
Memetakan input space ke feature space menggunakan kernel Gaussian
: un K(x,y)
!l' ,-l_I' (2o'\ ,
Menentukan sejumlah support vector dengan cara menghitung nilai alpha et, .-., au ( N: sejumlah data pelatihan) menggunakanqroaiti" programming
g@)=t o,-
)2*,o, ! i! fii, I
subjectb' q, >0(t =1,2,...,1) Zo,y, =0 rntu i,
yang berkorelasidengana, > O*ilunl*e
disebutsebagai
supportvector
Solusi bidang pemisah-didapatkandanganrumus w :Eay*i le-xr untuk setlapxi, dengan apc 0.
;
b : yr
Prosa pengujian pada setiap SVM biner
Memetakan input spacekefeature space menggunakan kernel Gaussian
: up K(x,v) !l' , ' ;l-!(2o')
Menghitung fungsi keputusan :
j'. = K(x,,xo)w, +b, Dimana : i:
I sampai h x, : supporT vector; xa : datapengujian
ftgnentukan nllaifi yang paling maksimal. Kelas i denganfiterbesar adalah kelas dari data pengujian
Gambar3. Blok diagramprosespelatihandan klasifikasi menggunakanSVM. Pengklasifikasiandengan SVM dibagi menjadi dua proses, yaitu proses pelatihan dan prosespengujian. Pada prosespelatihan SVM menggunakanmatriks fitur yang dihasilkan pada
rnatriks pada pengujian svM memanfaatkan proses ekstraksi fitur sebagai input. sedangkan data uji fitur yang kemudian dikalikan dengan proyeksi yang dihasilkan pada proses ekstraksi (sampelpengujian)sebagaiinput'
akan membangunsejumlah k pengklasifikasian svM untuk multicloss one Againsf All nilai rnaksimal' Fungsi keputusan yang mempunyai svM biner ( k adalah jumlah kelas). tersebut' angggotadari kelas fungsi keputusan menunjukkanbahwa data.ramerupakan data oreh TDLDA, selanjutnya menjadi Data pelatihan yang sudah diproyeksikan pada proses TDLDA mempunyai distribusi pelatihan svM. Jika sebaran datayang dihasilkan data yang digunakan svM untuk mengklasifikasikan yangtidak linier, maka salah satu metode (feature space)' data ke dalam dimensi ruang fitur mentransformasikan dengan adalah tersebut dalam pada feature space. Karena feature space linier secara dipisahkan dapat sehingga space)' Hal ini yang lebih tinggi dari vektor input (input prakteknya biasanyamemiliki dimensi ada kemungkinan space mungkin sangatbesar, karena mengakibatkankomputasi padafeature jumlah feature yang tidak terhingga' feature spacedapatmemiliki pada triclt'. Fungsi kernel yang digunakan Maka pada svM digunakan "kernel penelitian ini adalahGaussian (13)
-lx -vl' '
: exP( K(x,Y) eff) solusi
datapelatihan harus dicari untuk mendapatkan Sejumlah support vector pada setiap : persoalansolusi bidang pemisahterbaik dapatdirumuskan bidang pemisahterbaik.
-L1 =Eo, -
e@)
(14)
i, rZo," i!,! ii,i I
dimanat di )0(; = 1,2,--.,1)Zo,Y,-
0'
i=1
yang disebut sebagaisupport vector' yang bprkorelasi deng&rro"t> 0 inilah w' Solusi yang nantinya digunakan untuk menemukan Dengan demikian, dapatdiperoleh nilai x;, dengan w :Zayfii ; b : yr wrx*untuk setiap bidang pemisahdidapatkandenganrumus Data i,
a#0.
setiap SVM biner menggunaKan Prosespengujianatauklasifikasidilakukanjugapada setiap SVM biner. Fungsi Yang nilaiw,b,danx;yangdihasilkanpadaprosespelatihandi dihasilkanuntuk prosespengujian adalah
t0
(l s)
f - K(x,,xa)w,+bi,
dimana : i : 1 sampai k; xi : support vector; xd : data pengujian. Outputnya adalah berupa indeks f denganl terbesaryang merupakankelas dari datapengujian.
HASIL DAN PEMBAI{ASAI{ Uji coba terhadap sistem pengenalan wajah yang dikembangkan pada penelitian ini dilakukan padatiga jenis basis datawajah baku yaitu, Olivetti ResearchLaboratorium atauBasis Data ORL, dan The Yale Face Database atau Basis Data Yale, dan The University of Bern atau Basis Data Bern. Untuk masing-masingbasis datawajah,pelatihanmenggunakan3 wajah (uji 3), 4 wajah (uji 4), 5 wajah (uji 5). Sisa wajah yang tidak ditraining digunakan sebagai data pengenalan. Metode yang digunakan dalam pengujian ini ada dua kelompok. Kelompok pertama menggunakan metode TDLDA untuk ekstraksi fitur dan metode SVM untuk klasifikasi. Kelompok yang kedua menggunakanmetode TDLDA sebagai ekstraksi fitur dan metode KNearestNeighbor (K].IN) menggunakanEuclideanDistancesebagaiklasifikasi. Tabel I Hasil Uji Coba menggunakanTDLDA-KNN. Database ProsentasePengenalan
uji 3
uji 4
uji 5
Yale
92,140/o 91,670h
94,58o 97,14yo
97,00 ah 98,89oh
Bern
82,65a/o
92,26yo
95,71o/o
ORL
Tabel 2 Hasil Uji CobamenggunakanTDLDA-KNN. Database ProsentasePengenalan
uji 3
uji 4
uji s
Yale
92,86Vo 95,00oh
96,67yo 99,A50/o
Bern
84,18yo
94,050A
97,50o 100% 97,14yo
ORL
BerdasarkanTabel I dan Tabel 2 menunjukkan bahwa prosentasepengenalanTDLDASVM lebih tinggi dibandingkandenganTDLDA-KNN.
1l
Untuk melihat kelebihan dari algoritma TDLDA-SVM, selain dibandingkan dengan metode TDLDA-KNN, j.rga dibandingkandenganmetode2DPCA dan Fisherface.Perbandingan hasil uji coba antarametode TDLDA-SVM dengan TDLDA-KNN, 2DPCA, dan Fisherface menggunakandatabaseORL dapatdilihat padaTabel 3. Tabel 3 PerbandinganHasil Uji CobaDenganBasisData ORL. ProsentasePengenalan Variasi Pengujian Uji ORL 3 Uj i ORL 4
TDLDA-SVM 92,86oA
TDLDA-KNN
2DPCA*
Fisherface**
92,14yo
91,80yo
96,67yo 97,50yo
94,58yo 97,00yo
95,00yo 96,00yo
84,509/o 9l ,46 a/o 95,15yo
Uji ORL 5 Ket : * diperolehdari sumber[7] ** diperolehdari sumber [3]
Pada Tabel 3 menunjukkan bahwa prosentasepengenalanTDLDA-SVM lebih tinggi dibandingdenganmetodelainnya(TDLDA-KNN, 2DPCA, Fisherface). Untuk lebih memudahkanmelihat perbedaanhasil uji coba antarametode TDLDA-SVM denganmetode lainnya akan digunakan diagram batang. Gambar 4 menunjukkanhasil uji coba terhadapBasis Data ORL untuk metodeTDLDA-SVM denganmetodelainnya. 100,00
t
95,OO
$ T
90,00
E
!
I
I I2DLDA+SVM I I r 2DLDA+K-NN I
85,OO
Iszopce
I
ln Fisherfiace
I
80,oo 75,O0 ORL3
ORL4
ORLS
Jumlah Data Pelatihan Per Kelas
Gambar4. Grafik tingkat keberhasilanpengenalanuntuk tiap variasi pengujianpadaBasis Data ORL menggunakanmetodeTDLDA-SVM dan metodelainnya. KeunggulanmetodeTDLDA - SVM dibanding metodelainnya, adalahsebagaiberikut : l. TDLDA - SVM dibandingdenganTDLDA - KNN.
t2
PadaKNN tidak memperhatikandistribusi dari datahanyabsrdasarkanjarak data baru itu ke beberapa data I tetangga terdekat. Bisa saja data I tetangga terdekat ternyata bukan kelompokryu,sehinggaklasifikasiyang dihasilkansalah. Pada SVM memperhatikan distribusi data sehingga berusaha untuk menemukan fungsi pernisah (klasifier) yang optimal yang bisa memisahkandua set data dari dua kelas yang berbeda. Setiap kelas memiliki pola yang berbeda dan dipisahkan oleh fungsi pemisah, sehinggajika ada data baru yang akan diklasifikasikan akan diketahui kelas yang sesuai dengan data baru tersebut. Dengan demikian klasifikasi yang dihasilkan lebih sempurna dibandingdenganmetodeklasifikasi lainnya.
2. TDLDA - SVM dibandingkandengan2DPCA. Pada 2DPCA lebih pada pengoptimalan representasi data daripada pengoptimalan diskriminan data,sehinggadata-datatidak terpisahdengansempurna. Pada TDLDA kemampuanpengoptimalandiskriminan data sangat lebih dibanding dengan 2DPCA, sehinggadapatmengelompokkanvektor datadari kelas yang samadan memisahkan kelasyang berbeda.
3 . TDLDA - SVM dibandingkandenganFisherface. PadaFisherfaceprosedurpre-processinguntuk mereduksidimensi menggunakanPCA dapat menyebabkankehilanganbeberapainforrnasi diskriminan yang penting untuk algoritma LDA yang diterapkansetelahPCA. Pada TDLDA mengambil keuntunganpenuh dari informasi yang diskriminatif dari ruang Iingkup wajah (fo"e space), dan tidak membuang beberapa subruang (subspoce) yang mungkin bergunauntuk pengenalan.
SIMPULAI\ Dari uji coba yang sudahdilakukan dapatdiambil simpulan sebagaiberikut : l.
Metode TDLDA
- SVM mampu menunjukkan akurasi pengenalan yang optimal
dibandingkan dengan metode lainnya (DLDA
- KNN, 2DPCA, Fisherface). Hal ini
dikarenakan TDLDA mampu mengatasi singular problem, mampu mempertahankan keberadaaninformasi diskriminatif, serta mampu memaksimalkanjarak antar kelas dan meminimalkan jarak inter kelas. SedangkanSVM mempunyai kemampuanmenemukan fungsi pernisah(klasifier) yang optimal.
l3
2,
Terdapattiga variabelpentingyangmempengaruhi yaitu tingkat keberhasilanpengenalan, jumlah sampelpelatihanper variasiurutandari sampelpelatihanper kelasyangdigunakan, kelasyangdigunakan,danjumlahdiqensi proyeksi.
DAFTAR PUSTAKA [U Burges JC. A Toturial on Support Vector Machines for Pattern Recognition, Dats Mining and KnowledgeDiscovery.2(2) :955-974. 1998. [2J Kong H, Wang L, Teoh EK, Wang JG and VenkateswarluR. A framework of 2D Fisher discriminant analysis : application to face recognition with small number of training samples. IEEE Conf. CI/PR.2005. [3J Lianr Z, Li Y and Shi P. A note on two-dimensional linear discriminant analysis.Pattern Recogn.2122-2128.2008. [4] Nugroho AS., Witarto BA, Handoko D. Support Vector Machine * Teori dan Aplikasinya Dalam
Bioinformatika.
Kuliqh
(Jmum
llmu
Komputer.com.
2003.
URL:
http://www.ilmukomputer,com/anto-SVM.pdf.diaksestanggal I 6 Maret 2008. [5] BelhumeurPN, HespanhaJP and Kriegman DJ. Eigenfacesvs FisherfacesRecognitionUsing Class Specific Linear Projection. IEEE Transactions on Puttern Analysis and Machine Intelligence.19 (7) : 7ll - 720. 1997, [6] Quan XG, Lei Z and David Z. Face Recognition Using FLDA With Single Training Image l
Per Person.Applied Mqthematicsand Computation.205:726-734. 2008. [7] Yang J, Zhang D, Frangi AF and Yang JY. Two-dimensional pea : a new approach to appearance-basedface representation afid recognition. IEEE Transactions on Pattern Analysisand MachineIntelligence.Z6(l) : 13l-137.zAM.
l4
2.
Terdapattiga variabel penting yang mempengaruhitingkat keberhasilanpengenalan,yaitu variasi urutan dari sampelpelatihanper kelas yang digunakan,jumlah sampelpelatihanper kelasyang digunakan,danjumlahdimensiproyeksi.
DAFTAR PUSTAKA [l] Burges JC- A Toturial on Support Vector Machines for Pattern Recognition, Data Mining and KnowledgeDiscovery.Z(2) :955-974. 199t. [2] Kong H, Wang L, Teoh EK, Wang JG and VenkateswarluR. A framework of 2D Fisher discriminantanalysis: applicationto face recognitionwith small numberof training samples. IEEE Conf.CVPR.2005. [3] Liang Z, Li Y and Shi P. A note on two-dimensionallinear discriminant analysis.pattern Recogn.2122-21 28. 2008. [4] Nugroho AS., Witarto BA, Handoko D. Support Vector Machine - Teori dan Aplikasinya (Jmum Dalam Bioinformatika. Kulish llmu Komputer.com. 20Ai. URL: http://www.i lmukomputer.com/anto-SVM.pdf, diaksestanggal I 6 Maret 2008. [5] BelhumeurPN, HespanhaJP and KriegmanDJ. Eigenfacesvs FisherfacesRecognitionUsing Class Specific Linear Projection. IEEE Transactions on Pattern Analysis and Machine Intelligence.19 (7) : 7ll - 720. 1997. [6] Quan XG, Lei Z and David Z. Face RecognitionUsing FLDA With Single Training Image Per Person.Applied Mathematicsand Computation.205: 726-734.2008. l7l Yang J, Zhang D, Frangi AF and Yang JY. Two-dimensional pca : a new approach to appearance-basedface representation and recognition. IEEE Transactions on pattern AnalysisandMqchineIntelligence.26(I) : l3l-I37.20a4.
T4