BAB 2 TINJAUAN PUSTAKA
2.1
Landasan Teori 2.1.1 Artificial Intelligence
Artificial intelligence merupakan salah satu bagian ilmu komputer yang membuat agar mesin (komputer) dapat melakukan pekerjaan seperti dan sebaik yang dilakukan oleh manusia (Kusumadewi, 2003:1). Bertahun-tahun manusia mencoba untuk mengerti bagaimana manusia dapat
berpikir,
bahkan
dapat
memahami,
memprediksi
dan
memanipulasi. Artificial intelligence bukan hanya digunakan untuk memahami sesuatu, melainkan juga untuk membangun suatu entitas yang cerdas (Russel dan Norvig, 2003:1). Entitas yang cerdas tersebut dapat bertindak secara rasional dan melakukan tindakan yang benar.
Gambar 2.1 Sistem Kecerdasan Buatan (Kusumadewi, 2003:113-114)
Mesin artificial intelligence memiliki empat aspek pendekatan, yaitu bertindak seperti manusia, berpikir seperti manusia, bertindak rasional, dan berpikir rasional (Russel dan Norvig, 2003:2). Rasional yang dimaksud berhubungan dengan studi tentang komputasi yang membuat suatu kemungkinan untuk merasakan, menalar dan bertindak. Mesin
artificial
intelligence
mampu
mengidentifikasi
dan
memasukkan masalah sehingga mesin tersebut akan menghasilkan output berupa solusi yang sangat berguna untuk membantu kegiatan dan kinerja manusia sebagai penggunanya. 7
8
Gambar 2.2 Agent & Environment (Russel dan Norvig, 2003:35)
Suatu agen cerdas diperlukan untuk menciptakan mesin yang dapat bertindak secara rasional. Suatu agen dapat bertindak seperti halnya program komputer yang melakukan sesuatu. Akan tetapi, agen rasional akan beroperasi secara mandiri, melihat lingkungan, beradaptasi dengan perubahan yang terjadi, menciptakan dan mendapatkan tujuan (Russel dan Norvig, 2003:4). Agen rasional akan bertindak untuk mencapai hasil terbaik, bahkan ketika ada suatu ketidakpastian. Agen tersebut akan mempersepsi lingkungannya sebagai obyek eksternal dari dirinya. Melalui
sensor,
agen
akan
mengambil
tindakan
terhadap
lingkungannya. Melalui efektor (alat untuk merespon), agen akan mencapai suatu sasaran atau “goal”.
2.1.2 Computer Vision
Computer vision digunakan untuk menghasilkan keputusan yang berguna mengenai obyek dari dunia nyata (Shapiro dan Stockman, 2001:15). Computer vision juga berhubungan dengan proses ekstraksi dari sebuah gambar nyata atau urutan-urutan gambar (Forsyth dan Ponce,
2003:XVII).
Dengan
demikian,
computer
vision
akan
bergantung pada pemahaman mengenai proses pembentukan citra untuk mendapatkan suatu kesimpulan sederhana dan nilai-nilai setiap piksel. Tujuan dari computer vision adalah mengekstrak informasi yang berguna dari gambar. Bagian dari masalah computer vision adalah kompleksitas data visual
(Prince, 2012:15). Pada gambar 2.3, ada
ratusan benda yang terdapat disana.
9
Gambar 2.3 Gambar yang Berisi Banyak Objek (Prince, 2012:16)
Sebagai contoh, hampir tidak ada perubahan intensitas citra pada perbatasan antara langit dan bangunan putih (lingkaran merah). Namun, ada perubahan intensitas pada jendela belakang kendaraan SUV (lingkaran hijau) meskipun tidak ada batas obyek atau perubahan materi. Manusia dapat menentukan jumlah pohon pada gambar tersebut dengan mudah, tetapi hal tersebut merupakan hal yang sulit jika dilakukan oleh computer vision. Computer vision bukanlah tidak mungkin, tetapi computer vision merupakan sesuatu yang sangat menantang (Prince, 2012:15).
2.1.3 Image Processing / Pengolahan Citra
Citra adalah ruang dua dimensi yang umumnya merepresentasikan proyeksi dari beberapa obyek pada ruang tiga dimensi. Citra dapat berupa monokrom atau berwarna, diam atau bergerak, tetapi citra selalu terdapat pada ruang dua dimensi (Trussel dan Vrhel, 2008:8). Citra disusun dari kumpulan elemen yang angkanya dapat ditentukan. Setiap elemen berada pada lokasi yang bersangkutan dan memiliki nilai. Elemen penyusun citra ini disebut picture elements atau piksel. (Gonzales dan Woods, 2008:1-2). Citra yang ditangkap oleh kamera dapat berupa citra RGB. Akan tetapi, citra tersebut terkadang memiliki beberapa gangguan (noise)
10 yang dapat mengurangi kualitas dari citra. Salah satu sumber dari penurunan kualitas gambar berasal dari sistem lensa optik pada kamera digital yang mengakuisisi informasi visual. Jika kamera tidak fokus, maka gambar yang ditangkap dapat menjadi blur (Acharya dan Ray, 2006:106).
Gambar 2.4 Contoh Gambar dengan Ukuran 246 x 168 Piksel (Gonzales dan Woods, 2008:256)
Pengolahan citra dibutuhkan untuk memanipulasi citra yang ditangkap oleh kamera menjadi citra yang siap dipakai pada proses selanjutnya. Adapun teknik pengolahan citra yang berhubungan dengan penelitian ini adalah cropping, grayscaling, dan resizing.
2.1.3.1 Cropping
Cropping akan mengekstrak suatu wilayah persegi yang berasal dari gambar aslinya. Cropping bertujuan untuk mengambil bagian yang spesifik dan membuang area yang berisi informasi yang tidak dibutuhkan (RSI, 2005:20). Pada penelitian ini, bagian spesifik atau informasi yang dibutuhkan adalah wajah yang terdeteksi dalam proses face detection.
11 2.1.3.2 Grayscaling
Pada komputasi, grayscale atau greyscale citra digital adalah suatu gambar dimana nilai setiap pikselnya adalah single sample yang memiliki informasi intensitas. Gambar tersebut juga dikenal sebagai gambar hitam-putih yang bervariasi (dari hitam pada intensitas terlemah dan putih pada intensitas terkuat) (Johnson, 2006:11). Proses grayscaling dilakukan dengan mengganti intensitas tiap piksel dalam citra dengan perhitungan sebagai berikut.
2.1.3.3 Resizing
Image resizing atau scaling bertujuan untuk menganalisa suatu gambar dengan memperkecil atau memperbesar gambar. Ketika gambar diperbesar, suatu nilai baru diinterpolasi dari sumber gambar untuk menghasilkan piksel tambahan dalam output image. Ketika gambar diperkecil, piksel akan dibentuk kembali untuk menghasilkan jumlah piksel yang lebih sedikit dalam output image (RSI, 2005:26).
2.1.4 Face Recognition atau Pengenalan Wajah
Pengenalan wajah adalah suatu masalah yang cukup penting dari bidang computer vision (Zhao, Chellappa, Phillips dan Rosenfeld, 2003:401). Hal tersebut dikarenakan wajah memiliki fungsi untuk mengenali identitas yang dimiliki seseorang. Selain itu, hal yang membuat pengenalan wajah diminati adalah proses akuisisi data yang dapat dikatakan lebih mudah jika dibandingkan pengenalan bagian tubuh lain, seperti mata dan sidik jari. Pengenalan wajah dapat diklasifikasikan kedalam dua tipe berdasarkan skenarionya, yaitu verifikasi dan identifikasi wajah (Lu, 2003:2). Verifikasi wajah adalah pencocokan one-to-one citra wajah
12 dengan template citra wajah yang identitasnya telah disebutkan. Umumnya, verifikasi wajah diperuntukan sebagai kebutuhan akan otentifikasi. Identifikasi wajah adalah proses pencocokan one-to-many citra wajah dengan seluruh template citra yang dalam basis wajah. Identifikasi dari citra pengujian dilakukan dengan mencari citra dalam basis yang memiliki kemiripan paling tinggi. Identifikasi wajah umumnya dikenal dengan pengenalan wajah. Meskipun pengenalan wajah merupakan hal yang mudah dilakukan bagi manusia, namun hal itu belum tentu berlaku bagi mesin, seperti komputer. Banyak faktor yang dapat menurunkan performa dari pengenalan wajah. Beberapa faktor yang menyebabkan penurunan performa tersebut adalah variasi dalam posisi, iluminasi, dan ekspresi dari wajah. Faktor lain adalah faktor yang berhubungan dengan besarnya jumlah data pelatihan, khusunya dalam mencari representasi citra wajah. Pada dasarnya, konsep pengenalan wajah yang digunakan oleh mesin, seperti komputer, meniru kemampuan manusia untuk mengenali wajah seseorang. Wajah akan ditangkap oleh mata, lalu wajah yang ditangkap tersebut akan dikirim ke otak untuk melakukan berbagai proses hingga akhirnya disimpan didalam memori. Kemudian, memori akan dipanggil dari otak untuk dapat mengenali wajah orang-orang yang pernah ditemui sebelumnya. Manusia juga dapat salah mengenali seseorang karena sedikitnya frekuensi bertatap muka terhadap orang tersebut. Ada beberapa tahapan penting agar hasil pengenalan wajah dapat berjalan dengan baik yaitu akuisisi data, pre-processing, representasi data, dan pengambilan keputusan. Proses melihat wajah yang dilakukan pada computer vision dapat disebut sebagai akuisisi data, yang umumnya menggunakan citra. Akuisisi data dapat dilakukan dengan memasukan data baik yang sudah ada maupun data yang diambil secara langsung melalui alat, seperti kamera. Ketika citra wajah sudah diambil, maka proses pre-processing akan dilakukan. Pre-processing adalah cara untuk membuat citra wajah memiliki batasan yang sesuai dengan kebutuhan pada proses selanjutnya.
13 Representasi data umumnya adalah representasi dari fitur-fitur yang diekstraksi dan diseleksi dari citra wajah untuk mengurangi dimensionalitas data. Dalam teknik statistik, representasi data umumnya dilakukan dengan pengekstrasian fitur. Tahap pengambilan keputusan melakukan pengklasifikasian dengan mengukur seberapa mirip data yang digunakan dengan representasi data yang ada dalam database. Pengenalan wajah dapat dibedakan menjadi dua kelompok berdasarkan representasi wajah yang digunakan yaitu appearance based dan feature based. Appearance based menggunakan fitur wajah secara menyeluruh ataupun bagian spesifik dari citra wajah. Berbeda dengan appearance based, feature based menggunakan fitur geometris wajah dan relasi geometrisnya.
2.1.5 Gabor Wavelet Transform
Dennis Gabor adalah seorang fisikawan Hungaria yang paling terkenal atas penemuan holografi. Pada tahun 1946, Dennis memperkenalkan time frequency wavelet pertama (wavelet gabor) yang digunakan dalam penelitian teori komunikasi. Representasi gambar dengan gabor wavelet dipilih untuk relevansi biologis dan sifat teknis (Kumar, 2006:5). Metode gabor wavelet transform merupakan metode pemrosesan sinyal yang dapat melakukan analsis multi-resolution (analisis pada keadaan skala atau resolusi yang berbeda). Studi pada bidang psikologi menemukan bahwa sesuatu di dalam sel tubuh manusia dapat dipilih sebagai karakteristik unik dari orang tersebut. Hal tersebut dapat dijadikan karakteristik unik yang dapat dikenali oleh komputer. Karakteristik tersebut dapat dikenali dengan gabor filter dua dimensi. Gabor wavelet menunjukkan pemilihan karakteristik yang kuat dengan tepat (Kar, Bhattacharjee, Kumar, Nasipuri dan Kundu, 2011:179). Gabor wavelet transform dapat didefinisikan dengan rumus sebagai berikut.
14
Pusat frekuensi ke–i dari gabor wavelet diberikan dengan karakteristik vektor gelombang sebagai berikut.
Keterangan : kv adalah skala. Ѳµ adalah orientasi. µ dan ν adalah orientasi dan skala dari Gabor Kernel, z = (x,y). || || adalah norm operator. vektor gelombang kµ,ν didefinisikan dalam persamaan
untuk nilai
dan nilai
.
f merupakan faktor jarak antara kernel didalam domain frekuensi. Gabor kernel yang berasal dari persamaan gabor wavelet transform akan memiliki hasil yang mirip satu sama lain karena dapat diturunkan dari rumus yang sama dengan proses scaling dan rotasi melalui vektor gelombang
. Pada persamaan gabor wavelet transform, yang berada
dalam kurung siku, bagian berosilasi dengan bagian
menyatakan bagian dari kernel yang . Hal tersebut berguna untuk membuat
kernel bebas dari DC, sehingga proses pengenalan wajah tidak terlalu sensitif terhadap iluminasi (Kar, Bhattacharjee, Kumar, Nasipuri dan Kundu, 2011). Umumnya, gabor wavelet digunakan dengan lima skala yang berbeda,
dan delapan orientasi
. Ukuran
dari gabor kernel dapat ditunjukan dengan parameter σ = 2π, dan
. Kernel ini menunjukkan karakteristik kuat dari
15 ruang lokal dalam pemilihan orientasi yang bertujuan untuk mengoptimalkan lokalisasi pada domain ruang dan frekuensi. Representasi gambar dari gabor wavelet adalah gambar yang sudah dikonvolusikan dengan kernel gabor. Jika I(x,y) adalah matrix gambar grayscale, O merupakan hasil dari konvolusi dan gabor kernel ϕµ,v, maka akan didapatkan persamaan sebagai berikut.
dimana z = (x,y) dan tanda * merupakan operator konvolusi. Dengan
mengaplikasikan
teorema
konvolusi,
kita
dapat
menurunkan output dari konvolusi dari persamaan diatas dengan Fast Fourier Transform (FFT), yaitu sebagai berikut.
dan
dimana ℑ adalah Fourier Transform dan ℑ-1 adalah Fourier Inverse Transform. Hasil output menunjukan karakteristik ruang lokal yang kuat. Karakteristik tersebut memproduksi fitur-fitur lokal yang menonjol seperti mata, hidung dan mulut, yang sesuai untuk pengenalan secara visual. karena output
adalah besar ukuran output dari konvolusi (
,
) terdiri dari daerah
lokal, ukuran dan orientasi yang berbeda-beda, semua fitur disatukan untuk menurunkan Feature Vector χ (Kar, Bhattacharjee, Kumar, Nasipuri dan Kundu, 2011:180).
2.1.6 Non-Negative Matrix Factorization (NMF)
Non-Negative Matrix Factorization diusulkan oleh Lee dan Seung sebagai metode untuk dekomposisi sebuah data matriks (Buciu dan Nafornita, 2009:2). Algoritma NMF digunakan untuk menyelesaikan masalah sebagai berikut. Diberikan sebuah matriks non-negative V, faktor W dan H ditemukan dari matriks non-negative.
16
NMF dapat diaplikasikan dalam analisis statistik multivariasi data. Sebuah set data vektor multivariasi dari n-dimensi diberikan. Vektor tersebut diletakkan didalam kolom matriks V yang berdimensi n x m dimana m menunjukkan jumlah data set yang diberikan. Matriks tersebut akan difaktorisasi menjadi matriks W dengan dimensi n x r dan matriks H dengan dimensi r x m. Matriks W dan H diinisialisasi dengan nilai random. Umumnya, nilai r lebih kecil dari n atau m, sehingga matriks W dan H memiliki ukuran yang lebih kecil daripada matriks aslinya, yaitu matriks V. Rumus diatas dapat ditulis per kolom sehingga menjadi dengan
dan
vektor data
adalah kolom dari matriks V dan matriks H. Setiap diperkirakan dengan kombinasi linear dari kolom matriks
W yang dikalikan dengan komponen dari . Sehingga W menjadi dasar yang telah dioptimisasi untuk perkiraan linear data didalam matriks V. Umumnya, dasar vektor jarang digunakan pada reprsentasi data vektor yang besar. Oleh karena itu, perkiraan yang baik hanya dapat dicapai apabila dasar vektor menemukan struktur yang tersembunyi dalam data. Pada algoritma NMF, matriks W dan H akan terus diperbaharui. Nilai baru dapat ditemukan dengan mengalikan nilai yang ada dengan faktor tertentu dan dipengaruhi oleh kualitas pemberian nilai random pada rumus awal. Metode pembaharuan matriks W dan H ada dua. Pertama, metode yang berdasarkan Euclidean Distance
. Metode tersebut
tidak berpengaruh dalam keadaan jika dan hanya jika W dan H terletak pada titik kritis.
17 Metode yang kedua berdasarkan konsep divergensi
.
Metode ini tidak berpengaruh dalam keadaan jika dan hanya jika W dan H terletak pada titik kritis dari divergensi.
Setiap pembaharuan matriks W dan H dilakukan, nilai-nilai tersebut dimasukan kedalam sebuah fungsi objektif untuk memeriksa apakah produksi matriks W dan H sudah mendekati matriks aslinya (matriks V). Fungsi objektif dapat dituliskan secara matematis sebagai berikut.
2.1.7 Classifier 2.1.7.1 Euclidean Distance
Salah satu metode klasifikasi yang paling banyak digunakan adalah metode euclidean distance. Metode ini dilakukan dengan menghitung akar dari kuadrat perbedaan antara koordinat dari sepasang objek. Metode ini dapat dituliskan secara matematis sebagai berikut.
Titik pusat dari dua grup didapat dari algoritma pengelompokan dan direpresentasikan oleh
dan
(Madzarov dan Gjorgjevikj, 2010).
2.1.7.2 Standardized Euclidean Distance
Kontribusi dari setiap fitur wajah akan berbeda jika jarak dihitung dengan menggunakan euclidean distance. Sebuah
18 standarisasi diperlukan untuk menyeimbangkan kontribusi di setiap fitur. Cara lama yang sering digunakan adalah dengan mentransformasikan fitur sehingga setiap fitur memiliki standar deviasi yang sama. Perhitungan euclidean distance dengan data yang sudah distandarisasi disebut sebagai standardized euclidean distance. Standardized euclidean distance dapat ditulis dengan rumus :
dan grup j.
dan
adalah standar deviasi vektor untuk grup i dan adalah titik pusat dari grup i dan grup j yang
didapat dari algoritma pengelompokan (Madzarov dan Gjorgjevikj, 2010).
2.1.7.3 Cosine Similarity Measure
Cosine similarity measure merupakan salah satu teknik klasifikasi yang mengukur kesamaan antara dua vektor dengan menghitung nilai cosine dari sudut yang dibentuk oleh kedua vektor tersebut. Apabila diberikan dua buah vektor x dan y, maka CSM ditunjukkan dengan dot product. Secara matematis ditulis sebagai berikut.
Pada pengklasifikasian wajah, atribut dari vektor x dan y adalah frekuensi dari vektor gambar. Cosine similarity measure dapat dilihat sebagai metode normalisasi dalam perbandingan wajah. Hasil kesamaan berkisar antara minus satu yang berarti sangat berlawanan sampai satu yang berarti benar-benar sama. Hasil nol menunjukkan adanya kesamaan dan ketidaksamaan yang sama (Mohan, Rao dan Rao, 2013).
19 2.1.7.4 K-Nearest Neighbor
Pada bagian pengenalan pola, algoritma KNN termasuk salah satu algoritma non-parameter yang penting dan merupakan supervised algorithm (Suguna dan Thanushkodi, 2010). Aturan klasifikasi dibuat dengan melatih data sampel tersebut tanpa adanya data tambahan. Algoritma KNN memprediksi kategori data sampel yang diuji berdasarkan pelatihan ke-K. Pelatihan tersebut merupakan hasil yang paling dekat dengan sampel uji. Sampel uji merupakan bagian dari kategori yang diprediksi dan memiliki probabilitas yang paling tinggi.
Proses dari algoritma KNN dalam mengklasifikasi
sampel X adalah sebagai berikut. •
Misalkan ada j kategori pelatihan C1, C2, …. Cj dan jumlah dari sampel pelatihan adalah N. Reduksi fitur dilakukan terhadap vektor fitur, sehingga vektor fitur akan menjadi vektor berdimensi m.
•
Sampel uji X dibuat menyerupai bentuk vektor fitur (X1, X2, … Xm). Sampel tersebut digunakan sebagai seluruh sampel pelatihan.
•
Hitung kesamaan antara sampel pelatihan dan sampel uji X dengan mengambil sampel di ke-i (di1, di2, …. dim) maka kesamaan dihitung dengan rumus sebagai berikut.
•
Pilih sampel k yang memiliki kesamaan paling besar dan hitung probabilitasnya dengan rumus sebagai berikut.
Dengan
adalah atribut dari fungsi kategori
dengan syarat sebagai berikut.
20 •
Masukkan sampel X kedalam kategori yang memiliki paling besar.
2.1.8 Threshold
Nilai threshold digunakan untuk membedakan wajah yang sudah diinput (known-face) dengan wajah yang belum diinput (unknown-face). Nilai threshold ditentukan dengan mengambil nilai tertinggi dari jarak terdekat pada setiap gambar training dengan algoritma KNN (KNearest Neighbor). Pada saat citra wajah di-input, nilai minimum antara input citra wajah dengan database wajah akan dihitung dengan menggunakan algoritma KNN. Nilai minimum tersebut dibandingkan dengan nilai threshold. Apabila nilai minimum dari input citra wajah lebih besar dari nilai threshold, maka citra wajah dikenali sebagai unknown-face. Sedangkan, apabila nilai minimumnya lebih kecil dari nilai threshold, maka citra wajah dikenali sebagai known-face (Gupta, Sahoo, Goel dan Gupta, 2010:16).
2.2
Related Works 2.2.1 Paper “Recognizing Face with PCA and ICA”
Gambar 2.5 Gambar Delapan Vektor Fitur. Baris Pertama adalah Gambar dengan Nilai Eigen Tertinggi untuk PCA. Baris Kedua untuk ICA dengan Lokalisasi Vektor Fitur. Baris Ketiga adalah Gambar ICVA Tanpa Lokalisasi Vektor Fitur (Draper, Baek, Bartlett dan Beveridge, 2003:122).
21
PCA (Principal Component Analysis) merupakan metode yang sering digunakan pada face recognition. PCA melibatkan perhitungan dekomposisi nilai eigen dari matriks covariance atau dekomposisi nilai satuan dari data matriks. Perhitungan dekomposisi dilakukan setelah pencarian rata-rata titik tengah dari setiap atribut data ditemukan. Setiap wajah dapat direpresentasikan dalam kombinasi linear dari eigenfaces. Eigenfaces dapat diperkirakan dengan menggunakan wajah yang memiliki nilai eigen yang paling besar. PCA merupakan metode unsupervised dalam reduksi dimensional dan klasifikasi. Metode PCA dapat mencapai tingkat akurasi sebesar 57.31% dalam pengenalan wajah. Independent Component Analysis (ICA) merupakan metode pengembangan dari PCA. PCA mendekorelasi data input menggunakan statistik orde dua dan menjabarkan data dengan rata-rata kuadrat kesalahan minimum proyeksi, sedangkan ICA meminimalisasi ketergantungan terhadap orde dua dan orde yang lebih tinggi dalam input. ICA memiliki tingkat akurasi sebesar 64.31% (Draper, Baek, Bartlett dan Beveridge, 2003:126).
Tabel 2.1 Hasil Face Recognition untuk ICA dan PCA (Draper, Baek, Bartlett dan Beveridge, 2003:126)
22 2.2.2 Paper “Eigenfaces vs Fisherfaces : Recognition Using Class Specific Linear Projection”
Algoritma linear subspace menggunakan kondisi ideal bahwa kelas yang berbeda dapat dipisah secara linear. Reduksi dimensi dapat dilakukan dengan menggunakan proyeksi linear dan mempertahankan pemisahan secara linear.
Gambar 2.6 Perbandingan antara Pengklasifikasian PCA dengan FLD (Belhumeur, Hespanha dan Kriegman, 1996:8)
Pengklasifikasian dalam berbagai pencahayaan masih dapat dilakukan tanpa kesalahan dalam ruang dimensi fitur yang rendah dengan menggunakan linear decision boundaries. Hal tersebut menjadi alasan yang kuat untuk menggunakannya karena metode tersebut dapat mengatasi masalah dalam melakukan face recognition.
23
Gambar 2.7 Hasil dari Performa Algoritma yang Diterapkan terhadap Database Wajah YALE (Belhumeur, Hespanha dan Kriegman, 1996:8).
Pada paper ini, metode yang digunakan adalah class specific linear. Metode tersebut digunakan untuk mereduksi dimensi dan memberikan hasil yang lebih baik dan cepat dibandingkan dengan metode linear subspace. Salah satu contoh dari metode class specific linear adalah Fisher’s Linear Discriminant (FLD). Metode FLD bekerja dengan cara memberikan bentuk pada scatter sehingga proses pengklasifikasian lebih mudah dilakukan. Database wajah YALE digunakan dalam melakukan pengenalan wajah.
Pengenalan
wajah dengan menggunakan metode FLD
memberikan hasil error yang paling kecil, yaitu sekitar 0.6% (Belhumeur, Hespanha dan Kriegman, 1996:13).
2.2.3 Paper “Face Recognition using Gabor Filter”
Paper ini menggunakan gabor filter untuk proses face recognition. Gabor filter merupakan sebuah kernel yang terdiri dari delapan orientasi dan lima skala yang berbeda sehingga tercipta empat puluh kernel dengan sudut kemiringan dan skala yang berbeda (Kar, Bhattacharjee, Basu, Nasipuri dan Kundu, 2011:179).
24
Gambar 2.8 Gabor Filter (Sharif, Khalid, Raza dan Mohsin, 2011:54)
Tahap berikutnya adalah mengkonvolusi gambar input dengan kernel (gabor filter), sehingga menghasilkan empat puluh gambar dengan titik intensitas yang berbeda-beda.
Gambar 2.9 Gambar Wajah Setelah Dikonvolusikan dengan Gabor Filter (Sharif, Khalid, Raza dan Mohsin, 2011:55)
Keempat puluh gambar tersebut disatukan dengan mencari titik maksimum pada setiap gambar. Setelah titik intensitas maksismum ditemukan,
jarak
antara
titik-titik
tersebut
dihitung
untuk
meminimalisasi jumlah titik dan menghasilkan sesuatu yang lebih sederhana.
25
Gambar 2.10 Jarak Antar Titik Wajah (Sharif, Khalid, Raza dan Mohsin, 2011:55).
Pada proses pengenalan wajah, jarak antar titik akan dihitung dengan Elastic Bounce Graph Matching (EBGM). Tingkat akurasi metode ini mencapai 94.29%.
Tabel 2.2 Hasil Face Recognition dengan Gabor Filter (Sharif, Khalid, Raza dan Mohsin, 2011:56).
26 2.2.4 Paper “Non-negative Matrix Factorization Methods for Face Recognition”
Gambar 2.11 Gambar Seluruh Sample dari Hasil Training dengan Urutan a) PCA, b) NMF, c) LNMF dan d) DNMF (Buciu dan Nafornita, 2009:3)
Non-negative Matrix Factorization (NMF) adalah sebuah metode dekomposisi data matriks X yang berdimensi m x n menjadi dua faktor W dan H dengan dimensi secara berurutan m x p dan p x n. Pada awalnya, matriks W dan H diinisialisasi dengan nilai secara acak (random). Matriks W dan H melakukan pembaharuan nilai secara berulang-ulang hingga mencapai nilai minimum. Nilai minimum adalah nilai yang equivalen terhadap W·H, sehingga nilai tersebut mendekati nilai pada data asli (matriks X). Proses face recognition dimulai dengan cropping gambar input dari database. Cropping bertujuan untuk menghilangkan lingkungan (background) wajah yang tidak dibutuhkan pada proses face recognition. Setelah itu, gambar di-resize dari ukuran 168 x 192 piksel ke 32 x 32 piksel. Hal tersebut dilakukan untuk mengurangi beban pada saat pemrosesan data. Proses training terhadap gambar-gambar input dilakukan untuk memperoleh faktor dekomposisinya.
27
Gambar 2.12 Hasil Face Recognition (Buciu dan Nafornita, 2009:4)
Setelah proses training selesai, proses testing dilakukan untuk mengetahui
hasil
pengenalan
wajah.
Gambar
testing
akan
diklasifikasikan dengan vektor matriks W dan H dari hasil training dengan menggunakan metode CSM (Cosine Similarity Measure) yang merupakan aturan nearest neighbor dan kesamaan sudut antara dua vektor. Metode NMF dengan menggunakan CSM sebagai klasifikasi memiliki tingkat keakuratan 88.22% (Buciu dan Nafornita, 2009:4).
2.2.5 Summary
Banyak metode face recognition yang telah dikembangkan. Metode yang pertama adalah Principal Component Analysis (PCA). PCA bekerja dengan menentukan sebuah set dari kumpulan arah proyeksi dalam ruang sampel yang berguna untuk memaksimalkan keseluruhan bagian dari semua gambar. Metode PCA dapat menghasilkan tingkat ketepatan sebesar 57.31% (Draper, Baek, Bartlett dan Beveridge, 2003:126). Metode lain yang sering digunakan adalah Linear Discriminant Analysis (LDA). LDA menentukan bagian-bagian yang dapat menjadi pembeda antara suatu objek dengan objek lain dengan memaksimalkan
28 jarak antar kelas dan meminimalkan jarak dalam kelas. Proses PCA dan LDA menghasilkan vektor yang disebut eigenvector. Eigenvector pada PCA menghasilkan representasi yang paling mendekati dengan kelas sampel
yang
terdistribusi,
sementara
eigenvector
pada
LDA
menghasilkan pemisah bagian kelas yang terbaik. Metode LDA memberikan hasil yang cukup baik dengan tingkat keberhasilan mencapai 88% (Patel, Rathod dan Shah, 2012:56). Pengembangan metode PCA menghasilkan metode Independent Component Analysis (ICA). ICA merupakan sebuah teknik untuk memisahkan variabel independent dari data yang tercampur. Teknik ini merupakan teknik yang cukup baru dan berkembang dari dunia pemrosesan sinyal (Jaiswal, Bhadauria dan Jadon, 2011:176). Metode ICA memberikan hasil yang lebih baik dari PCA dengan tingkat ketepatan 64.31% (Draper, Baek, Bartlett dan Beveridge, 2003:126). Setelah itu, Dennis Gabor mengembangkan sebuah metode untuk mengekstrak fitur yang bernama metode gabor wavelet. Studi psikologis menemukan bahwa sel tubuh manusia dapat menjadi ciri-ciri khusus yang dapat dibedakan dalam ruang frekuensi. Hasil dari sel tersebut dapat diperkirakan melalui 2D gabor filter (Jaiswal, Bhadauria and Jadon, 2011:181). Metode gabor memberikan hasil yang cukup baik dengan tingkat ketepatan 94.29% hanya pada 22 gambar (Sharif, Khalid, Raza dan Mohsin, 2011:56). Lalu, metode Non-Negative Matrix Factorization (NMF) ditemukan. Metode NMF menghasilkan tingkat ketepatan hingga 88.22% (Buciu dan Nafornita, 2009:4).