BAB 2 LANDASAN TEORI
Era digital sekarang ini membuat manusia hampir tidak mungkin untuk lepas dari penggunaan alat–alat elektronik dalam melakukan suatu pekerjaan sehari–hari. Penggunaan komputer misalnya, hampir dilakukan oleh semua orang baik karyawan di perkantoran, birokrasi pemerintahan bahkan pelajar dalam dunia pendidikan dan jumlah penggunaan komputer semakin bertambah seiring dengan perubahan zaman. Perkembangan teknologi juga diiringi dengan perkembangan ancaman terhadap pengaksesan data privasi yang menyebabkan setiap orang untuk semakin berhati–hati dalam mengakses suatu sistem. Penggunaan kata sandi misalnya, walaupun dapat meningkatkan keamanan dalam pengaksesan data, namun tingkat keamanan yang mampu disediakan oleh kata sandi semakin menurun sebab kata sandi bisa saja diretas ataupun dicuri oleh orang yang tidak berkepentingan (Lourde & Khosla, 2010). Untuk meningkatkan keamanan dari kata sandi penguna perlu ditingkatkan kompleksitas dari kata sandi yang diterapkan pada setiap account yang berbeda. Namun, setiap orang memiliki keterbatasan dalam mengingat kata sandi yang dibuat (WEBER, GUSTER, & SAFONOV, 2008). Oleh karena itu diperlukan sebuah teknik pengaksesan data yang baru. Salah satu teknik untuk meningkatkan keamanan tersebut adalah dengan menggunakan biometric (Lourde & Khosla, 2010) dalam melakukan pengaksesan ke suatu sistem. Dalam bab ini akan dijelaskan teori–teori dasar yang akan digunakan dalam penelitian ini serta rujukan lain yang mendukung penelitian ini akan dibahas secara jelas.
2.1 Biometric Biometric menjadi topik hangat dalam beberapa tahun terakhir ini bisa menjadi sebuah solusi baru. Biometric adalah cara untuk menangkap karakteristik seseorang melalui kebiasaan maupun bagian fisik yang dapat digunakan untuk otentifikasi dan identifikasi [Naseem, Person Identification Using Face And Speech Biometrics, 2010]. Terdapat berbagai jenis biometric yang digunakan hingga saat ini berdasarkan kareteristik dari physiological (terdapat wajah, sidik jari, geometri jari, iris mata, pembuluh darah, retina, suara, geometri tangan & telinga) dan berdasarkan 5
6
ciri-ciri dari seseorang terdapat ( gaya berjalan, tanda tangan & Keystroke dynamics) (Jafri & Arbnia, 2009). Biometric dapat berupa penggunaan dalam konfirmasi individu spesifik yang merupakan individu yang menyatakan siapa diri mereka (one to one matching) seperti menghubungkan seorang individu dengan ID Card atau mengidentifikasi individu dari biometric datanya (one to many matching) seperti menggunakan sebuah fingerprint untuk melacak kriminal. (Aeon Infotech Private Limited). Sejak sebelum tahun 1990 telah banyak penelitian yang telah dilakukan agar sistem dapat melakukan pengenalan terhadap manusia secara otomatis (Horhoruw, Leiwakabessy , & Alexander , 2015). Namun setiap individu harus menyadari bahwa setiap sistem biometric terdapat kekurangan intrinsik serta suatu sistem yang cocok untuk aplikasi tertentu belum tentu cocok untuk lainnya. Sebagai contoh, fingerprints boleh dikatakan sebagai biometric yang paling maju dan mencapai tingkat akurasi dalam pengenalan yang sangat baik namun membutuhkan tingkat kerjasama yang tinggi dari user. Ini membuat fingerprints tidak user-friendly dan tidak cocok untuk banyak aplikasi, di antaranya seperti pengawasan. Dari biometric yang ada, wajah termasuk salah satu pilihan yang paling natural karena sifatnya yang user-friendly, tidak membutuhkan kontak fisik. (Naseem, Person Identification Using Face And Speech Biometrics, 2010). Performa biometric adalah pengukuran dari false negatives terhadap false positives. False negative adalah saat dimana biometric dari orang yang sebenarnya dianggap salah (tidak teridentifikasi) oleh sistem sehingga ditolak untuk memasuki sistem. Sedangkan false positive adalah saat biometric dari orang yang salah teridentifikasi oleh sistem sebagai sebuah kebenaran sehingga mengizinkannya untuk memasuki sistem yang mengakibatkan masukan yang tidak sah (illegitimate) ke dalam sistem (Lourde & Khosla, 2010).Secara statistik, false positive tetap dibutuhkan sangat rendah agar tercapai tingkat keamanan yang dibutuhkan. Sebagai rule of thumb, tingkat false negative yang dianggap dapat diterima oleh orang pada umumnya untuk sebagian besar proses elektronika adalah antara 0-20% (Aeon Infotech Private Limited).
7
2.2 Biometric Wajah Dalam kehidupan sehari hari wajah memiliki peranan penting didalam interaksi antar manusia. Manusia dapat mengenali identitas dan emosi dari seseorang hanya berdasarkan wajahnya. Karena itu wajah digunakan sebagai salah satu biometric (Seprithara, Suidana, Diponegoro, & Priambodo). Terdapat 2 alasan utama yang menyebabkan pengenalan wajah menjadi salah satu pilihan untuk dikembangkan lebih lanjut yaitu teknik ini cocok dalam berbagai aplikasi yang berhubungan dengan pemrosesan gambar seperti dalam sistem pemrosesan video dan sistem keamanan dan teknik ini terbukti efektif dalam hal user-friendly dengan pengguna. Teknik-teknik yang digunakan dalam pengenalan wajah kebanyakan sudah
berkembang untuk mengatasi dua masalah yang ada, yaitu
iluminasi
(illumination) dan variasi sikap (pose variation) pada wajah. Kedua masalah tersebut dapat menimbulkan degradasi performa yang serius dalam sistem pengenalan wajah. Iluminasi dapat mengubah tampilan wajah secara drastis dan hal yang sama juga bisa disebabkan oleh variasi sikap pada wajah. Biasanya, training data yang digunakan dalam pengenalan wajah adalah tampak depan wajah dari individu. Tampak depan dari wajah mengandung informasi wajah yang lebih spesifik bila dibandingkan dengan profil. Namun permasalahan akan muncul bila sistem diharuskan untuk mengenal sebuah wajah yang tidak hanya menampilkan tampak depan saja, namun juga menampilkan tampak samping dari wajah yang sama dengan training data yang hanya memiliki tampak depan saja. Pengenalan wajah tersebut akan menjadi lebih sulit lagi apabila terjadi perubahan pada tampilan wajah tersebut akibat kondisi iluminasi yang bervariatif. Ini yang menyebabkan iluminasi dan variasi sikap wajah menjadi dua penyebab utama dalam degradasi performa, khususnya dalam algoritma pengenalan wajah secara dua dimensi (2D) (FingerTec, 2009). Biometric Wajah mungkin mempunyai user acceptance yang paling tinggi karena sudah terdapat banyak identitas pengguna seperti photographs, passports, surat izin mengemudi atau pada employee ID Card yang memiliki wajah pengguna sendiri. Meski demikian, solusi identifikasi facial biometric rentan terhadap masalah lingkungan seperti yang disebut sebelumnya, yaitu lightning dan peletakan kamera. Sistem tersebut juga mempunyai kesulitan tinggi dalam menghadapi perubahan penampilan manusia setiap harinya, seperti kosmetik, topi, anting-anting, rambut, kacamata kumis dan lain-lain.
8
Masalah performa dapat menyebabkan pengalaman user yang buruk serta ketidakpercayaan secara general. Facial recognition juga memburuk performanya dari tahun ke tahun karena proses penuaan yang alami. Diperkirakan bahwa penurunan akurasi sebesar 5% untuk setiap tahunnya karena proses penuaan tersebut. Ini berarti bahwa pendaftaran ulang setiap tahunnya dibutuhkan. Wajah dapat dianalisa dari geometri dari karakteristik facial. Geometri ditangkap dengan mengambil gambar digital dari wajah dan menggunakan software untuk menganalisa karakteristik-karakteristiknya. (Aeon Infotech Private Limited).Dalam penelitian ini, yang akan dilakukan bukanlah face recognition namun face verification. Keduanya mempunyai persamaan yakni pengenalan biometrik. Perbedaannya terletak pada pengenalan biometrik yang dibandingkan dan tidak dibandingkan. Untuk face recognition yang dilakukan adalah pengenalan wajah dari gambar yang diambil dan harus dikenali siapa orang tersebut. Sedangkan face verification adalah membandingkan suatu wajah yang diambil dengan wajah yang sudah tersimpan untuk memastikan apakah kedua wajah tersebut adalah sama sebagai verifikasi untuk masuk ke sebuah sistem.
2.3 Compressive Sensing Compressive Sensing atau yang biasanya disebut juga compressed sensing maupun compressive sampling adalah sebuah teknik dalam pemrosesan sinyal yang telah menarik perhatian di beberapa tahun terakhir ini. Teknik compressive sensing ini diperkenalkan oleh Donoho, yang memanfaatkan teorema Shanon-Nyquist tetapi hanya memanfaatkan pengambilan atau pengukuran sinyal yang jauh lebih sedikit dari sinyal yang seharusnya tetapi masih dapat dilakukannya rekonstruksi pada sinyal tersebut (Oey, 2014). Penginderaan kompresif atau yang biasa disebut Compressive Sensing banyak dikembangkan untuk membantu mengatasi permasalahan dalam implementasinya seperti pada bidang radar imaging, data pada sensor nirkabel, enkripsi, medis, dan transmisi data (Oey, 2014). Terdapat pula pengembangan pada bagian algoritma dan teori. Pengembangan secara algoritma pada implementasi kejadian sebenarnya diperlukan algoritma yang dapat beroperasi secara efisien yang menghasilkan menghasilkan output sistem lebih cepat, lebih tahan terhadap noise (robust), dan dapat di implementasikan pada berbagai sistem.
9
Sedangkan pengembangan secara teori adalah penjaminan teori yang telah di buat dengan adanya percobaan dengan random matrix theory, secara matematis, linear algebra, probabilitas dan optimasisasi, yang bertujuan untuk menjamin teori yang telah di buat akan berjalan sesuai dengan keinginan jika diimplementasikan pada sistem (Chartrand, Baraniuk, Eldar, Figueiredo, & Tanner, 2010).Proses compressive sensing menekankan pada pengukuran sampel minimum dari sinyal yang ada, tetapi memiliki nilai-nilai yang maximum dari sinyal tersebut, dengan adanya pengabungan sampling serta compression dalam waktu yang sama (Qaisar, Bilal, Iqbal, Naureen, & Lee, 2013). Secara umum, untuk melakukan rekonstruksi kembali sebuah sinyal, maka perlu dilakukan sampling terhadap sinyal tersebut dengan sampling rate yang sama dengan atau melebihi Nyquist sampling rate. Namun dalam beberapa aplikasi seperti pemrosesan gambar, analog-to-digital compression berkecepatan tinggi dan sistem biologi, sinyal yang menarik perhatian adalah sinyal “sparse” dibandingkan dengan sinyal biasa. Misalnya, sebuah gambar terdapat jutaan pixel. Namun dari sekian banyak pixel dalam gambar tersebut hanya sebagian kecil pixel, katakan 100 ribu pixel saja yang signifikan dalam proses rekonstruksi kembali ke gambar semula, sedangkan sisanya tidak begitu berpengaruh sehingga nilai – nilai dalam pixel tersebut biasanya dibuang dalam kebanyakan compression algorithm. Proses sampling yang kemudian diikuti dengan pembuangan dalam kompresi sangatlah tidak efektif dan boros terhadap penggunaan sumber – sumber seperti energi dan waktu observasi (Xu W. , Compressive Sensing for Sparse Approximation: Construction, Algorithms, and Analysis, 2010). Compressive Sensing sesuai dengan namanya, melakukan sampling terhadap data yang telah dikompres. Teknik ini menggunakan jumlah sampel yang lebih sedikit yang kemudian akan dilakukan proses rekonstruksi kembali oleh berbagai macam algoritma pemulihan (recovery algorithm). Ini akan menyebabkan konsumsi daya yang menjadi lebih sedikit serta beban ke perangkat keras maupun perangkat lunak yang lebih kecil. (Nahar & Kolte, 2014)
2.4 Sparse Representation Sparse Representation bertujuan untuk mengambil sebagian sinyal penting atau yang bersifat signifikan yang dapat merepresentasikan keseluruhan sinyal yang ingin diambil dengan nilai yang non-zero (Lusting, Donoho, & Pauly, 2007).
10
Pada umumnya sinyal yang berbentuk gambar dan suara yang terkompresi dan terproyesikan dengan tepat hingga terbentuk pada sinyal tersebut memiliki sinyal dengan koefisien non-zero dan sebagian besar sinyal yang dimiliki adalah nol atau terlalu kecil hingga dapat diabaikan maka dapat dikatakan sebagai sinyal sparse (Qaisar, Bilal, Iqbal, Naureen, & Lee, 2013). Dalam hal ini, sinyal yang diambil berupa gambar wajah. Namun, seperti yang diketahui bahwa sebuah sinyal, nilai koefisiennya akan tersebar dan tidak mengumpul pada domain yang sama (Lusting, Donoho, & Pauly, 2007). Oleh karena itu, agar bisa menggunakan sinyal yang sedikit maka sinyal harus sparse, yakni nilai non-zero sedikit. Maka dapat dikatakan sinyal yang sparse adalah sinyal yang terdapat banyak zero sehingga nilai dari sinyal tersebut dapat diabaikan dan tdak diambil sebagai representasi karena tidak signifikan.
Keuntungan
yang dapat
dirasakan
dalam
pemanfaatan sparse
representation adalah tingkat robustness terhadap noise dan image corruption (Wu, Blasch, Chen, Bai, & Ling, 2011). Dengan Discrete Cosine Transform (DCT), maka foto JPEG yang tadi sinyalnya tersebar dapat dikumpulkan sehingga bisa dinyatakan hanya dengan sedikit koefisien berhubung koefisien yang nilainya signifikansi hanya sedikit juga. Melalui metode ini, gambar yang telah ditangkap dan akan dikirim ke database server dari client akan lebih cepat karena sinyal yang harus dikirim pun turut berkurang. Dari segi akurasi pun tidak menurun diakibatkan penyimpanan sinyal representasi yang lebih sedikit.
2.5 Compressive Sensing Berbasiskan Sparse Representation
Compressive Sensing (selanjutnya disebut sebagai CS) pertama kali diperkenalkan oleh Donoho (Lusting, Donoho, & Pauly, 2007). Dalam proses mencuplik sinyal secara konvensional, proses pencuplikan yang dilakukan terhadap sinyal masukan harus memenuhi teorema Shannon-Nyquist, dimana frekuensi pencuplikan setidaknya harus mencapai dua kali lipat lebih besar daripada frekuensi maksimum yang terdapat pada sinyal masukan tersebut (disebut Nyquist-rate). Dengan adanya teknik CS, proses pencuplikan tetap dapat dilakukan walaupun kondisi diatas tidak terpenuhi. Berdasarkan teori CS dari Nahar dan Kolte (Nahar & Kolte, 2014), hal tersebut bisa terjadi karena sinyal diubah ke dalam sebuah domain yang memiliki representasi sparse. Kemudian
11
sinyal tersebut direkonstruksi dari sampel – sampel hasil proses sampling tersebut. Selain itu, teknik CS dapat memberikan keringanan dalam hal beban komputasi terhadap perangkat keras karena teknik CS hanya melakukan penginderaan terhadap sinyal yang telah dikompres, berbeda dengan metode tradisional dimana sinyal masukan dilakukan proses pencuplikan sinyal terlebih dahulu kemudian baru dilakukan kompresi sehingga sebagian besar sampel dibuang secara sia-sia (Nahar & Kolte, 2014). Dalam teori CS, sebuah sinyal terkompresi dapat diperoleh dengan cara memproyeksikan sinyal asli x(Nx1) dengan sebuah sensing matrix Φ(MxN) dimana dimensi baris (M) dari sensing matrix lebih kecil dari dimensi kolom dari sensing matrix (N), dengan syarat dictionary dan sensing matrix tidak bergantung satu sama lain (incoherence). Dalam proses rekonstruksi, dengan adanya sinyal terkompresi dan sebuah dictionary (Ψ), maka rekonstruksi dari sinyal terkompresi ke sinyal asli dapat dilakukan. Sensing Matrix Φ(MxN) adalah sebuah matriks yang digunakan untuk memproyeksikan sinyal asli ke sinyal terkompresi. Matriks acak (random matrix) sering digunakan pada perkembangan awal sebagai sensing matrix karena dengan probabilitas yang tinggi, matriks tersebut tidak bergantung atau inkoherensi dengan dictionary yang banyak digunakan pada umumnya. Salah satu cara untuk memperoleh matriks acak adalah dengan menggunakan Gaussian Random matrix dimana dengan rata – rata dari nilai matriks bernilai nol dan standar deviasi bernilai
. Dalam Matlab, matriks acak dapat diperoleh dengan memasukkan
syntax ‘randn’ sehingga menghasilkan matriks acak dengan distribusi normal. Rumus untuk memperoleh sensing matrix dapat dilihat pada rumus 3.1 sebagai berikut :
Φ=
randn(MxN)
(3.1)
Namun demikian, dengan melakukan optimasi terhadap sensing matrix maka koherensi antara sensing matrix dan dictionary dapat diminimalkan (Oey, 2014). Dalam penelitian ini, metode yang digunakan adalah metode optimasi sensing matrix dari Xu et al. (Xu, Pi, & Cao, 2010).
12
Metode yang digunakan oleh Xu et al. adalah dengan membuat pendekatan pada Gram matrix G = ΨT ΦT Φ Ψ = DT D sehingga Gram matrix mampu mendekati Equiangular Tight Frame (ETF) Gram matrix GETF. Dengan algoritma tersebut, nilai pada setiap elemen off-diagonal pada Gram matrix dapat diminimalkan sehingga Gram matrix mampu mendekati matriks identitas (I). Gram matrix diperoleh dari
dimana DCN adalah matriks
equivalent dictionary yang telah dinormalisasikan bagian kolomnya. Berikut ini adalah pseudocode dari metode yang dilakukan oleh Xu et al. yang digunakan dalam optimasi sensing matrix.
Input : sensing matrix ( Φ(MxN) ), dictionary (Ψ(NxK) ), iterasi (iter), alpha (α), Welch bound (µB) Output : sensing matrix yang telah dioptimasi (Φopt)
Mulai K ← ukuran kolom dari Ψ(NxK) M ← ukuran baris dari Φ(MxN) Untuk ulang = 1 hingga iter lakukan D ←ΦXΨ G ← DT X D Sc ← kalikan setiap elemen diagonal dari matriks G dengan pangkat -1/2 dari elemen itu sendiri dan berikan nilai nol pada elemen selain diagonal dari matriks G tersebut D ← D X Sc G ← Dt X D Glama ← G Untuk i = 1 hingga K lakukan Untuk j = 1 hingga K lakukan Jika i sama dengan j maka G(i, j) = 1 Jika nilai absolut dari G(i, j) < µB, maka G(i, j) = G(i, j) Jika nilai absolut dari G(i, j) > µB, maka G(i, j) ← kalikan
13
+ - pada elemen G(i, j) tersebut dengan µB Selesai Selesai
Gupdate ← α x G + (1 – α) x Glama S dan Vt ← jalankan algoritma SVD (Singular Value Decomposition) pada matriks Gupdate S ← Ambil matriks S dengan jumlah baris sama dengan kolom sesuai dengan jumlah elemen diagonal
yang
tidak bernilai nol, kemudian berikan akar
pangkat pada setiap elemen tersebut D ← S x Vt Φopt ← kalikan D dengan inverse dari Ψ(NxK) Selesai
Gambar 2. 1 Pseudocode dari Algoritma Xu
Disini, Welch Bound diperoleh dengan rumus (3.2): (3.2) Dengan K adalah ukuran kolom dari dictionary dan M adalah ukuran baris dari sensing matrix. Algoritma SVD (Singular Value Decomposition) juga digunakan dalam metode optimasi yang digunakan oleh Xu et al. SVD digunakan untuk mencari matriks S dan Vt yang diperlukan dalam optimasi sensing matriks.
Bila terdapat matriks G dengan ukuran G x K maka rumus dari SVD terhadap matriks G tersebut adalah :
14
G = U.S.Vt
(3.3)
U = matriks yang dibentuk dari vektor G.Gt S = matriks singular, matriks ini merupakan hasil akar kuadrat dari nilai Gt.G atau G.Gt V = matriks yang dibentuk dari vektor Gt.G
Dictionary Ψ(NxK) adalah sebuah matriks yang terdiri dari sekumpulan atom. Dengan adanya dictionary ini, maka koefisien sparse dapat diperoleh melalui sparse coding. Dictionary dapat dibedakan menjadi 2 jenis yaitu dictionary yang mampu beradaptasi dengan sinyal masukan dan dictionary yang tidak mampu beradaptasi dengan sinyal masukan (pra-specified). Untuk dictionary pra-specified, terdapat berbagai macam metode pembentukannya, salah satunya dibentuk dari Transformasi Diskrit Kosinus atau Discrete Cosine Transform. DCT adalah salah satu model transformasi fourier yang digunakan pada fungsi diskrit dimana hanya bagian kosinus dari eksponensial kompleks yang diambil saja. Dalam penelitian ini, dictionary dapat dibentuk dengan menggunakan syntax ‘dct’ pada MatLab.Seperti yang telah dijelaskan sebelumnya bahwa dengan adanya dictionary dan sensing matrix, maka sebuah sinyal yang terkompresi dapat direkonstruksi kembali mendekati sinyal aslinya. Hal ini dapat dilakukan dengan menggunakan algoritma sparse coding. Sparse coding adalah algoritma yang digunakan untuk mencari nilai – nilai koefisien sparse atau sparse coefficient yang mampu mewakili nilai – nilai yang signifikan dari sinyal aslinya, nilai sparse yang dihasilkan hanya mewakili saja, dengan kata lain, nilai koefisien sparse hanya mendekati dengan nilai sparse dari sinyal aslinya saja, bukan berarti sama. Dalam penelitian ini, terdapat 2 jenis sparse coding yang digunakan. Yang pertama adalah Orthogonal Matching Pursuit (OMP) dimana algoritma OMP adalah salah satu jenis algoritma sparse coding yang bersifat greedy dalam mencari nilai koefisien sparse. Algoritma ini mencari vektor yang paling baik dengan pemilihan atom – atom dari dictionary yang memiliki proyeksi terbesar (informasi paling banyak) dan mutlak terhadap sinyal input. Dikatakan greedy karena algoritma ini berusaha untuk mengambil ‘paksa’ sesuai jumlah nilai koefisien sparse yang diinginkan. Bila nilai koefisien sparse yang diinginkan hanya berjumlah 8 buah nilai saja, maka OMP tetap akan berhenti setelah 8 nilai koefisien sparse diambil
15
walaupun error yang dihasilkan antara aproksimasi sinyal input dengan sinyal input itu sendiri masih lebih besar dari error yang diinginkan. Berikut ini adalah pseudocode dari algoritma OMP :
Input : equivalent dictionary ( D(NxK) ), sinyal input ( y(Nx1) ), jumlah koefisien sparse tiap kolom (level sparsity) (T), error tolerance (ϵ) → 10-5 Output : Koefisien sparse (ϴ)
Mulai ϴ ← vektor nol dengan ukuran Kx1 r ← kolom 1 diisi dengan y, dimana r adalah residu k=2
Selama (k – 1 ≤ T) dan ( normalisasi kolom terakhir dari r ˃ ϵ) l ← Dt . rk-1 L ← isi dengan indeks dari l yang memiliki nilai terbesar dan indeks terbesar sebelumnya dari l Psi ← berisi nilai – nilai atom (kolom) yang diambil dari D sesuai dengan indeks dari L X ← Psi \ y yApprox ← Psi x X
rk ← y – yApprox k←k+1 Selesai ϴ ← isi dengan nilai x dengan letak indeks sama dengan indeks dari L Selesai
Gambar 2. 2 Pseudocode dari Algoritma OMP
Sparse coding yang kedua adalah algoritma IRLS-ℓP (Iteratively Reweighted Least Squares-ℓP). Algoritma ini berbeda dengan algoritma OMP. Jika pada
16
algoritma OMP bersifat greedy maka algoritma IRLS- ℓP bersifat relax, artinya pada IRLS- ℓP tidak dibatasi oleh jumlah nilai koefisien sparse sehingga IRLS-ℓP hanya akan berhenti ketika epsilon yang dihasilkan lebih kecil dari nilai epsilon yang diinginkan. Nilai epsilon akan dibandingkan dengan normalisasi dari selisih antara koefisien sparse lama dengan koefisien sparse yang baru. Berikut ini adalah pseudocode dari algoritma IRLS- ℓP :
Input : equivalent dictionary ( D(NxK) ), sinyal input ( y(Nx1) ) Output : Koefisien sparse (ϴ)
Mulai p = 0.8
epsilon = 1 uold = D\y j=0 Selama epsilon > 10-5 j = j+1 w ← kuadratkan kemudian jumlahkan setiap elemen dalam uold dengan nilai epsilon. Setelah itu, pangkatkan tiap elemen dari uold dengan (p/2-1) v ← pangkatkan tiap elemen dari matriks w dengan -1 Qn ← ambil nilai dari elemen diagonal matriks v tu ← inverse dari (D.Qn.Dt) unew ← Qn.Dt.tu.y Jika ||unew – uold||2 > epsilon0.5/50 epsilon = epsilon / 10 Selesai uold = unew Selesai
ϴ ← unew
17
Selesai
Gambar 2. 3 Pseudocode dari Algoritma IRLS- ℓP
Dalam sistem yang digunakan dalam penelitian ini, sinyal asli bersumber dari sinyal gambar yang diperoleh dari hasil rekaman yang dilakukan oleh webcam. Sinyal asli dari webcam tersebut direpresentasikan dalam bentuk matriks dengan dimensi MxN. Sinyal asli tersebut kemudian dikonversi ke dalam bentuk grayscale dan tipe data double dengan rentang nilai antara 0 hingga 1 untuk memudahkan perhitungan. Setelah itu, proses CS baru dilakukan sebelum data dikirim untuk proses verifikasi wajah. Dalam proses verifikasi wajah, nilai koefisien sparse hasil rekonstruksi akan dibandingkan dengan nilai koefisien sparse dari gambar wajah yang terdapat dalam database. Perbandingan ini dilakukan dengan cara menentukan jarak antara nilai sparse hasil rekonstruksi dengan nilai sparse dari database yang telah diperoleh sebelumnya. Salah satu teknik yang umum digunakan adalah Euclidean norm (Slavković & Jevtić, 2012). Euclidean norm dapat dirumuskan dengan persamaan (3.4) :
(3.4) x1 = matriks koefisien sparse hasil rekonstruksi x2 = matriks koefisien sparse yang terdapat dalam database
2.6 Studi Pustaka
18
Penelitian sejenis sudah pernah dilakukan oleh beberapa peneliti sebelumnya, salah satunya dilakukan oleh (Yang, Hadinata, & Salim, Face Verification Using Compressive Sensing, 2015) dengan topik “Face Verification Using Compressive Sensing”. Dalam penelitian tersebut, metode Compressive Sensing digunakan dalam pengiriman data dari client ke server. Ini digunakan dengan tujuan untuk mengurangi dimensi data berupa input gambar yang akan dikirim ke server. Setelah itu proses verifikasi akan dilakukan untuk menentukan apakah input gambar tersebut sesuai dengan gambar yang telah tersimpan sebelumnya dalam database. Dengan kata lain, metode Compressive Sensing ini digunakan untuk mempercepat waktu pengiriman data dari client ke server sehingga waktu yang dibutuhkan bagi sistem dari proses pengambilan input gambar wajah hingga proses verifikasi dapat berkurang dari semula. Penelitian yang akan dilakukan disini hampir sama dengan penelitian yang telah dilakukan diatas, hanya saja metode sparse coding dalam proses rekonstruksi sinyal akan lebih dikembangkan lagi sehingga tingkat akurasi dari sistem dapat meningkat menjadi lebih baik. Selain itu, bila pada penelitian sebelumnya (Yang, Hadinata, & Salim, Face Verification Using Compressive Sensing, 2015) algoritma gradient descent digunakan dalam optimasi sensing matrix, maka pada percobaan ini algoritma Xu dan IRLS-ℓP akan digunakan dalam optimasi sensing matrix. Dengan algoritma optimasi sensing matrix tersebut diharapkan mampu memberikan hasil verifikasi wajah yang lebih baik bila dibandingkan dengan penelitian diatas yang memiliki rata-rata akurasi sebesar 90% dengan kecepatan akses sebesar 20-30 detik.
Berikut ini merupakan tabel-tabel perbandingan nilai hasil percobaan dengan penelitian sebelumnya.
19
Tabel 2. 1 Rangkuman Sistem Verifikasi Wajah Berdasarkan Metode Penelitian dan Hasilnya No
Judul
Metode Penelitian
Hasil
1
Compressive Sensing
Menggunakan
Akurasi yang yang di
based Face Detection
metode Scale
peroleh dari
without Explicit Image
Invariant Feature
Compressive Sensing
Reconstruction using
Transform (SIFT)
with Feature Selection
Support Vector Machines
Descriptor yang
97% dan untuk SIFT
(2013)
dirancang untuk
Descriptor sebesar
mengenali struktur
80% dengan error
dari wajah. Yang
rate sebesar 3%
bertujuan untuk membedakan anatra gambar wajah dan objek. Dibandingkan dengan Compressice Sensing with Feature Selection di implementasikan ke Support Vector Machine(SVM) sebagai metode pembanding nilai yang ada
20
No
Judul
Metode Penelitian
Hasil
2
Face Recognition Based
Menggunakan
Average Recognation
on Multi-Wavelet and
metode Multi-
Rate(ARR) tertinggi
Sparse Representation
Wavelet yang di
yang dihasilkan dari
(2014)
kombinasikan dengan metode Wavelet Sparse
adalah 99,17% dan
Representation
metode Sparse biasa
Recognition dan
78,2%
dibandingkan dengan Fully redundant dictionary yang di kombinasikan dengan Sparse Representation Recognition 3
Review: Sparse
Menggunakan
Hasil pengenalan
Representation for Face
algoritma SRC yang
gambar secara umum
Recognition Application
diimplementasikan
dengan kondisi ideal
(2013)
pada Compressive
tingkat akurasinya
sensing dengan
adalah 90%. Hasil
memanfaatkan
percobaan dengan
gambar yang terdapat
tingkat iluminasi
pada Database Yale
rendah 0%-20% dan
dengan jumlah
tingkat iluminasi
gambar sebanyak 60
tinggi 80%-100%
buah.
keduanya mendapat tingkat akurasi 50%. Untuk percobaan FAR mencapai akurasi 80% dengan error rate 20%
21
No
Judul
Metode Penelitian
4
A Compressive Sensing
Penelitian ini
Approach for
menggunakan
lebih baik
Expression-Invariant
algotritma B-JSM
dibandingkan
Face Recognition (2009)
Feature Extreaction
SRC.
yang
Hasil -
-
Metode B-JSM
Dengan 25
diimplementasikan
feature point
pada CS dimana
Reconstruction
algorima tersebut
Rate 94,35% ;
memiliki kemampuan
97,69%;
Low-Dimentional
97,818%
Feature Subspace
-
Robbustness of
yang bertujuan untuk
Recognition
mengenali feature-
expression >
feature dari wajah
Performa masih
dimana algoritma ini
sangat baik
akan dibandingkan
dalam semua
dengan algoritma
kasus, Worst
SRC. Percobaan ini
Case hanya
memanfaatkan 8,795
terjadi loss
image yang diambil
sebesar 0,23%;
berasal dari 3 sumber
0,4%; 0,79%
database CMU AMP
untuk CMU,
Face Expression
Jaffe, dan
Database, JAFFE,
CK(database)
dan Cohn-Kanade
secara berurut
face expression.
untuk ekspresi “surprise”
22
No
Judul
Metode Penelitian
Hasil
5
Sparse Representation
Menggunakan
Akurasi yang didapat
Theory and Its
metode Sparse
dari ORL Face
Application for Face
Representation untuk
Database 98,7%; Yale
Recognition (2015)
mengambil nilai
Database 94,6%;
sparse dari gambar
Wieizman Database 95,1%; IMM Database 96,4%
6
Robust Face Recognition
Menggunakan
Perbandingan
via Sparse
metode SRC yang
Persentase corruption
Representation (2009)
betujuan untuk
dari image dengan
menghasilkan feature
Recognition Rate
extraction yang tahan
0%= 100%;
terhadap occlusion
10%=100%;
dan corruption
20%=100%; 30% =100%; 40%=100%; 50%=100%;60% 99,3%; 70% = 90,7%; 80% = 37,5% ; 90% =7,1%
7
Face Recognition on
Menggunakan
Akurasi dengan test
Smartphones Via
algoritma SRC dan l1
set Natural 92%;
Optimised Sparse
optimisation yang
Sedih 89%; Senang
Representation
merupakan optimize
89%; Kacamata 90%;
Classification (2014)
projection matrix dan
Gambar Gelap 85%;
diimplementasikan
Gambar Terang 95%;
pada OpenCV untuk
Total Persentase 90%
digunakan pada
akurasi
smartphone untuk face unlocking
23
No
Judul
Metode Penelitian
Hasil
8
Robust Face Recognition
Menggunakan
Hasil akurasi
via Adaptive Sparse
metode Adaptive
maksimal dari rata-
Representation (2014)
Sparse
rata dari Database
Representation-Based ORL dengan Classification(ASRC)
perbandingan
yang dimana tidak
beberapa metode;
seperti SRC yang
ASRC 76,67%; NN
memilih nilai
55,57%; Yale 76,67%;
Sparsity secara
NFS 70,86%; SRC
random tetapi ASRC
70,95%; CRC 71,24%
juga mempertimbangkan korelasi antar nilainya 9
Face Verification Using
Menggunakan 2
Akurasi yang didapat
Compressive Sensing
metode Non-
dengan metode Non-
(2015)
Optimized Sensing
Optimized Sensing
Matrix & Optimized
Matrix mencapai 80%
Sensing Matrix
-88% dan dengan
untuk menghasilkan
Optimized Sensing
nilai Sparse yang
Matrix mencapai 92%
dibutuhkan
- 94%
Compressive Sensing
- Time Response 7,54
dengan metode
detik untuk non-
rekonstruksi
optimized OMP dan
Orthogonal Matching 12,14 detik untuk Pursuit(OMP)
optimized OMP
24
No
Judul
Metode Penelitian
Hasil
10
Robust Facial Expression Menggunakan
Akurasi yang
Recognition via
Metode SRC yang
dihasilkan Raw Pixels
Compressive Sensing
dikombinasikan
94,76%; LBP 97,14%;
(2012)
dengan 3 metode
Gabor Wavelets
berbeda : Raw Pixel;
98,10%.
Gabor Wavelets
Persentase Corrupted
Representation dan
data diperbandingkan
Local Binary
dengan akurasi
Patterns. Tetapi
pengenalan wajah 0%
metode ini berfokus
= ±94%; 10% =
pada Gabor
±90%; 20% = ±88%;
Wavelets.
30% = ±86%; 40% = ±72%; 50% = ±68%; 60% = ±50%; 70% = ±44%; 80%= ±31%; 90%= ±28%
11
Robust Facial Expression Menggunakan
Akurasi yang di dapat
Recognition via Sparse
metode Sparse
terhadap ekspresi-
Representation and
Representation di
ekspresi yang ada.
Multiple Gabor filter
kombinasikan dengan Happy 90%; Sad
(2012)
Multi-Gabor Filter
80%; Fear 80%;
dan di proses dengan
Disgust 95%; Surprise
SVM Classifier untuk
100%; Anger 90%;
menghasilkan Facial
Natural 90%; Rata-
Expression
Rata 89,28%
Recognition(FER)