BAB 2 TINJAUAN PUSTAKA
Pada bab 2 ini akan dilakukan beberapa tinjauan pustaka dari beberapa hasil penelitian yang telah dipublikasikan. Tinjauan pustaka ini bertujuan untuk melihat sejauh mana teknologi keamanan berbasis biometrik diteliti dalam kurun waktu kurang lebih 10 tahun terakhir. Tinjauan pustaka ini dibagi menjadi 2 bagian: sistem keamanan menggunakan biometrik dan metode pengamanan data biometrik. Setiap tinjauan pustaka terdiri metodologi penelitian dan hasil penelitian.
2.1. Sistem Keamanan Menggunakan Biometrik 2.1.1. Biometrik Sidik Jari Pada jurnal berjudul An Embedded ATM Security Design Using ARM Processor with Fingerprint Recognition and GSM oleh Daula & Murthy dibahas teknologi biometrik sidik jari yang dipadukan dengan Global System for Mobile (GSM) untuk masalah keamanan Anjungan Tunai Mandiri (ATM) (Daula & Murthy, 2012). Tujuan utama dari sistem ini adalah mengembangkan sistem tertanam yang digunakan untuk aplikasi keamanan ATM. Dalam sistem ini, pihak bank akan mengumpulkan sidik jari dan nomor telepon genggam nasabah ketika nasabah membuka akun disuatu bank. Cara kerja dari sistem ATM ini adalah nasabah meletakkan jari pada modul sidik jari di mesin ATM kemudian akan secara otomatis menghasilkan 4 kode angka berbeda setiap waktunya dan dikirim ke telepon genggam nasabah. Kode yang diterima oleh
9
10
nasabah dimasukkan ke dalam mesin ATM dengan menekan key pada layar sentuh dan kemudian kode tersebut akan dicek apakah valid atau tidak. Hasil dari keseluruhan sistem ini berupa feature keamanan yang ditingkatkan lebih luas untuk stabilitas dan reliabilitas dari pengenalan nasabah (Daula & Murthy, 2012). Bicara masalah biometrik tentu tidak jauh-jauh dari masalah akurasi dan responsif. Akurasi akan menunjukkan seberapa baik sebuah teknologi mengenali biometrik seseorang dengan memberikan error sekecil mungkin. Sedangkan responsif akan berhubungan dengan seberapa cepat suatu biometrik dikenali. Pada jurnal berjudul Token-Based Fingerprint Authentication oleh Chen, Yau dan Jiang, dilakukan tinjauan pada beberapa publikasi dan paten menyangkut autentikasi sidik jari berbasis token (Chen, Yau, & Jiang, 2009). Token sendiri merupakan perangkat computing portable yang biasanya dalam ukuran kecil seperti smartcard, universal serial bus (USB) tokens, USB thumb drives dan radio frequency identification (RFID) tokens. Dalam jurnal tersebut disebutkan bahwa penelitian oleh Rikin, et al dengan menggunakan informasi bentuk ridge (bukit) yang berhubungan dengan minutia sidik jari berbasiskan smartcard bisa memperoleh waktu 1,2 detik dengan 18 minutia ketika proses matching dengan false match rate (FMR) sebesar 2,97% dan untuk algoritma teroptimalisasi sebesar 3,03% (Rikin, Li, Isshiki, & Kunieda, 2005). Sedangkan penelitian oleh Bistarelli, Santini dan Vaccarelli mengajukan metode komparasi menggunakan informasi relatif lokal antara minutia berdekatan dan penelitian ini mencapai waktu 0,3 – 8 detik ketika proses matching dengan false acceptance error (FAR) sebesar 0,1% dan false rejection rate (FRR) sebesar 6% (Bistarelli, Santini, & Vaccarelli, 2006).
11
Penelitian terbaru terhadap biometrik sidik jari bisa mendapatkan FMR sebesar 0,026% yang dilakukan oleh Negi dan Sharma dengan menggunakan metode fingerprint recognition using minutia score matching (FRMSM) (Negi & Sharma, 2012). Algoritma dimulai dengan sidik jari yang di-binarization dan kemudian di-thinning. Lalu poin-poin minutia diekstrak dimana matriks data dihasilkan untuk mendapatkan posisi, orientasi dan tipe minutia. Setelah itu dilakukan pencocokan sidik jari uji coba dengan template dan skor pencocokan dari kedua gambar dikomputasi dimana jika skornya 1 maka berarti cocok dan jika 0 maka berarti tidak cocok antara sidik jari yang diuji coba dengan template.
2.1.2. Biometrik Suara Beralih ke biometrik lainnya yaitu suara. Dalam penelitian oleh Iqbal, Mahboob dan Khiyat pada jurnal berjudul Voice Recognition using HMM with MFCC for Secure ATM, digunakan pengenalan suara nasabah untuk mengamankan transaksi pada mesin ATM (Iqbal, Mahboob, & Khiyat, 2011). Pada penelitian tersebut, sampel suara diamati dengan Mel Frequency Cepstral Coefficient (MFCC) untuk ekstraksi feature akustik dan kemudian digunakan untuk melatih parameter Hidden Markov Modeling (HMM) melalui algoritma forward backward yang merupakan bagian dalam HMM dan pada akhirnya hitungan kemungkinan logaritma dari latihan disimpan kedalam database. Ini akan mengenali suara nasabah dengan membandingkan nilai logaritma dari database. Teknik ini diimplementasikan pada Matlab 7.0. Dengan demikian teknik ini akan menggantikan PIN dalam mengakses layanan pada ATM.
12
Akurasi yang didapatkan pada teknik ini sebesar 86,67% dengan error rate sebesar 13,33% (Iqbal, Mahboob, & Khiyat, 2011). Hampir sama dengan penelitian Iqbal, Mahboob dan Khiyat, penelitian yang dilakukan oleh Venugopal et al juga membahas mengenai keamanan ATM menggunakan pengenalan biometrik suara dimana mengimplementasikan HMM untuk mengkalkulasikan speech rate dan frekuensi. HMM akan dikombinasikan dengan modulasi Pitch Detection Algorithm (PDA) untuk menghitung pitch dari voiceprint serta dikombinasikan juga dengan Accent Classification (AC) untuk analisis aksen dalam suara. Kombinasi ketiga algoritma ini akan menghasilkan tingkat keamanan sistem pengenalan suara yang lebih tinggi pada mesin ATM. Alur kerja sistem ini dimulai dengan memasukkan sinyal suara dan dikonversi dari sinyal analog (suara) menjadi sinyal digital. Hasil dari sinyal digital dikalkulasikan untuk menghitung speech rate menggunakan HMM. Setelah itu dikalkulasikan juga pitch rate dengan menggunakan PDA dan analisa aksen dari suara menggunakan AC. Hasil analisa aksen kemudian akan dikalkulasikan untuk menentukan apakah suara yang dimasukkan cocok dengan template atau tidak. Solusi ini diuji cobakan dengan diimplementasikan menggunakan web browser yang open source yaitu Mozilla Firefox 1.5 dengan dilakukan sedikit modifikasi. Web browser ini digunakan untuk menjalankan Scripting language-JavaScript yang ada didalam halaman web dengan bantuan Voice XML agar membuat tampilan menjadi lebih interaktif bagi pengguna. Testing tool yang digunakan untuk mengetes perangkat lunak pengenalan suara adalah Automation Testing. Hasil yang didapat dari sistem ini berupa akurasi sebesar 90% lebih dibanding algoritma
13
tradisional
yang
hanya
75%
(Venugopal,
Hema.U,
Kalaiselvi.S,
&
Mahalakshmi.M, 2012).
2.1.3. Biometrik Iris Mata Biometrik
iris
mata
dibahas
dalam
penelitian
oleh
Dhavale
menggunakan properti statistikal dari Walsh Hadamard Transform (WHT) untuk teknik feature ekstraksi gambar iris mata (Dhavale, 2012). Selain WHT, digunakan juga Canny Edge Detection untuk mendeteksi batasan-batasan iris mata dalam gambar digital sebuah mata. Feature unik iris mata didapatkan dengan menghitung Mean Value of Energy (MVE) dan Mean Value of Standard Deviations (MSD) dari koefisien WHT. Algoritma Fast WHT digunakan untuk mengurangi waktu komputasional. Feature yang diekstraksi oleh WHT digunakan untuk menghasilkan gambar biner unik yang di-encode dan kode atau stream bit biner unik yang saling berhubungan akan dibangun. Untuk mengurangi ukuran database, disimpan bit stream untuk tujuan matching. Hasil yang dicapai pada penelitian ini adalah FRR sebesar 0,01% dan FAR sebesar 0,03% untuk jumlah pengguna 70-80 orang dengan Equal Error Rate (EER) sebesar 0,106% (Dhavale, 2012). EER adalah nilai ketika FRR sama dengan FAR.
2.1.4. Biometrik Wajah (Verifikasi atau Otentikasi) Sistem verfikasi wajah memiliki beragam penerapan dalam bidang keamanan seperti verifikasi passpor, pemrosesan visa maupun verifikasi nasabah pada mesin ATM. Hal ini membuat banyak penelitian dilakukan untuk mengembangkan algoritma-algoritma terbaru dari sistem verifikasi wajah demi
14
meningkatkan efisiensi dan akurasi. Pertama, terdapat metode “attribute” classifiers
dan
“simile”
classifiers.
Metode
“attribute”
classifiers
menggunakan binary classifiers trained untuk mengenali ada atau tidaknya aspek yang bisa dideskripsikan dari penampilan visual (seperti jenis kelamin, ras dan umur). Metode “simile” classifiers menghilangkan manual labeling yang diperlukan untuk klasifikasi atribut dan mempelajari kesamaan wajah atau daerah wajah terhadap orang yang spesifik. Kedua metode tersebut memerlukan biaya yang besar, sering “rapuh” dan perlu mensejajarkan antara sepasang gambar. Namun, kedua metode tersebut menghasilkan deskripsi visual yang compact dan bekerja pada gambar nyata. Kedua metode tersebut juga memperbaiki metode level tertinggi untuk set data “Labeled Faces in the Wild” (LFW) dan mengurangi error rates sebesar 23,92% untuk “attribute” classifiers; 26,34% untuk “simile” classifiers; dan 31,68% untuk gabungan kedua metode. Set data yang digunakan memiliki jumlah gambar lebih banyak (60.000 gambar) dan lebih “dalam” (300 gambar per individu) dibandingkan dengan data set yang telah ada. Akurasi yang didapatkan adalah: 83,62% ± 1,58% untuk “attribute” classifiers; 84,14% ± 1,31% untuk “simile” classifiers; dan 85,29% ± 1,23% untuk gabungan kedua metode (Kumar, Berg, Belhumeur, & Nayar, 2009). Kedua, terdapat penelitian verifikasi wajah dengan menggunakan filter korelasi atau yang lebih spesifik disebut minimum average correlation energy (MACE). Sebuah filter MACE disintetis untuk masing-masing dari 13 orang dengan menggunakan jumlah gambar training variabel dari setiap orang. Pada tahap pengetesan untuk masing-masing filter dilakukan korelasi silang dengan semua gambar wajah dari semua orang (masing-masing orang memiliki 75
15
gambar sehingga total terdapat 975 gambar untuk 13 orang). Untuk otentikasi, hasil korelasi seharusnya sharply peaked dan tidak memperlihatkan strong peaks untuk outlier. Error rate yang didapatkan dari filter MACE didesain dari hanya 3 gambar training per orang (13 filter masing-masing dites pada 975 gambar). Nilai EER yang didapatkan adalah 0,15%. Selain itu juga dilakukan percobaan yang mirip dengan menggunakan 5 gambar training pertama dari setiap orang pada dataset untuk mendesain filter orang tersebut. Kelima gambar tersebut menampilkan rentang variasi yang berbeda dan telah diletakkan diluar sekuens. EER yang dihasilkan lebih baik yaitu 0,1% (Savvides, Kumar, & Khosla, 2002). Ketiga,
penelitian
yang
dilakukan
oleh
Seo
dan
Milanfar
memperkenalkan metode deskriptor locally adaptive regression kernel (LARK). LARK mengukur kesamaan diri sendiri (self-similarity) berdasarkan pada “signal-induced distance” antara piksel ditengah dan piksel disekitarnya pada neighborhood lokal. Dengan menerapkan Principal Component Analysis (PCA) dan sebuah fungsi logistik LARK secara berurutan, dikembangkanlah sebuah representasi wajah binary-like yang baru dimana mencapai level tertinggi dari peforma verifikasi wajah pada dataset LFW. Pada kasus dimana data training tersedia, diterapkan One-Shot Similarity (OSS) berdasarkan pada linier discriminant analysis (LDA). Hasil yang didapat pada pengaturan unsupervised dan pengaturan image restrictive training adalah 72,23% dan 78,90% dimana sebagai representasi deskriptor tunggal tanpa tahapan preprocessing. Dengan hanya 14 distances, bisa dicapai hasil akurasi 85,1% dibanding metode lain yang hanya 85,13% dengan 30 distances. Hal ini
16
tentunya akan mengurangi kompleksitas komputasional secara signifikan (Seo & Milanfar, 2011). Keempat, diperkenalkan algoritma verifikasi wajah berbasis Gabor wavelets dan AdaBoost. Pada algoritma tersebut, wajah direpresentasikan oleh Gabor wavelet features yang dihasilkan melalui Gabor wavelet transform. Dengan mengikat gambar wajah dengan 40 Gabor wavelets, gambar asli di transformasikan kedalam respon gambar magnitude dari Gabor wavelet features. Algoritma AdaBoost memilih sebuah small set dari features signifikan dari kelompok Gabor wavelet features. Setiap feature adalah basis untuk weak classifier dimana dilatih dengan gambar wajah yang diambil dari database XM2VTS. Feature dengan error classification terkecil dipilih pada setiap iterasi dari operasi AdaBoost. Support Vector Machine (SVM) dilatih dengan contoh dari 20 features. Hasil yang didapat dari metode ini adalah: FAR sebesar 22,94% untuk FRR sebesar 0%; FAR 11,56% untuk FRR sebesar 25%; FAR 7,94% untuk FRR sebesar 50%; FAR 5,59% untuk FRR 75%; dan FAR 0,27% untuk FRR sebesar 100%. (Zhou & Wei, 2006). Kelima, ada algoritma sparse representations untuk verifikasi wajah yang mengintegrasikan 2 cara untuk penempatan sparsity. Diberikan sepasang gambar
dan dictionary
, untuk gambar
, lalu dibuat 2 sparse
code, satu dengan menggunakan dictionary asli dan satunya lagi dengan menambahkan
kedalam
korelasi dari sparse code
dan
sebagai dictionary tambahan. Kemudian , dimana keduanya menggunakan dictionary
, mengukur seberapa mirip sepasang gambar tersebut, yang dinyatakan sebagai similarity score. Ketidaksamaan dari sparse code
, pada
dan
, dinyatakan sebagai dissimilarity score. Pada algoritma ini
17
memanfaatkan transformasi multiple feature untuk mendapatkan beberapa score menggunakan kedua pengukuran dan menggabungkannya dengan merata-ratakan untuk situasi dimana tidak tersedia training set atau dengan SVM ketika sebuah training set diberikan. HybridSparse score didapatkan dengan menggabungkan 8 skor dari kedua similarity score dan dissimilarity score. Rata-rata HybridSparse didapatkan dengan merata-ratakan 8 skor dengan equal weight, menghasilkan akurasi 83% dan HybridSparse (SVM) meningkatkan peforma menjadi 84,67% (Guo, Wang, Choi, & Davis, 2012).
2.1.5. Biometrik Vena Telapak Tangan Teknologi biometrik baru yang sedang berkembang saat ini diperkenalkan oleh perusahaan Fujitsu berupa alat PalmSecure. Alat ini bisa digunakan untuk membaca pola pembuluh darah vena telapak tangan sehingga menjadi biometrik vena telapak tangan. Berdasarkan hasil riset dari Fujitsu, FAR dari Fujitsu’s PalmSecure sebesar 0,00008% dan FRR sebesar 0,01% (Rao & Preethi, 2010) (Sarkar, Alisherov, Kim, & Bhattacharyya, 2010). Hasil ini didapat dengan menggunakan 140.000 telapak tangan dari 70.000 individual dengan kondisi orang tersebut harus meletakkan telapak tangan diatas sensor untuk dilakukan pemindaian sebanyak tiga kali selama registrasi dan hanya sekali pemindaian terakhir untuk memperkuat autentikasi (Sarkar, Alisherov, Kim, & Bhattacharyya, 2010). Dikembangkannya biometrik vena telapak tangan karena biometrik ini unik pada setiap orang dan tidak akan berubah polanya sepanjang masa hidup seseorang (Rao & Preethi, 2010). Selain itu, sistem biometrik ini tidak intrusif dan mudah digunakan serta telapak tangan tidak perlu menyentuh sensor. Cara pembacaan pola pembuluh
18
darah vena dengan mengemisikan infra merah dari alat ke telapak tangan dan cahaya infra merah akan ditangkap oleh hemoglobin non-oksigen didalam pembuluh darah vena lalu dideteksi oleh sensor sehingga membentuk struktur pola pembuluh darah vena (Nelson, Wright, & Ashida, 2007).
2.2. Pengamanan Data Biometrik Masalah keamanan transmisi juga menjadi sebuah isu penting agar informasi yang dikirimkan antara client dengan server bisa terjaga konfidenlitas dan integritasnya. Beberapa metode keamanan konvensional pada ATM seperti Data Encryption Standard (DES), Advanced Encryption Standard (AES) dan Encrypted Pin Pad (EPP) dibahas oleh Sharma dan Rathore melalui jurnal Different Data Encryption Methods Used in Secure Auto Teller Machine Transactions (Sharma & Rathore, 2012). Dalam tulisan ini didiskusikan mengenai variasi tipe metode enkripsi dan standard yang digunakan dalam mengamankan transmisi data perbankan sehingga data perbankan lebih aman. Metode keamanan DES merupakan standar keamanan yang mengubah data ke dalam bentuk yang tidak mungkin dibaca tanpa pengetahuan atau kunci khusus. DES merupakan standar sistem kriptografi yang menggunakan algoritma simetrik dimana digunakan 64-bit blok dalam blok chiper dan kunci eksternal. Triple DES (3DES) merupakan hasil revisi dari DES dimana tingkat keamanan yang diberikan lebih tinggi dibanding DES sehingga perbankan menggunakan ini untuk mengamankan data komunikasi dalam jaringan publik. Namun ternyata 3DES ini masih mungkin diserang dengan menggunakan Known-plaintexts,
steps,
DES-Solving dan
memory capacity. Metode
kemanan selain DES adalah AES dimana merupakan perubahan privasi untuk IPSec dan Internet Key Exchange (IKE) dan menggantikan DES. AES menggunakan
19
ukuran key yang lebih besar untuk memastikan hanya pihak berkepentingan yang bisa mendekripsi pesan. AES memiliki panjang key 128-bit, 192-bit atau 256-bit. AES bisa memroses enam kali lebih cepat daripada 3DES namun biaya implementasi AES cukup mahal dibanding 3DES.
Dibandingkan antara DES dan AES,
implementasi DES lebih cocok untuk aplikasi pada perangkat keras seperti sistem jaringan komunikasi, perangkat jaringan VPN atau sebuah ATM. Metode EPP merupakan metode dimana mengenkripsi keypad secara lokal dan menyegel modul sehingga tidak ada data mentah dari PIN yang bisa diakses oleh penyerang baik melalui penyadapan kabel didalam mesin ATM ataupun sensing secara remote radiasi elektromagnetik yang dihasilkan oleh kabel ATM. Bagaimana mengamankan data biometrik agar tidak dicuri atau diserang juga menjadi masalah dalam keamanan data saat ditransmisikan. Oleh karena itu, informasi biometrik harus diamankan sebelum ditransmisikan melalui kanal transmisi agar terhindar dari beragam serangan. Salah satu metode mengamankan biometrik adalah dengan menggunakan steganografi. Walaupun untuk mengurangi resiko serangan biometrik bisa melalui kriptografi yang perlu menemukan secret key dan template, namun masih terdapat celah keamanan. Dalam steganografi, secret key yang dibentuk dari intensitas piksel akan digabung dengan gambar biometrik ketika di-encode dan hasil encode hanya memperbolehkan pengguna otentik untuk melakukan decode. Steganografi bisa mengurangi serangan-serangan seperti circumvention, repudiation, covert acquisition, collusion dan coercion karena penyerang harus mendapatkan data privat sistem, untuk menembus keamanan perangkat rekam atau penyimpanan biometrik. Ini membuat serangan tersebut lebih sulit dilakukan. Hal yang lebih membuat steganografi lebih aman dari kriptografi
20
adalah karena steganografi tidak memiliki kunci terpisah melainkan kunci tersebut dimasukkan ke dalam template biometrik (Kant, Rajender, & Chaudhary, 2008). Metode pengamanan data biometrik yang lain adalah dengan menggabungkan Discrete Wavelet Transform (DWT) dengan Least Significant Bit (LSB) berbasiskan algoritma watermarking pada biometrik. Metode ini secara aman menanamkan template wajah kedalam gambar sidik jari. Algoritma yang diusulkan oleh Vatsa et al ini tahan terhadap serangan frekuensi dan geometrik sehingga melindungi integritas template wajah dan gambar sidik jari (Vatsa, Singh, Noore, Houck, & Morris, 2006). Dari hasil eksperimen yang dilakukan pada database dari 750 wajah dan 750 sidik jari menunjukkan bahwa algoritma yang diusulkan memiliki keuntungan-keuntungan dibanding algoritma berbasis DWT dan LSB yang sudah ada. Sebuah biometrik multimodal digunakan sebagai metrik untuk mengevaluasi peforma yang digabung antara pengenalan wajah dan sidik jari. Pada hasil akhir eksperimen didapatkan bahwa algoritma berbasis LSB 18% lebih baik daripada algoritma DWT dalam hal serangan geometrik pada data biometrik (Vatsa, Singh, Noore, Houck, & Morris, 2006). Namun untuk serangan berbasis frekuensi, DWT jauh lebih baik dari LSB karena LSB sensitif terhadap serangan frekuensi. Untuk algoritma yang diusulkan dengan menggabungkan DWT dan LSB, akurasi verifikasi lebih tahan terhadap serangkaian serangan berbasis geometrik maupun frekuensi dibanding algoritma berbasis DWT atau LSB (Vatsa, Singh, Noore, Houck, & Morris, 2006). Metode watermarking biometrik yang lain adalah dengan berbasiskan prioritas bit seperti yang diusulkan oleh Hoang, Tran dan Sharma. Dalam jurnal berjudul Bit Priority-Based Biometric Watermarking, diusulkan sebuah metode baru berbasiskan pada modulasi amplitudo dan prioritas bit untuk menanamkan bit berprioritas tinggi pada posisi yang bagus untuk mengurangi retrieval error ketika biometrik
21
dikonversikan ke dalam data numerik (Hoang, Tran, & Sharma, 2008). Metode yang diusulkan telah dievaluasi dan dibandingkan dengan metode watermarking digital yang sudah ada. Hasilnya adalah metode ini memiliki error mendekati nol sehingga bisa dikatakan bahwa tidak ada perubahan data biometrik ketika data biometrik didekripsi dari watermarking untuk digunakan dalam autentikasi (Hoang, Tran, & Sharma, 2008). Data biometrik wajah bisa diamankan dengan menggunakan enkripsi biometrik. Penelitian oleh Lu et al berfokus pada privasi untuk skenario selfexclusion (pengeluaran-sendiri) dari pengenalan wajah,
melalui kombinasi
pengenalan wajah dengan skema enkripsi biometrik sederhana yang dinamakan Helper Data System (HDS) (Lu, Martin, Bui, Plataniotis, & Hatzinakos, 2009). Sistem kombinasi ini berfokus pada prosedur key bending. Eksperimen menggunakan database yang disediakan oleh Carnegie Mellon University (CMU) yaitu database Pose, Illumination and Expression (PIE). Database ini terdapat 68 subjek dengan gambar wajah yang didapatkan dengan beragam pose, pencahayaan dan ekspresi. Gambar diubah ukurannya sehingga terdapat 70 piksel antara mata, dengan 8-bit tingkatan grey per piksel. Dalam eksperimen, modul enkripsi biometrik dites terlebih dahulu dalam isolasi untuk mendapatkan peforma verifikasi dan kemudian masuk menjadi bagian dari keseluruhan sistem untuk mendapatkan peforma dalam skenario watch list. Dalam skenario watch list, proses identifikasi menghasilkan daftar peringkat dari subjek kandidat untuk setiap subjek probe yang dites. Daftar ini kemudian diberikan kepada modul enkripsi biometrik dimana dilakukan verifikasi 1-to-1 secara individual. Panjang daftar bisa bervariasi dari 0 (tak terdefinisi, tidak ada subjek yang cocok dalam galeri) dan maksimum untuk identifikasi), dimana
(peringkat
dipilih berdasarkan keperluan aplikasi. Dari
22
hasil percobaan, didapatkan bahwa FAR sebesar 0 dan FRR sebesar 0,3088 (skala 0 – 1) pada kunci 16-bit dengan 63-bit panjang codeword menggunakan reliabilitas berdasarkan pemilihan feature. Sedangkan pada kunci 36-bit dengan 63-bit panjang codeword menggunakan reliabilitas berdasarkan pemilihan feature memiliki FAR sebesar 0 dan FRR sebesar 0,7941. Namun perlu diperhatikan bahwa kunci 16-bit dan 36-bit terlalu pendek untuk digunakan sendiri dalam sistem kriptografi. Semakin besar kunci bit dan codeword akan menimbulkan FRR sebesar 1 (Lu, Martin, Bui, Plataniotis, & Hatzinakos, 2009).