BAB I PENDAHULUAN 1.1 Latar Belakang Isu penting dalam keamanan komputer (computer security) adalah masalah otentikasi (authentication) yang pada dasarnya bertujuan untuk memastikan orang yang diberi hak yang berwenang untuk masuk ke dalam sistem. Dengan otentikasi, maka sistem komputer mengenali (identify) dan memastikan (verify) bahwa orang yang diberi hak (be authenticated) yang berwenang menggunakan sumber daya sesuai dengan batasan yang diberikan. Sistem otentikasi yang populer dan lazim digunakan saat ini adalah penggunaan user name dan password. Ada tiga macam tipe otentikasi (Simon Liu dan Mark Silverman, 2001; William J. Lawson, 2003), yakni : 1. Sesuatu yang kita tahu, contohnya password, pin atau sebagian informasi pribadi; 2. Sesuatu yang kita punya, contohnya kartu pintar (smart card ) atau token seperti SecurID; 3. Sesuatu tentang kita sendiri, yakni Biometrik. Tipe pertama dan kedua saat ini tidak lagi cukup efisien dan efektif. Karena password mudah sekali bocor baik sengaja maupun tidak sengaja kepada orang yang tidak berhak dan penggunaan kartu pintar bisa dicuri atau dipalsukan dengan mudah. Selain itu sifat otentikasinya hanya satu kali (once time authentication) ketika pertama kali pengguna masuk ke dalam sistem dan tidak bisa memberikan jaminan yang bersifat terus menerus (kontinyu) selama pengguna berada di dalam sistem. Hal ini mendorong orang untuk mengembangkan konsep yang lebih luas yang menekankan bagaimana caranya memastikan bahwa benar si A yang melakukan akses bukan si B atau yang lainnya. Motivasi penelitian untuk mencari apa yang bisa membedakan individu manusia mendorong perkembangan biometrik. Walaupun demikian biometrik dengan segala kekurangan dan kelebihannya belum bisa digunakan untuk sepenuhnya menggantikan sistem otentikasi yang ada melainkan hanya sebagai pelengkap. Sesuatu tentang kita sendiri dalam biometrik adalah sesuatu yang ada pada kita atau sesuatu yang kita lakukan atau hasilkan. Sesuatu yang ada pada kita dikenal
dengan istilah Biometrik Fisiologis (Physiological Biometrics) dan sesuatu yang kita hasilkan dikenal dengan istilah Biometrik Perilaku (Behavioral Biometrics) (Javier Ortega Garcia et al, 2004).
Gambar 1 Klasifikasi Biometrik Teknologi biometrik yang populer digunakan adalah Biometrik Fisiologis sebagai contoh, sidik jari, iris/retina mata, geometri tangan dan pengenalan wajah. Karakteristik fisiologis membutuhkan perangkat yang tidak murah untuk tingkat akurasi dan kestabilan yang tinggi dan kesukaran dalam mengenali tanda kehidupan dan insiden kesalahan pembacaan. Sebagai contoh, scan sidik jari mempunyai kesulitan mengenali sidik jari yang kotor dan kesukarannya membedakan replika jari plastik. Biometrik dengan karakteristik perilaku mempunyai kelemahan dalam hal akurasi dan kestabilan, namun tidak membutuhkan piranti keras khusus dan cukup dengan menerapkan sistem program terhadap piranti keras yang tersedia. (Umut Uludag, et al 2004). Sebagai contoh, menurut William J. Lawson (2003) bahwa penekanan kunci ( keystroke) berdasarkan pada analisis ritme pengetikan dengan cara, gaya dan kecepatan pengetikan seseorang di papan ketik ( keyboard) bisa menunjukkan ciri khas perilaku orang tersebut. Kemudian ditegaskan lagi oleh Enzhe Yu et al (2004) yang mengatakan bahwa ciri khas perilaku pengetikan tersebut menunjukkan pola yang konsisten. Penelitian penekanan kunci banyak dipublikasikan di media jurnal internasional seperti IEEE dan Konsorsium Biometrik (Umut Uludag, et al 2004). Metode dan kesimpulan yang diperoleh bersifat unik di tiap negara karena cara, gaya dan kecepatan pengetikan seseorang dipengaruhi oleh bahasa, budaya dan ciri kejiwaan/kecerdasan orang tersebut. Bagaimana pengaruh ini terjadi adalah topik penelitian di bidang psikologi dan sosial antropologi bukan objek penelitian di bidang Ilmu Komputer.
Berbagai referensi menyebutkan metode penekanan kunci mempunyai beberapa keunggulan, tiga di antaranya sebagai berikut. 1.
Berbasis piranti lunak dan tidak memerlukan piranti khusus sehingga mudah diimplementasikan.
2.
Sulit ditiru, karena masalah mendasar Biometrik Fisiologis adalah data yang digunakan bersifat bukan rahasia (terbuka atau bisa diperoleh dengan mudah) dan perangkat biometrik harus bisa mengenali tanda kehidupan. Sedangkan penekanan kunci adalah perilaku yang tersembunyi di dalam otak manusia.
3.
Dapat meningkatkan keamanan, karena bersifat sebagai pelengkap (bukan pengganti) sistem otentikasi yang sudah ada dengan kemampuan memverifikasi secara terus menerus (kontinyu).
Namun, metode penekanan kunci juga mempunyai beberapa kekurangan. Hal ini dapat dilihat dari perbandingan dengan teknologi biometrik lainnya menurut National Center for State Courts pada tabel 1 sebagai berikut.
Tabel 1 Perbandingan Biometrik (NCSC, 2005) Biometric Verify
Errors
Retinal Scan
1 in 10,000,000
Glasses
Signature Recognition Keystroke Recognition
1 in 50
Facial Recognition Hand Geometry Speaker Recognition Iris Scan
Accuracy
False False Pos. Neg. dryness, dirt, Ext. Ext. 1 in 500+ age Diff. Diff. lighting, age, no data Difficult Easy glasses, hair hand injury, Very 1 in 500 Medium age Diff. noise, 1 in 50 weather, Medium Easy colds 1 in Very Very poor lighting 131,000 Diff. Diff.
Reliability Error Rate
Fingerprint
ID
no data
Ext. Diff.
changing Medium signatures hand injury, Difficult tiredness
Ext. Diff. Easy Easy
DNA
no data
Biometric Fingerprint Facial Recognition Hand Geometry Speaker Recognition Iris Scan Retinal Scan Signature Recognition Keystroke Recognition DNA
Security Long-term User Intrusive Level Stability Acceptance Somewhat Non Non Non Non Very Non Non Extremely
Ease of Use
None
Ext. Diff.
Ext. Diff.
Low Hardware Standards Cost Special, Yes cheap Common, ? cheap Special, ? mid-price Common, ? cheap Special, ? expensive Special, ? expensive Special, ? mid-price Common, ? cheap Special, Yes expensive
Tabel 1 menunjukkan bahwa penekanan kunci hanya cocok untuk verifikasi; mempunyai tingkat akurasi yang rendah; tidak mempunyai data standar laju kesalahan; kesalahan mengidentifikasi yang mudah; stabilitas jangka panjang yang rendah; serta belum adanya acuan standar yang bisa diterima. Dari beberapa kekurangan yang telah disebutkan diatas, tidak berarti metode ini kurang berkembang. Perusahaan yang pertama kali menerapkan metode ini dalam bentuk produk jadi adalah Biopassword, Inc (http://www.biopasswod.com) yang didirikan pada tahun 1989 oleh James R. Young dan Robert W. Hammon (Alen Peacock et al , 2004). Sedangkan registrasi paten pertama kali dilakukan oleh John D. Garcia di tahun 1986. Penyempurnaan lebih lanjut di tahun 1996 oleh Marcus E. Brown dan Samuel J. Rogers berupa perbaikan dengan menggunakan Jaringan Syaraf Tiruan dan Jarak Euclidean. Paten terkini di tahun 2002 oleh Zilberman dengan perangkat papan ketik khusus dan mikrokontroler untuk menyimpan data karakteristik waktu. Beberapa penelitian jurnal ilmiah internasional menunjukkan penekanan kunci dengan metode soft computing mempunyai potensi yang layak sebagai metode verifikasi. Algoritme yang lazim digunakan adalah algoritme klasifikasi pola (pattern
classification). Umumnya, berbagai penelitian menggunakan Jaringan Syaraf Tiruan (JST) seperti
JST propagasi balik yang berfungsi sebagai sarana pengingat dan
pembelajar pola (Machine Learning). Prinsip kerja JST adalah untuk mengingat pola yang pernah diajarkan dan kemampuannya merespon pola baru berdasarkan atas kemiripan pola baru tersebut dengan pola yang sudah ada. Penelitian dalam tesis ini melibatkan sejumlah sampel data yang cukup dari beberapa partisipan. Hasil penelitian menunjukkan kelayakan sistem prototipe ini dalam memenuhi sifat penerimaan umum teknologi biometrik, sebagai berikut. 1. Universality,
setiap
orang
mempunyai
karakteristik
dan
kemungkinan-
kemungkinan tidak terpenuhinya harus bisa diantisipasi. 2. Uniqueness, seberapa unik sehingga bisa me mbedakan dua orang yang berbeda. 3. Permanent, tidak berubah terhadap waktu untuk rentang waktu tertentu/bukan sekejap. 4. Collectability, dapat diukur secara kuantitatif dan mudah. 5. Performance, akurasi yang ingin dicapai dan kondisi lingkungan yang dibutuhkan untuk mencapai akurasi tersebut. 6. Acceptability, seberapa luas bisa diterima oleh masyarakat umum. 7. Circumvention, seberapa susah untuk membodohi sistem sehingga bisa ditembus dan cukup tahan terhadap kemungkinan penyimpangan.
1.2 Tujuan Penelitian Penelitian ini bertujuan untuk mengembangkan prototipe model Biometrik Penekanan Kunci berbasis Jaringan Syaraf Tiruan Propagasi Balik dengan pengolahan input dalam variabel Fuzzy dan analisis terhadap input teks dinamik bahasa Indonesia sebagai alternatif verifikasi bagi pengguna komputer.
1.3 Manfaat Penelitian Penelitian ini setidaknya memberikan dua manfaat, yakni : 1. menambah khasanah pengetahuan bidang Biometrik Penekanan Kunci yang belum semaju bidang Biometrik lainnya, dan 2. memberikan sumbangan pemikiran terhadap perkembangan penelitian bidang Biometrik Penekanan Kunci pada Ilmu Komputer IPB.
1.4 Intisari Penelitian Sebelumnya Penelitian dengan tema penekanan kunci telah banyak dipublikasikan dalam jurnal ilmiah. Antara lain dilakukan oleh Ron Luman II (2002) yang menggunakan algoritme genetika. Dia menyarankan penelitian selanjutnya untuk analisis dengan jumlah sampel besar dalam bentuk teks bebas. Daw-Tung Lin (1997) menggunakan JST Propagasi balik (Backpropagation) dan Keystroke Latencies untuk memperbaiki hasil penelitian sebelumnya. Sajjad Haider (2000) menggunakan perbandingan metode Fuzzy, JST dan metode statistik. Leenesh Kumar (1999) membandingkan penggunaan JST dengan Analisis Kluster (Cluster Analysis) dan menyimpulkan bahwa “pola pengetikan individu tertentu dapat dinyatakan dalam bobot-bobot hasil pelatihan JST Multilayer Perceptron.” Jank Mantyjarvis (2002) membandingkan JST dengan metode K-Nearest Neighbor (K-NN) pada virtual keyboard. Enzhe Yu (2004) menggunakan algoritme genetika SVM (Support Vector Machine) dengan mengkarakterisasikan vektor waktu berupa lama dan selang waktu. Dia menyarankan pentingnya pengolahan data awal untuk mengurangi noise. Fadhli Wong et al (2001) me mbandingkan JST dengan KNN dan menyimpulkan bahwa JST lebih adaptif, namun mempunyai FAR lebih besar yang bisa dikurangi dengan cara memperbesar jumlah himpunan data pelatihan. Berikut ini disajikan 13 contoh intisari penelitian sebelumnya yang berkaitan erat dengan penelitian ini. 1. A Multi -Technique Approach for User Identification through Keystroke Dynamics oleh Sajjad Haider, Ahmed Abbas dan Abbas K. Zaidi (2000). Penelitian ini membandingkan penggunaan Logika Fuzzy, JST, metode statistik dan kombinasinya. Data pelatihan yang digunakan bersifat statik dengan maksimum panjang 7 karakter. Pengguna mengetik password yang sama sebanyak 15 kali berturut-turut dengan benar karena tidak ada mekanisme deteksi kesalahan pengetikan. Parameter yang diukur adalah waktu tunda di antara pengetikan karakter. Logika Fuzzy menggunakan fungsi keangotaan segitiga. JST menggunakan algoritme Propagasi Balik dengan 3 lapisan dengan jumlah sel pada lapisan input ada enam yakni sama dengan jumlah waktu tunda untuk keseluruhan 7 karakter yang digunakan. Metode statistik menggunakan
rataan deviasi standar serta kurva distribusi normal untuk menghitung selang kepercayaan setiap waktu tunda. Kesimpulan penelitian ini mengatakan bahwa kombinasi Logika Fuzzy, JST dan metode statist ik secara bersama-sama bisa memberikan tingkat kesalahan FRR dan FAR yang paling kecil. Namun, ada peluang buat penyusup untuk sukses masuk jika diberi kesempatan sampai dua kali pengetikan. Saran untuk perbaikan metode ini dengan menggunakan waktu penekanan kunci (key-hold time). Metode ini diterapkan pada sistem rangkaian pengunci ruangan laboratorium berupa keyboard panel untuk penekanan dengan satu jari.
2. A Verification Methodology for Computer System Users oleh M.S Obaidat (1995). Penelitian ini merupakan kelanjutan dari penelitian sebelumnya yang
hanya
menggunakan variabel Interkey Time. Data diperoleh dari 15 orang dan karakter yang dimasukkan adalah User ID dengan panjang maksimum 7 karakter. Rentang waktu pengumpulan data dilakukan selama 8 minggu. Masing-masing melakukan penyusupan dengan memasukkan User ID pengguna lain sebanyak 15 kali. Variabel yang digunakan adalah selang waktu penekanan (Interkey time) dan waktu lama penekanan (Hold Time).
Gambar 2 Perbandingan Metodologi JST (Obaidat, 1995) Penelitian ini membandingkan beberapa metode JST Backpropagation (BP), Self Organizing Feature mapping (SOM), Adaptive Resonance Theory 2 (ART 2), Radial Basis Function (RFBN), Learning Vector Quantization (LVQ),
Reinforcement Neural Network (RNN) dan metode algoritme pengenalan pola yakni K-Means Algorithm, Cosine measure Algorithm, Minimum Distance Algorithm dan Bayes’ Decision Rule. Kesimpulan yang diperoleh bahwa dengan menggunakan dua variabel sebagai penciri klasifikasi adalah pendekatan yang sangat sukses. Gambar 2 membandingkan untuk tipe kesalahan I (False Rejection Rate) dengan warna hitam dan tipe kesalahan II (False Acceptance Rate) dengan warna putih, dan secara keseluruhan metode JST memberikan hasil yang lebih baik dibandingkan metode lainnya. 3. Verification of Computer Users Using Keystroke Dynamics oleh M.S. Obaidat dan Balqies Sadoun (1997). Ini merupakan kelanjutan penelitian yang dilakukan Obaidat. Kesimpulan yang diperoleh bahwa Hold Time lebih efektif daripada Interkey Time dan kinerja terbaik didapatkan dengan menggunakan kedua variabel tersebut. Penelitian ini masih menggunakan data yang dikumpulkan dari 15 orang dengan panjang maksimum 7 karakter. Setiap pengguna memasukkan 225 kali secara berturut setiap hari selama 8 minggu. Penelitian
ini
menggunakan
beragam
fungsi
aktivasi JST Propagasi Balik dengan hasil grafik pada gambar 3. Kesimpulan yang diperoleh menunjukkan fungsi sigmoid delta memberikan hasil yang paling baik.
Gambar 3 Perbandingan Fungsi Aktivasi JST Propagasi Balik(Obaidat et al, 1997)
4. Biometric Identification System based in
keyboard Filtering oleh Oscar Coltell,
Jose M. Badia, dan Guillermo Torres (1999). Penelitian ini menggunakan sampel 20 macam password yang diketik oleh 10 orang berbeda sehingga diperoleh 200 macam pola. Penelitian ini menekankan pada upaya yang bisa dilakukan untuk mendapatkan pola tertentu dari setiap user untuk pengetikan tiap password. Penelitian ini menjelaskan konsep pengaruh derajat kesukaran (difficulty degree). Derajat yang paling mudah adalah kata yang disusun dari karakter yang lokasinya saling berdekatan pada jari seorang pengetik yang handal, sebagai contoh, asdf-jkln. Derajat menengah adalah kata yang disusun dengan 6 karakter dan mempunyai sedikitnya 2 nomor atau 2 karakter khusus. Derajat yang paling sukar adalah kata yang disusun dari karakter tidak berarti ditambah dengan kombinasi karakter bilangan dan simbol. Kesimpulan penelitian ini menunjukkan bahwa untuk password yang sederhana dan dengan pengetikan yang berulang-ulang memungkinkan diperoleh pola yang mirip untuk pengguna yang berbeda. Namun pada pengetikan pertama kali, tiap pengguna menghasilkan pola yang berbeda satu sama lain. Dengan menaikkan derajat kesukaran, maka peluang sukses untuk pengguna yang tidak sah menjadi lebih rendah, namun di sisi lain mengakibatkan peluang gagal untuk pengguna yang sah menjadi semakin besar. Validitas metode ini sangat besar jika password yang digunakan relatif mudah
diketik yang dalam hal ini
menggunakan password dari kata bermakna (intelligible word) dan dengan menambahkan bilangan sebelum atau sesudahnya. Namun, jika password tersebut berupa kata, bilangan, atau simbol yang tidak bermakna , maka metode ini menjadi kurang efektif sehingga diperlukan pengulangan data pelatihan yang cukup banyak. 5. GA-SVM Wrapper Approach for feature Subset selection in Keystroke Dynamics Identity Verification oleh Enzhe Yu, Sungzoon Cho (2003). Penelitian ini menggunakan algoritme Genetika untuk pencarian acak dan menggunakan Support Vector Machine sebagai pendeteksi perbedaan (Novelty Detector). Pengumpulan data pelatihan bersifat lebih dinamis dengan panjang 6 sampai 10 karakter. Data diperoleh dari 21 partisipan dengan memasukkan
password yang berbeda-beda hingga 150 sampai 400 kali. Ujicoba penyusupan dilakukan oleh 15 orang yang telah diberitahukan sebelumnya password yang dipakai dan diberi kesempatan untuk latihan sebanyak 21 password dengan masing-masing melakukan 5 kali ujicoba penyusupan. Penelitian ini menghitung penggunaan tombol enter dan bisa menghitung waktu negatif (Negative Keystroke interval Time) yang terjadi bila tombol berikutnya sudah ditekan sementara tombol sebelumnya belum dilepas. Kesimpulan yang diperoleh menunjukkan bahwa GA-SVM Wrapper ini cukup baik dari sisi akurasi dan kecepatan belajar.
6. Computer-Access Authentication with neural Network based Keystroke Identity Verification, oleh Daw-Tung Lin (1997). Penelitian ini menggunakan JST Propagasi Balik dengan arsitektur 3 lapisan dengan menggunakan jumlah sel Hidden beragam dari H=2I, H=I, H=(I+O)/2, H=(I+O)/3, H=(I+O)/4. I menyatakan jumlah sel input dan O menyatakan jumlah sel output. Hasil yang paling optimum dari sisi kecepatan konvergensi pelatihan adalah H=(I+O)/2. Penelitian ini menggunakan 90 user sah dan 61 user tidak sah yang telah diberitahukan sebelumnya password yang dipakai. Password yang digunakan bersifat statik. Penelitian ini melihat persentase kesalahan False Acceptance Rate dan Impostor Pass Rate dan mengaitkannya dengan Root Mean Square Error (RMSE) hasil pelatihan JST. Hal menarik dalam penelitian ini adalah menggunakan pengukuran baru untuk Keystroke latencies (sebelumnya Interkey Time), yakni diukur dari karakter ke-i ditekan sampai dengan karakter ke-i+1 ditekan. Ini bertujuan untuk meningkatkan ketelitian akibat kecepatan pengetikan
yang
sangat
cepat
oleh
pengguna
tertentu.
memperlihatkan perbedaan L12 dan L21 sebagai berikut.
Gambar
4
Gambar 4 Perbandingan Pengukuran Keystroke Latencies (Daw-Tung Lin, 1997)
7. Enhanced user Authentication through Typing Biometrics with Artificial Neural Networks and K-Nearest Neighbor Algorithm, oleh Fadhli Mohd hasan Wong, Ainil Sufreena Mohd Supian dan Ahmad Faris Ismail (2001). Penelitian ini membandingkan
penggunaan JST dengan K-Nearest Neighbors
(KNN). Data yang digunakan berasal dari 10 pengguna yang bebas memilih password yang digunakan dan pengetikan yang dilakukan secara berulang-ulang selama 1 bulan (bersifat statik). Kemudian sistem dibuka untuk ujicoba umum untuk melakukan intrusi sehingga didapatkan 100 macam pola tidak sah. Kesimpulan yang diperoleh
menunjukkan
bahwa penggunaan JST lebih
adaptif dan toleran terhadap noise. Dengan jumlah data pelatihan yang lebih besar memungkinkan JST mencapai ketelitian yang lebih tinggi. Penelitian ini dilakukan selama 1 bulan sehingga terlihat adanya faktor keletihan, stress dan gangguan fisik dari 10 pengguna tersebut.
8. Identity Verification through dynamic Keystroke Analysis oleh F. Bergadano, D. Gunetti, dan C. Picardi (2003). Penelitian ini menjelaskan perbedaan konsep Static Keystroke Analysis dengan Dynamic Keystroke Analysis dan memfokuskan penelitian pada Dynamic Keystroke Analysis dengan menggunakan metode Sequential Statistic Analysis. Penelitian ini menekankan pada analisis teks yang panjang. Data diperoleh dari dua macam teks berbeda dengan panjang 300 karakter dan melibatkan 40 orang partisipan. Teks tersebut diketik setidaknya masing-masing satu kali dalam satu hari hingga diperoleh 137 contoh untuk masing-masing teks tersebut. Teks pertama dijadikan sebagai model dan teks kedua digunakan untuk test. Kemudian dilibatkan lagi 90 orang partisipan dan mengetikan teks kedua untuk dilakukan ujicoba penyusupan. Partisipan diberi keleluasan untuk melakukan pengetikan secara bebas dan normal. Kedua teks dipilih sedemikian rupa penggunaan
kata
dan
kalimatnya
dalam
bahasa
Italia.
Penelitian
ini
menyebutkan istilah digraph , trigraph dan N-graph. Teks yang diperoleh dilakukan ekstraksi (analisis) berupa pasangan-pasangan karakter. Digraph mengukur selang di antara satu pasang (dua karakter) yang saling berturutan.
Trigraph mengukur durasi di antara tiga karakter yang saling berturutan sekaligus dan N-graph berarti ada N karakter yang saling berturutan sekaligus. Bila teks tersebut panjang, maka digraph yang diperoleh lebih dari satu dan keseluruhannya kemudian dilakukan perataan secara statistik. Jadi penelitian ini melakukan analisis terhadap teks yang digunakan. Kesimpulan penelitian ini memberikan saran untuk peluang penelitian lebih lanjut untuk verifikasi identitas dengan menggunakan teks bebas dan panjang. Penyusup (26%) bisa diketahui setelah melakukan beberapa kali pengetikan (dalam 40 kali pengetikan) dan 82.5 % dalam 150 kali pengetikan dengan FAR tetap dijaga 0%.
9. Dynamic Keystroke Analysis Using AR Mode oleh Wasil Elsadig Eltahir, M.J.E Salami, Ahmad Faris Ismail dan W.K. Lai (2004) Penelitian ini menggunakan disain piranti keras khusus dengan sensor penekanan sebagai BAS (Biometric Authentication System) daripada
keyboard
biasa untuk memberikan hasil yang lebih akurat dan menggunakan metode Autoregressive Signal Modelling (AR) sebagai pengelompok pola. Penelitian menggunakan data pengguna yang memasukkan password yang sama hingga 20 kali sehingga didapatkan pola tertentu dan dengan menggunakan AIC (Aikake Information Criteria) dan FPE (Final Prediction Error) dihasilkan AR Model sebagai template profile yang sesuai untuk pengguna tersebut. AR Model digunakan untuk menghasilkan Linear Prediction Model sebagai sistem verifikasi. Keunggulan yang diungkapkan dalam penelitian ini adalah profil pengguna dibangun dengan Koefisien AR dan bukan dengan data sehingga lebih hemat dalam penggunaan memori dan basis data. 10. Applying Hidden Markov Models to Keystroke pattern Analysis for password Verification, oleh Wendy Chen dan Weide Chang (2004). Penelitian ini menggunakan Hidden Markov model . Data penelitian diperoleh dari pengetikan username, password dan nama pertama dan kedua dari pengguna (data bersifat statik) sebanyak 8 kali.
11. A Parallel Decision Tree-Based Method for User Authentication Based on Keystroke Patterns, oleh Yong Sheng, V. Phoha, Steven M. Rovnyak ( 2005). Penelitian ini menggunakan 43 pengguna dan dua set data untuk pelatihan dan verifikasi. Data yang digunakan bersifat statik dan diketik sebanyak 9 kali dalam masa kurun waktu November – Desember 2002. Metode penelitian ini menggunakan kombinasi metode Monte Carlo untuk menghasilkan data pelatihan tambahan
bersama
dengan
Parallel
Decision
Tree sehingga
memungkinkan dilakukan penambahan pengguna baru tanpa perlu melakukan pemrograman ulang keseluruhan sistem. Kompleksitas keseluruhan algoritme pelatihan bergantung pada jumlah User (n). Kesimpulan penelitian ini adalah jumlah pelatihan yang dibutuhkan sejumlah 180(n-1)
dan
kompleksitas
2
keseluruhan adalan O(n ). Penelitian ini me ngacu ke beberapa penelitian sebelumnya dan menggunakan asumsi bahwa fitur pengetikan mengikuti Distribusi Normal Gauss.
12. Deterring Password Sharing: User Authentication via Fuzzy c-Means Clustering Applied to Keystroke Biometric Data , oleh Salvador Mandujano dan Rogelio Soto (2004). Penelitian ini membandingkan penggunaan Crisp Clustering dengan Fuzzy Clustering dengan fungsi keanggotaan berbentuk segitiga. Data diperoleh dari 15 orang partisipan dengan mengetikan masing-masing password yang sama secara berulang sebanyak 15 kali. Kesimpulan yang diperoleh menunjukkan bahwa Fuzzy c-Means Clustering menyediakan tingkat keamanan yang lebih baik.
13. User Authentication Through Typing Biometrics Features, oleh Livia C. F. Araujo, Luiz H. R. Sucupira Jr. Miguel G. Lizarraga, Lee L. Ling dan Joao B.T Yabu-Uti (2005). Penelitian ini menggunakan 3 mesin dengan 2
keyboard layout yang berbeda
dan melibatkan 30 orang (pria dan wanita umur 20 – 60 tahun). Pelatihan menggunakan user account masing-masing dengan pengetikan berulang-ulang 15-20 kali (bersifat statik). Kemudian ujicoba penyusupan dilakukan dengan penyusup mencoba masuk dengan mengetikan user account peserta lain hingga
80 – 120 kali dengan sebelumnya telah mengamati cara pengetikan pengguna yang sebenarnya. Metode yang digunakan adalah metode statistik dengan menghitung rataan dan simpangan. Penelitian ini menggunakan beragam rentang waktu pengukuran untuk Keystroke latencies (Interkey Time), sebagai berikut. 1. DD (Down-Down) time : tombol ditekan hingga tombol berikutnya ditekan. 2. UD (Up-Down) time : tombol dilepas hingga tombol berikutnya ditekan. 3. DU (Down-Up) time : tombol ditekan hingga tombol berikutnya dilepas. 4. DD dan UD time : kombinasi dari 1 dan 2. 5. DD dan DU time : kombinasi dari 1 dan 3 6. UD dan DU time : kombinasi dari 2 dan 3 7. DD, UD dan DU time : kombinasi dari 1, 2 dan 3. Kesimpulan terbaik diperoleh jika menggunakan nomor 7.
Berdasarkan intisari jurnal penelitian tersebut, maka biometrik penekanan kunci mempunyai prospek perkembangan yang cerah (tabel 2) baik ditinjau dari sisi penelitian Ilmu komputer dan implementasinya. Tabel 2 Perkembangan Biometrik Perilaku Penekanan Kunci
Hal ini sejalan dengan perkembangan metode pengenalan pola dengan sifat data yang semakin dinamik dan penggunaan teks bebas. Penggunaan piranti keras dari berupa keyboard biasa hingga menggunakan piranti khusus dengan sensor penekanan
yang lebih sensitif sehingga bisa diimplementasikan dimana saja (Ruangan, PC, dan perangkat bergerak). Implementasinya dimulai dari sistem kunci ruangan yang sederhana hingga sistem verifikasi aplikasi yang kompleks dengan kemampuan verifikasi terus menerus. Perkembangan di masa depan, metode ini bisa digunakan sebagai sistem identifikasi identitas pengguna. Alen Peacock (2004) dalam artikel ”Typing Patterns: A Key to User Identification” mengatakan: “… para peneliti memfokuskan pada biometrik penekanan kunci dalam rangka untuk mencari identitas individu dari gaya pengetikannya. Namun, bidang ini masih mempunyai banyak tantangan sebelum dapat diterima sepenuhnya.”
1.5 Perbedaan Dari Penelitian Sebelumnya Perbedaan penelitian tesis ini dengan penelitian sebelumnya adalah sebagai berikut. 1. Variasi pengembangan penelitian Araujo (2005) dan Daw-Tung Lin (1997) dengan tiga variabel waktu d, i dan T yang diproses menjadi besaran variabel Fuzzy. Namun, tidak bisa dikatakan sebagai trigraph karena hanya tetap menggunakan dua karakter (Digraf diperluas/ Extended Digraph).
Gambar 5 Acuan Pengukuran Variabel d, i Dan T 2. Teks kata yang digunakan diurai (dianalisis) ke dalam pasangan karakter tertentu yang bersesuaian dengan belahan kanan dan kiri. Hal ini belum pernah diacu dalam penelitian sebelumnya dan penguraian ke dalam pasangan karakter mengacu pada penelitian Bergadano et al (2003) mengenai analisis penekanan kunci
dinamik.
Pasangan
karakter
yang
digunakan
hanyalah
yang
menggambarkan pergerakkan kedua belahan tersebut. 3. Variabel Fuzzy menggunakan fungsi keanggotaan segitiga dan trapesium. Namun, rentang yang digunakan disesuaikan dengan pola data yang diperoleh
sebagai pengembangan penelitian Sajjad Haider et al (2000) dan mengacu pada penelitian Salvador Mandujano et al (2004). 4. Kata bermakna dalam bahasa Indonesia. Penggunaan kata bermakna mengacu pada penelitian Coltell et al (1999) mengenai pengaruh derajat kesukaran untuk mendapatkan pola yang lebih konsisten. 5. Kemunculan kata secara acak berdasarkan waktu (Time Random) untuk memenuhi kriteria dinamik. Umumnya penelitian sebelumnya menggunakan data pelatihan dan verifikasi yang bersifat tetap dan selalu sama berulang. 6. Percobaan penggunaan data pelatihan yang tidak lengkap dan data pelatihan gabungan pasangan karakter yang berkelompok (berdekatan/cluster). Ini berdasarkan hipotesis bahwa tidak ada perbedaan yang berarti antara pengetikan pada karakter yang lokasinya saling berdekatan (pada kolom atau baris yang sama). Sebagai contoh, pola pengetikan an seharusnya tidak berbeda dengan am, sehingga data pelatihan pola an bisa digabungkan dengan data pelatihan pola am untuk menyederhanakan jumlah variasi data pelatihan.
1.6 Ruang Lingkup Penelitian ini mempunyai batasan ruang lingkup sebagai berikut. 1. Kata pendek (maksimum 20 huruf ) dan 26 huruf abjad (bukan huruf besar). Penggunaan karakter lainnya seperti tanda baca dan angka tidak digunakan karena tidak menimbulkan makna dan untuk mempersempit ruang lingkup pola.
Gambar 6 Keyboard QWERTY US English Standard (101/102 Keys) 2. Keyboard pada gambar 6 dibagi dalam belahan kanan baris pertama : ”y u i o p“, baris kedua : ”h j k l“, barisan ketiga : ” b n m“. Belahan kiri baris pertama : ” q w e r t“, barisan kedua : “a s d f g“, dan barisan ketiga : ” z x c v“. Ini bertujuan untuk melihat pengaruh pergerakan jari kanan dan kiri.
3. Penekanan
dua tombol harus mengikuti urutan ”tombol 1 ditekan – tombol 1
dilepas – tombol 2 ditekan – tombol 2 dilepas”. Urutan lain sebagai contoh, ”tombol 1 ditekan – tombol 2 ditekan – tombol 1 dilepas – tombol 2 dilepas” akan memberikan data input yang tidak sah (Invalid). 4. Ujicoba untuk melakukan verifikasi dengan target 5 orang berbeda. Verifikasi bertujuan untuk memastikan memang benar si A (bukan si B) dan bukan untuk menemukan siapakah si A (identifikasi). 5. Uji kondisi kualitatif sederhana dengan tiga kondisi yakni keletihan, cukup tidur dan ketrampilan pengetikan (bukan uji Psikologis lengkap) serta hari dan jam pengambilan data.