MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011
KLASIFIKASI ARITMIA EKG MENGGUNAKAN JARINGAN SYARAF TIRUAN DENGAN FUNGSI AKTIVASI ADAPTIF Asti Rahma Julian1, Nanik Suciati2, Darlis Herumurti3 Teknik Informatika, Fakultas Teknologi Informasi, ITS email :
[email protected],
[email protected],
[email protected] penyakit jantung adalah dengan klasifikasi aritmia EKG menggunakan Jaringan Syaraf Tiruan (JST). Arsitektur JST yang digunakan pada Tugas Akhir ini adalah Multilayer Perceptron (MLP). Secara umum, kinerja JST dengan arsitektur MLP bergantung pada jumlah lapisan tersembunyi, jumlah neuron tersembunyi, algoritma pembelajaran, dan fungsi aktivasi untuk setiap neuron. Pada MLP, setiap neuron menghitung jumlah bobot dari inputnya kemudian digunakan fungsi nonlinear untuk menghitung output dari neuron yang dinamakan fungsi aktivasi. MLP memiliki kemampuan untuk menyelesaikan masalah yang melibatkan hubungan nonlinear, di mana semua neuron menggunakan fungsi aktivasi yang sama atau setiap lapisan yang berbeda menggunakan fungsi aktivasi yang berbeda. Umumnya, fungsi aktivasi yang digunakan adalah konstan dan tidak dapat menyesuaikan dengan masalah yang berbeda. Tugas Akhir ini mengimplementasikan model JST klasik dan tiga model JST dengan fungsi aktivasi adaptif yang berbeda untuk mengklasifikasikan aritmia EKG[1].
ABSTRAKSI Angka kematian akibat penyakit jantung tergolong sangat tinggi. Oleh karena itu, deteksi dan penanganan dini penyakit jantung dapat mencegah kerusakan permanen pada jaringan jantung. Salah satu cara pendeteksian dini penyakit jantung adalah dengan klasifikasi aritmia EKG menggunakan Jaringan Syaraf Tiruan (JST). Tugas akhir ini mengimplementasikan klasifikasi aritmia EKG menggunakan JST dengan fungsi aktivasi adaptif. Tahap pertama adalah tahap training menggunakan algoritma backpropagation dengan melakukan perbaikan pada parameter jaringan serta parameter bebas yang terdapat pada fungsi aktivasi. Tahap kedua adalah tahap testing setelah mendapatkan arsitektur jaringan yang optimum pada tahap training. Kedua tahap tersebut dilakukan kepada dua model JST dengan fungsi aktivasi berbeda, yang masing-masing memiliki parameter bebas. Lalu kedua model tersebut dibandingkan dengan JST klasik. Uji coba dilakukan dengan mengklasifikasikan aritmia EKG menjadi 8 jenis berdasarkan data yang didapat dari database aritmia EKG milik MIT-BIH[4]. Berdasarkan uji coba, JST klasik dan dua model JST dengan fungsi aktifasi adaptif mempunyai akurasi sebesar 97.92%, 99.59% dan 99.54%.
2
Pada bab elektrokardiogram ini, akan dijelaskan secara singkat mengenai pengertian elektrokardiogram dan aritmia.
2.1 Pengertian Elektrokardiogram
Kata kunci : JST, aritmia EKG, fungsi aktivasi adaptif, klasifikasi.
1
ELEKTROKARDIOGRAM
Elektrokardiogram (EKG) adalah rekaman aktivitas elektrik dari jantung. Aktivitas elektrik ini terjadi ketika otot berkontraksi dan ada perubahan listrik yang disebut depolarisasi. Perubahan ini dapat dideteksi oleh electrode yang ditempelkan pada permukaan tubuh [2]. Hasil rekaman aktivitas elektrik tersebut ditampilkan pada kertas berukuran 1 mm2 seperti yang ditampilkan pada gambar 1. Dengan kecepatan 25 mm/s, setiap millimeter pada sumbu x menyatakan rbahwa ekaman berlangsung selama 40 ms (0,04 s). Sedangkan pada sumbu y, setiap millimeter menyatakan 0,1 mV tenaga listrik [3]. Setiap 5 milimeter yang ditandai dengan garis yang lebih tebal pada kertas, menyatakan 200 ms (0,2 s) pada sumbu x atau sumbu waktu dan 0,5 mV pada sumbu y atau sumbu amplitudo.
PENDAHULUAN
Elektrokardiograf merupakan alat yang efektif, sederhana, dan murah untuk mengenali penyakit cardiovascular. Oleh karena itu, elektrokardiograf biasa digunakan oleh dokter dalam bidang kardiologi. Elektrokardiograf menghasilkan catatan elektrokardiogram (EKG) yang dipakai untuk memeriksa dan mengamati kondisi pasien. EKG merekam aktivitas elektrik dari jantung. Penyakit dapat dikenali berdasarkan bentuk dari EKG. Ketidaknormalan pada bentuk EKG terjadi ketika irama jantung berbeda dari irama sinus normal. Kejadian ini biasa disebut aritmia. Angka kematian akibat penyakit jantung tergolong sangat tinggi. Oleh karena itu, deteksi dan penanganan dini penyakit jantung dapat menyelamatkan hidup pasien atau mencegah kerusakan permanen pada jaringan jantung. Salah satu cara pendeteksian dini
1
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011
Gambar 1. Rekaman EKG pada kertas 1mm2[4].
2.2 Pengertian Aritmia Gambar 2. Komponen Neuron [6]
Gangguan irama jantung (aritmia) adalah kelainan dalam kecepatan, irama, tempat asal dari rangsangan (impuls), atau gangguan penghantaran yang menyebabkan perubahan dalam urutan normal aktivasi atrium dan ventrikel.. Gangguan irama jantung juga dapat ditemukan pada orang yang sehat. Sebagian orang dengan gangguan irama jantung bahkan tidak dapat merasakan kelainannya itu. Oleh karena itu, salah satu cara mendeteksi aritmia adalah dengan EKG. Selain itu, untuk mempermudah pendeteksian aritmia, dapat dilakukan klasifikasi sinyal EKG menggunakan jaringan syaraf tiruan.
3
KONSEP TIRUAN
DASAR
JARINGAN
3.2 Fungsi Aktivasi Fungsi ini adalah fungsi umum yang akan digunakan untuk membawa input menuju output yang diinginkan. Penggunaan fungsi aktivasi ini tergantung pada kebutuhan dan desired output. Fungsi aktivasi yang menentukan rentang output dari sebuah neuron disebut dengan squashing function. Contoh squashing function antara lain : 1. Sigmoid Secara matematis, fungsi ini dapat didefinisikan sebgai berikut : (1) Fungsi ini membatasi output neuron dalam rentang antara 0 hingga 1. Fungsi sigmoid dapat digambarkan seperti Gambar 3
SYARA
Jaringan syaraf tiruan (JST) adalah suatu metode komputasi yang meniru sistem jaringan syaraf biologis. Metode ini menggunakan elemen perhitungan non-linear dasar yang disebut neuron yang diorganisasikan sebagai jaringan yang saling berhubungan, sehingga mirip dengan jaringan syaraf manusia. JST dibentuk untuk memecahkan suatu masalah tertentu seperti pengenalan pola atau klasifikasi melalui proses training.
3.1 Komponen Neuron Gambar 3. Fungsi Sigmoid Neuron adalah unit untuk memproses informasi yang merupakan dasar dari operasi JST. Gambar 2 menunjukkan komponen dari neuron. Ada 3 elemen dasan dari neuron, yaitu : 1. Sinapsis atau yang connecting links menghubungkan antara neuron yang satu dengan neuron yang lain, dimana setiap sinapsis memiliki bobot masing-masing. 2. Penjumlah atau adder bertugas menjumlahkan sinyal input yang telah diberi bobot berdasarkan bobot pada sinapsis neuron tersebut. 3. Fungsi aktivasi yang digunakan untuk membatasi keluaran dari sebuah neuron.
2.
Tangen hiperbolik Fungsi ini mirip dengan fungsi sigmoid, namun nilai outputnya adalah antara -1 hingga 1. Secara matematis, fungsi tangen hiperbolik dapat didefinisikan sebagai berikut : (2) Gambar 4 berikut adalah gambar dari fungsi tangent hiperbolik :
Gambar 4. Fungsi Tangen Hiperbolik 2
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011
3.3 Arsitektur JST Secara umum, arsitektur JST dibedakan menjadi 3 macam [6]: 1. Single layer network Pada JST, neuron terkumpul pada sebuah layer atau lapisan. JST dengan sruktur paling sedehana memiliki lapisan input yang meneruskan sinyal input ke lapisan output. Lalu neuron pada lapisan output akan melakukan proses komputasi. Arsitektur ini disebut single layer network yang merujuk pada lapisan output. Lapisan input tidak dihitung karena pada lapisan tersebut tidak ada proses komputasi melainkan hanya meneruskan sinyal input ke lapisan output.
Gambar 7. Recurrent network
4
PELATIHAN JST
Pada dasarnya, model pelatihan JST dapat dibedakan menjadi dua, yaitu supervised learning dan unsupervised learning.
4.1 Supervised Learning Pada model pelatihan ini, pola atau pasangan input dan output diketahui. Pasangan input dan output ini disebut dataset pelatihan. Dengan adanya dataset pelatihan, maka dapat dihasilkan jaringan yang sesuai dengan output yang diinginkan atau desired output. Pada pelatihan JST, desired output merupakan hasil optimum yang dapat dicapai. Oleh karena itu, untuk mencapai hasil optimum tersebut, parameter bebas pada JST diupdate berdasarkan dataset pelatihan serta error. Error yang dimaksud di sini adalah selisih antara desired output dan output sebenarnya. Perbaikan atau update parameter bebas ini dilakukan secara bertahap hingga jaringan mencapi hasil optimum. Ketika jaringan mencapai hasil optimum, maka jaringan dapat mengenali pola serta dapat menghasilkan output tanpa perlu mengetahui desired output.
Gambar 5. Single layer network 2.
Multilayer network Arsitektur multilayer network memiliki satu atau lebih lapisan tersembunyi yang terletak di antara lapisan input dan lapisan output. Pada lapisan ini, terdapat neuron yang melakukan proses komputasi yang disebut dengan neuron tersembunyi. Dengan tambahan satu atau lebih lapisan tersembunyi, JST dapat menyelesaikan perhitungan yang lebih rumit. Hal ini dapat terjadi ketika ukuran dari lapisan input cukup besar.
4.2 Unsupervised Learning Pada model pelatihan unsupervised learning, desired output tidak diketahui. Untuk melakukan model pelatihan ini, dapat digunakan aturan competitive learning. Sebagai contoh, jika sebuah jaringan terdiri dari dua lapisan, yaitu lapisan input dan lapisan competitive, maka lapisan input menerima data yang ada. Sedangkan lapisan competitive berisi neuron yang bersaing satu sama lain dengan strategi tertentu. Lalu, neuron dengan total input terbesar akan memenangkan persaingan dan tetap hidup, sedangkan neuron yang lain mati.
Gambar 6. Multilayer network 3.
Recurrent network Recurrent network sering disebut feedback loop karena neuron output ada yang memberikan informasi terhadap neuron input.
5
MULTILAYER NETWORK
Seperti yang telah dijelaskan secara singkat pada bab 2.2.3, multilayer network dapat menyelesaikan permasalahan yang lebih kompleks dibandingkan dengan single layer network, meskipun memiliki tingkat kerumitan yang tinggi dan cenderung membutuhkan waktu yang lama dalam proses pelatihannya. Multilayer network dapat menyelesaikan permasalahan yang rumit dengan model pelatihan supervised learning menggunakan algoritma backpropagation. 3
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011
∑
5.1 Algoritma Umum Backpropagation Pada dasarnya, algoritma backpropagation terdiri dari dua tahap, yaitu feed forward dan backpropagation. Pada tahap feedforward, sinyal input diberikan ke dalam jaringan yang kemudian dilakukan komputasi oleh neuron pada setiap lapisan sehingga menghasilkan output sebenarnya. Pada tahap feed forward ini, bobot pada sinapsis tidak mengalami perubahan. Sebaliknya, pada tahap backpropagation, semua bobot pada sinapsis diperbaiki berdasarkan error jaringan. Bobot pada sinapsis diperbaiki untuk membuat output sebenarnya semakin mendekati desired output. Secara detail, langkah training dengan algoritma backpropagation adalah sebagai berikut : 1.
2.
3.
Hasil tersebut lalu dimasukkan ke dalam fungsi aktivasi pada lapisan output. Jika fungsi aktivasi tersebut adalah fungsi sigmoid, maka digunakan persamaan (6)
!
5.
7.
Langkah 0 Inisialisasi bobot, learning rate, jumlah neuron pada lapisan tersembunyi, serta tentukan jumlah epoch dan toleransi error sebagai kondisi berhenti. Serta masukkan data input dan targetnya. Langkah 1 Selama kondisi berhenti belum tercapai, maka lakukan langkah ke-2 hingga langkah ke-9. Langkah 2 Untuk setiap pasangan pola training, lakukan langkah ke-3 hingga langkah ke-8.
6.
1
(8)
Suku perubahan bias dihitung dengan persamaan (9):
∆ *$ (9) Masing-masing neuron pada lapisan output melakukan perubahan bobot dan bias dengan persamaan (10) dan (11): '+,-.( '/,0,( ∆ (10) '+,-.( '/,0,( ∆ (11) 8.
Hasil tersebut lalu dimasukkan ke dalam fungsi aktivasi pada lapisan tersembunyi. Jika fungsi aktivasi tersebut adalah fungsi sigmoid, maka digunakan persamaan (4):
(7)
Setelah itu, hitung suku perubahan bobot yang akan digunakan untuk merubah bobot dengan persamaan (8):
∆ *$
1
(6)
Langkah 6 Masing-masing neuron pada lapisan output menerima pola target (# ) sesuai dengan pola input saat training. Kemudian, informasi kesalahan/error lapisan output ($ ) dihitung. $ dikirim ke lapisan sebelumnya dan digunakan untuk menghitung besarnya koreksi bobot dan bias antara lapisan tersembunyi dengan lapisan output (∆ & ∆ ). Perhitungan $ dihitung dengan persamaan (7):
$ '# ( ) ' (
Langkah 3 Setiap neuron input xi (dari neuron ke-1 hingga neuron ke-n pada lapisan input) mengirimkan sinyal input ke setiap neuron yang berada pada lapisan tersembunyi. Langkah 4 Masing-masing neuron di lapisan tersembunyi (dari neuron ke-1 hingga neuron ke-p) mengalikan sinyal input dengan bobotnya dan dijumlahkan dengan bias. Proses ini dilakukan dengan persamaan (3): ∑
(3)
1
"
1
Tahap II : Back propagation
Tahap I : Feed forward 4.
(5)
(4)
Langkah 5 Masing-masing neuron pada lapisan output (dari neuron ke-1 hingga neuron ke-m) mengalikan output dari neuron tersembunyi ( ) dengan bobot dan dijumlahkan dengan bias. Proses ini dilakukan dengan persamaan (5):
4
Langkah 7 Pada setiap neuron di lapisan tersembunyi dilakukan perhitungan informasi kesalahan pada lapisan tersembunyi ($ ). Kemudian $
digunakan untuk menghitung besar koreksi bobot dan bias antara lapisan input dengan lapisan tersembunyi. Perhitungan $ dihitung dengan persamaan (12) dan (13):
$ ∑1 $
(12)
$ $ 2
(13)
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011 Setelah itu, hitung suku perubahan bobot
yang akan digunakan untuk merubah bobot
dengan persamaan (14):
∆ *$
'+,-.(
A 0.7 94
Suku perubahan bias dihitung dengan persamaan (15): ∆ *$
(15)
9.
'+,-.( '/,0,( ∆
(17)
6 JST DENGAN FUNGSI AKTIVASI ADAPTIF Algoritma training JST dengan fungsi aktivasi adaptif sama dengan algoritma backpropagation yang telah dijelaskan pada bab 2.4.1, yang membedakan adalah jika backpropagation biasa hanya melakukan perbaikan bobot dan bias, pada algoritma ini juga dilakukan perbaikan parameter bebas. Seperti perbaikan bobot dan bias, perbaikan parameter bebas pada fungsi aktivasi dilakukan pada langkah 7 pada tahap backpropagation. Fungsi aktivasi yang digunakan pada Tugas Akhir ini ada 3, di mana salah satunya adalah fungsi sigmoid seperti pada persamaan (1). Fungsi sigmoid ini digunakan pada neuron output di 3 model JST yang diaplikasikan pada Tugas Akhir ini, serta digunakan pada neuron tersembunyi di model JST-1. Dua fungsi aktivasi lain dapat dilihat pada persamaan (20) dan (21) :
Langkah 8 Uji kondisi berhenti
F' (
(20) @
(21)
Persamaan (20) adalah fungsi aktivasi yang akan digunakan pada neuron tersembunyi pada model JST-2. Sedangkan persamaan (21) adalah fungsi aktivasi yang akan digunakan pada neuron tersembunyi pada model JST-3. Pada 3 persamaan tersebut, ,, +, , , ,: , + , +: adalah parameter bebas pada fungsi aktivasi tersebut. Perbaikan parameter bebas pada fungsi aktivasi menggunakan rumus sama dengan rumus yang digunakan untuk perbaikan bias pada langkah 7 pada tahap backpropagation. Namun, turunan dari fungsi aktivasi disesuaikan dengan fungsi aktivasi yang digunakan pada lapisan tersembunyi. Untuk melakukan perbaikan parameter bebas, maka fungsi aktivasi tersebut diturunkan terhadap masing-masing parameter bebas.
Bobot awal akan memengaruhi apakah jaringan mencapai titik minimum dan seberapa cepat konvergensinya. Nguyen dan Widrow mengusulkan cara melakukan inisialisasi bobot dan bias dari neuron input ke neuron tersembunyi berdasarkan jumlah neuron input dan neuron tersembunyi. Dengan algoritma inisialisasi Nguyen-Widrow ini, diharapkan dapat menghasilkan iterasi yang lebih cepat. Algoritma inisialisasi NguyenWidrow adalah sebagai berikut : Inisialisasi semua bobot dari lapisan input ke lapisan output dengan bilangan acak dalam interval 51: 17 Hitung
| | 9 : : ; :
@
G HIJ
M F' ( , KL3'+ ( G HI MJ
5.2 Optimalisasi Arsitektur dengan Inisialisai Nguyen-Widrow
2.
(20)
Bias yang dipakai sebagai inisialisasi adalah bilangan acak dalam interval 5β: β7
Keterangan: adalah bias pada lapisan tersembunyi adalah bobot antara lapisan input dan lapisan tersembunyi
adalah sinyal input 3 adalah jumlah neuron input 4 adalah jumlah neuron tersembunyi 0 adalah jumlah neuron output adalah bias pada lapisan output adalah bobot antar lapisan tersembunyi dan lapisan output # adalah target output atau desired output * adalah learning rate
1.
(19)
di mana : 3 jumlah neuron input 4 jumlah neuron tersembunyi
Masing-masing neuron pada lapisan tersembunyi melakukan perubahan bobot dan bias dengan persamaan (16) dan (17): (16)
|=>|
dengan A adalah factor skala Nguyen-Widrow yang didefinisikan pada persamaan (20) :
(14)
'+,-.( '/,0,( ∆
<=> '?@1@(
7 ALGORITMA Secara umum, input awal dari sistem klasifikasi aritmia EKG ini adalah titik koordinat dari grafik EKG. Jumlah titik koordinat yang digunakan sebagai input sama dengan jumlah neuron pada lapisan input dari JST, yaitu 200 neuron. Data tersebut kemudian diolah pada tahap
(2.18)
Bobot yang dipakai sebagai inisialisasi adalah
5
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011 praproses, yaitu dilakukan proses normalisasi dengan rentang 0 hingga 1. Hasil normalisasi tersebut akan digunakan pada tahap proses, yang terdiri dari tahap training dan testing. Hasil akhir pada tahap testing ini adalah berupa 8 jenis aritmia EKG.
7.1 Tahap Praproses 9. Data yang didapatkan dari database MIT-BIH[4] memiliki rentang data yang sangat luas. Hal ini akan menyulitkan JST untuk mengenali pola data pada saat tahap training. Oleh karena itu, sebelum digunakan sebagai input pada sistem, maka data tersebut dinormalisasi dalam rentang 0 hingga 1 menggunakan persamaan berikut
L34.#
O@@P1 1@QP1
Menghitung suku perubahan bobot dan bias antara lapisan input dan lapisan tersembunyi berdasarkan persamaan (12), (13), (14) dan (15). Lalu menghitung bobot dan bias baru dengan rumus (16) dan (17). Lalu, pada tahap ini juga dilakukan perbaikan parameter bebas pada fungsi aktivasi seperti yang telah dijelaskan pada bab 3. Langkah 8 Melakukan uji kondisi berhenti, berupa jumlah epoch dan toleransi error.
7.3 Tahap Testing Tahap testing yang dilakukan untuk mengetahui apakah jaringan dapat mengenali pola dengan memberikan input yang mungkin berbeda dengan input pada tahap training, tanpa memberikan desired output. Pada tahap ini, dilakukan langkah ke-3 hingga ke-5 pada tahap training.
(22)
7.2 Tahap Training
8 UJI COBA DAN EVALUASI
Seperti yang telah dijelaskan pada bab 5.1, tahap training dengan algoritma backpropagation yang digunakan pada proses klasifikasi aritmia EKG ini dibagi menjadi 2 tahap, yaitu tahap feed forward dan tahap backpropagation. Langkah yang akan dilakukan untuk proses klasifikasi ini adalah sebagai berikut : 1. Langkah 0 Menginisialisasi bobot dan bias dengan algoritma Nguyen-Widrow yang telah dijelaskan pada bab 5.2. Menentukan learning rate, jumlah neuron pada lapisan tersembunyi, serta jumlah epoch dan toleransi error sebagai kondisi berhenti. Serta memasukkan data input dan targetnya. 2. Langkah 1 Selama kondisi berhenti belum tercapai, maka dilakukan langkah ke-2 hingga langkah ke-9. 3. Langkah 2 Untuk setiap pasangan data input dan target, dilakukan langkah ke-3 hingga ke-8. Tahap I : Feed forward 4. Langkah 3 Neuron pada lapisan input mengirimkan data input ke lapisan tersembunyi. 5. Langkah 4 Menghitung keluaran dari neuron pada lapisan tersembunyi dengan persamaan (3) dan (4) 6. Langkah 5 Menghitung keluaran dari neuron pada lapisan output dengan persamaan (5) dan (6) Tahap II : Backpropagation 7. Langkah 6 Menghitung suku perubahan bobot dan bias antara lapisan tersembunyi dan lapisan output berdasarkan persamaan (7), (8) dan (9). Lalu menghitung bobot dan bias baru dengan rumus (10) dan (11). 8. Langkah 7
Data utama yang digunakan pada uji coba ini adalah 170 data EKG yang masing-masing data terdiri dari 200 titik koordinat EKG. Data tersebut berasal dari database EKG milik MIT-BIH[4] yang telah dilakukan proses normalisasi sehingga memiliki rentang antara 0 hingga 1.
8.1 Skenario Uji Coba Pada skenario uji coba ini, akan dilakukan 2 kali uji coba dengan melakukan perubahan proporsi jumlah data training dan data testing. Pada uji coba 1 digunakan 60% data training dan 40% data testing, sedangkan pada uji coba 2 digunakan 80% data training dan 20% data testing. Pada 2 uji coba tersebut, dilakukan uji coba menggunakan learning rate yang berbeda-beda, yaitu 0.01, 0.009 dan 0.008. Kemudian untuk setiap learning rate, digunakan jumlah neuron tersembunyi yang berbeda, yaitu 30, 40 dan 50. Setelah itu dihitung akurasi untuk 3 metode, yaitu JST klasik (JST-1) dan JST dengan fungsi aktivasi adaptif (JST-2 dan JST-3). Pada setiap metode dalam satu uji coba akan dicari learning rate dan jumlah neuron tersembunyi dengan akurasi terbesar. Kemudian akurasi terbesar dari masingmasing metode tersebut dibandingkan. • Uji Coba 1 Pada uji coba 1 ini pembagian proporsi data uji coba adalah data training sebesar 60% dan testing sebesar 40%. Berikut Tabel 1, Tabel 2 dan Tabel 3 yang menunjukkan hasil akurasi untuk masing-masing metode.
Tabel 1 Akurasi JST- 1 dengan 60% Data Training dan 40% Data Testing Learning Jumlah Neuron Akurasi(%) Rate Tersembunyi 0.01 30 97.97 0.01 40 98.07 0.01 50 98.1 0.009 30 97.83 0.009 40 97.94 6
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011 0.009 0.008 0.008 0.008
50 30 40 50
Pada uji coba 1 ini pembagian proporsi untuk data training dan testing adalah data training sebesar 80% dan testing sebesar 20%. Berikut Tabel 5, Tabel 6 dan Tabel 7 yang menunjukkan hasil akurasi untuk masing-masing metode.
97.97 97.65 97.76 97.8
Tabel 2 Akurasi JST- 2 dengan 60% Data Training dan 40% Data Testing Learning Jumlah Neuron Akurasi(%) Rate Tersembunyi 0.01 30 99.26 0.01 40 99.19 0.01 50 99.18 0.009 30 99.26 0.009 40 99.3 0.009 50 99.19 0.008 30 99.23 0.008 40 99.24 0.008 50 99.19
Tabel 5 Akurasi JST- 1 dengan 80% Data Training dan 20% Data Testing Learning Jumlah Neuron Akurasi(%) Rate Tersembunyi 0.01 30 97.49 0.01 40 97.21 0.01 50 97.54 0.009 30 97.54 0.009 40 97.12 0.009 50 97.22 0.008 30 97.92 0.008 40 97.87 0.008 50 97.22
Tabel 3 Akurasi JST- 3 dengan 60% Data Training dan 40% Data Testing Learning Jumlah Neuron Akurasi(%) Rate Tersembunyi 0.01 30 98.62 0.01 40 98.79 0.01 50 97.98 0.009 30 98.58 0.009 40 98.9 0.009 50 98.98 0.008 30 99.05 0.008 40 98.64 0.008 50 99
Tabel 6 Akurasi JST- 2 dengan 80% Data Training dan 20% Data Testing Learning Jumlah Neuron Akurasi(%) Rate Tersembunyi 0.01 30 99.5 0.01 40 99.23 0.01 50 99.49 0.009 30 99.45 0.009 40 99.34 0.009 50 99.33 0.008 30 99.26 0.008 40 99.59 0.008 50 99.06
Berdasarkan hasil uji coba tersebut, diketahui bahwa akurasi terbesar yang dicapai oleh JST-1 pada uji coba 1 ini adalah 98.1% dengan learning rate 0.01 dan 50 neuron tersembunyi. Sedangkan untuk JST-2, akurasi tebesar yang dicapai adalah 99.3% dengan learning rate 0.009 dan 40 neuron tersembunyi. Lalu untuk JST-3, akurasi terbesar yang dicapai adalah 99.05% dengan learning rate 0.008 dan 30 neuron tersembunyi. Hasil tersebut dapat dilihat pada Tabel 4.
Tabel 7 Akurasi JST- 3 dengan 80% Data Training dan 20% Data Testing Learning Jumlah Neuron Akurasi(%) Rate Tersembunyi 0.01 30 99.5 0.01 40 99.3 0.01 50 99.52 0.009 30 99.54 0.009 40 99.18 0.009 50 99.14 0.008 30 99.37 0.008 40 99.02 0.008 50 99.27
Tabel 4 Akurasi Terbesar untuk JST-1, JST-2 dan JST-3 dengan 60% Data Training dan 40% Data Testing Jumlah Learning Metode neuron Akurasi(%) Rate Tersembunyi JST-1 0.01 50 98.1 JST-2 0.009 40 99.3 JST-3 0.008 30 99.05
Berdasarkan hasil uji coba tersebut, diketahui bahwa akurasi terbesar yang dicapai oleh JST-1 pada uji coba 2 ini adalah 97.92% dengan learning rate 0.008 dan 30 neuron tersembunyi. Sedangkan untuk JST-2, akurasi tebesar yang dicapai adalah 99.59% dengan learning rate 0.008 dan 40 neuron tersembunyi. Lalu untuk JST-3, akurasi terbesar yang dicapai adalah 99.54% dengan learning rate 0.009 dan 30 neuron tersembunyi. Hasil tersebut dapat dilihat pada Tabel 8.
Dari Tabel 5.5 dapat dilihat bahwa akurasi JST-2 dan JST-3 yang merupakan JST dengan fungsi aktivasi adaptif lebih besar daripada JST-1 yang merupakan JST klasik. • Uji Coba 2
7
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011
Tabel 8 Akurasi Terbesar untuk JST-1, JST-2 dan JST-3 dengan 80% Data Training dan 20% Data Testing Jumlah Learning Metode neuron Akurasi(%) Rate Tersembunyi JST-1 0.008 30 97.92 JST-2 0.008 40 99.59 JST-3 0.009 30 99.54
REFERENSI
Dari Tabel 8 dapat dilihat bahwa akurasi JST-2 dan JST-3 yang merupakan JST dengan fungsi aktivasi adaptif lebih besar daripada JST-1 yang merupakan JST klasik.
[1]
Y. Özbay, G. Tezel, A new method for classification of ECG arrhythmias using neural network with adaptive activation function, Digital Signal Processing 20 (2010) 1040–1049.
[2]
R. Hampton, John. 2006. Dasar-Dasar EKG. Diterjemahkan oleh Prof. Dr. dr. A. Samik Wahab, SpA(K). Jakarta : Penerbit Buku Kedokteran ECG.
[3]
Abedin, Zainul. Conner, Robert. 2008. ECG Interpretation. Blackwell Publishing.
[4]
Physiobank archive index, MIT-BIH Database,
[5]
S. Haykin. 1999. Neural Networks : A Comprehensive Foundation, 2nd edition. United State of America : Prentice Hall
8.2 Evaluasi Dari hasil uji coba yang telah dilakukan, dapat diketahui bahwa setiap metode membutuhkan jumlah learning rate dan neuron tersembunyi yang berbeda untuk mendapatkan akurasi yang terbesar. Selain itu, berdasarkan uji coba 1 dan uji coba 2, proporsi data training dan testing pada proses klasifikasi aritmia EKG juga sangat mempengaruhi hasil klasifikasi. Lalu, pada hasil uji coba pertama akurasi terbesar yang dicapai JST-2 dan JST-3 berturut-turut adalah 99.3% dan 99.05%. Hasil akurasi 2 metode tersebut lebih baik dibandingkan JST-1 yang akurasinya 98.1%. Begitu pula pada uji coba kedua. Akurasi yang dicapai JST-2 dan JST-3 yaitu 99.59% dan 99.54%. Akurasi tersebut lebih besar daripada akurasi yang dicapai JST-1, yaitu 97.92%. Berdasarkan hasil kedua uji coba tersebut, metode JST-2 dan JST-3 yang merupakan JST dengan fungsi aktivasi adaptif memiliki nilai akurasi yang lebih besar daripada metode JST-1 yang merupakan JST klasik.
9 KESIMPULAN Berdasarkan hasil uji coba yang telah dilakukan, terdapat beberapa kesimpulan yang dapat diambil, yaitu: 1. Dengan melihat hasil uji coba terlihat bahwa klasifikasi aritmia EKG menggunakan JST dengan fungsi aktivasi adaptif mencapai akurasi yang lebih besar dibandingkan dengan JST klasik. Yaitu pada uji coba pertama JST-2 mencapai akurasi 99.3% dan JST-3 mencapai akurasi 99.05%. Sedangkan JST-1 mencapai akurasi 98.1%. Lalu pada uji coba kedua JST-2 dan JST-3 mencapai akurasi berturut-turut 99.59% dan 99.54%, sedangkan JST-1 mencapai akurasi 97.92%. 2. Dari kedua uji coba dengan proporsi data yang berbeda, dapat dilihat bahwa JST dengan fungsi aktivasi adaptif mencapai akurasi yang lebih besar dengan proporsi data training 80% dan data testing 20%.
8
MAKALAH SEMINAR TUGAS AKHIR PERIODE JULI 2011
9