BAB II TINJAUAN PUSTAKA Tinjauan Teoritis 2.1.1
Usadha Taru Ayurveda sudah ada semenjak 2000 tahun yang lalu. Ayurveda adalah ilmu
pengetahuan tentang hidup yang berasal dari kata sangsekerta Ayur dan Veda. Ayur berarti hidup dan Veda yang berati pengetahuan. Ayurveda berasal dari Negeri India, namun sekarang menyebar ke seluruh Asia dan negara barat. Sekarang ini Ayurveda dipraktekkan oleh negara-negara yang berkembang seperti Amerika Serikat, Amerika Latin, Eropa dan negara lainnya. Pengobatan Ayurveda berkembang pesat karena terbukti aman dan efektif. Ramuan obat Ayurveda yang tersedia biasanya berasal dari bahan tanaman, binatang dan bahan dari mineral-mineral. Bahan-bahan yang berasal dari tanaman seperti yang disebutkan dalam pengobatan tradisional (Usadha) Bali dikenal dengan pengobatan Taru Pramana. Taru berarti tanaman dan pramana yang berarti berkhasiat obat. Masyarakat Bali sudah terbiasa memakai tanaman Taru Premana sebagai obat tradisional oleh para Pengusada atau Balian (Healer). Tanaman Taru Premana ini bermanfaat memberikan perlindungan yang terbaik bagi tubuh melawan penyakit, sehingga sangat baik dipakai setiap hari dan sudah menjadikan bagian dari pola hidup sehat. Bahkan, tidak jarang masyarakat memakaiannya saling berdampingan dengan obat modern, hanya saja waktu minumnya diberikan jarak sekitar 2 jam sebelum meminum obat modern. Biasanya obat yang berasal dari tanaman Taru Premana ini dipakai dalam proses mempercepat pemulihan kesehatan. Herbal Taru Premana ini dibuat berupa ekstrak dari tumbuh-tumbuhan atau sari pati dari air tanaman tersebut diolah diberikan pengeras berupa gula tebu atau gula merah menjadi herbal berupa minuman instan, atau digodok untuk diminum air godokannya atau diolah berupa sari pati tanaman, dikeringkan lalu dimasukkan ke dalam kemasan berupa kapsul.
6
7
2.1.2
Daun Daun merupakan suatu bagian tumbuhan yang paling penting pada
tumbuhan, secara umum daun digunakan oleh tumbuhan untuk melakukan fotosintesis maupun melakukan respirasi. Pada umumnya tiap tumbuhan mempunyai sejumlah besar daun. Daun hanya terdapat pada batang saja dan tidak pernah terdapat pada bagian lain pada tubuh tumbuhan. Daun memiliki berbagai bentuk dasar seperti ditunjukan pada gambar 2.1.
Gambar 2. 1 Bentuk Dasar Daun (Bowo, 2011)
8
Dalam Pengenalan jenis tanaman maka tepi daun juga memberikan peranan penting dalam menentukan jenis suatu tanaman. Tepi daun secara umum ada beberapa jenis seperti ditunjukan pada gambar 2.2.
Gambar 2. 2 Jenis Tepian Daun (Bowo, 2011) Serat daun, lebar daun, warna, dan tekstur kerap kali digunakan dalam klasifikasi jenis daun. Gambar 2.3 menunjukan beberapa jenis daun dengan seratnya, warna, bentuk, lebar, dan tepian daun.
Gambar 2. 3 Contoh Daun (Hati, 2013)
9
2.1.3
Pengolahan citra Pengolahan citra adalah pemrosesan citra, khususnya menggunakan
komputer untuk mengubah suatu citra menjadi citra dengan format yang berbeda. Klasifikasi citra tidak dapat langsung dilakukan, karena itu diperlukan prosesproses preprocessing seperti grayscale, black and white, smoothing, morphology ,dan edge ditection guna mendapatkan fitur sesuai dengan format yang diinginkan. 2.1.3.1 Citra Grayscale Citra grayscale merupakan citra digital yang hanya memiliki sebuah nilai kanal pada setiap pixelnya. Nilai tersebut digunakan untuk menunjukan tingkat intensitas citra. Grayscale dapat dihitung dengan persamaan berikut (Lee, 2013) : πΊπππ¦ = 0.299 β π
+ 0.587 β πΊ + 0.114 β π΅ ................................................... (2.1) Keterangan : π
βΆ ππππππππ πππ πΊ βΆ ππππππππ πππππ π΅ βΆ ππππππππ πππ’π 2.1.3.2 Citra Biner Citra Biner adalah citra digital yang hanya memiliki dua kemungkinan nilai pixel yaitu hitam dan putih. Citra biner juga disebut sebagai citra BW (black white) atau citra monokrom. Berikut persamaan untuk mengubah citra keabuan menjadi citra biner dengan nilai ambang T (Munir, 2013): π(π₯, π¦) = {
0, π(π₯, π¦) < π ................................................................................. (2.2) 1, π(π₯) β₯ π
Keterangan : π(π₯, π¦) βΆ πππππ ππππ ππ ππ π‘ππ‘ππ π₯, π¦ π
βΆ π‘βπππ βπππ
2.1.3.3 Smoothing Pelembutan citra (image smoothing) bertujuan untuk menekan gangguan (noise) pada citra. Gangguan pada citra umumnya berupa variasi intensitas suatu
10
piksel yang tidak berkolerasi dengan piksel-piksel tetangganya. Piksel yang mengalami gangguan umumnya memiliki frekuensi tinggi. Operasi pelembutan citra dilakukan untuk menekan komponen yang berfrekuensi tinggi dan meloloskan komponen yang berfrekuensi rendah. 2.1.3.3.1 Mean Filter Mean filter bekerja dengan meratakan piksel citra keabuan, sehingga citra yang diperoleh tampak lebih kabur dari kontrasnya. Berikut matrik mean filter 3x3 (elemen bertanda * menyatakan posisi (0,0) dari piksel yang di-konvolusi). 1 1 1 9 9 9 1 1 1 β 9 9 9 1 1 1 [9 9 9] Matrix ini digunakan untuk melakukan smooting dengan melakukan perkalian dengan nilai-nilai tetangga dari citra biner dan mengganti hasil konvulsi dengan nilai tengah matrik citra biner. 2.1.3.4 Diteksi Tepi Diteksi tepi merupakan pendekatan yang paling sering digunakan untuk untuk segmentasi citra berdasarkan perubahan intensitas yang terjadi secara tibatiba, dalam diteksi tepi terdapat 3 langkah dasar yang harus dilakukan (Gonzales, 2008): 1. Image smoothing 2. Ditection of edge point 3. Edge localization 2.1.3.4.1 Dasar Diteksi Tepi Perubahan intensitas yang besar dalam jarak yang singkat dipandang sebagai fungsi yang memiliki kemiringan yang besar. Kemiringan fungsi biasanya
11
dilakukan dengan menghitung turunan pertama (gradien). Berikut persamaan gradien dalam notasi vector (Gonzales, 2008) : ππ
ππ₯ ππ₯ βπ = ππππ(π) = [π ] = [ππ ] .......................................................................... (2.3) π¦ ππ¦
Dalam hal ini, ππ₯ = ππ¦ =
ππ(π₯,π¦) ππ₯ ππ(π₯,π¦) ππ¦
= =
π(π₯+βπ₯,π¦)βπ(π₯,π¦) βπ₯ π(π₯,βπ¦+π¦)βπ(π₯,π¦) βπ¦
........................................................................... (2.4) .......................................................................... (2.5)
Umumnya βπ₯ = βπ¦ = 1, sehingga persamaan turunan pertama menjadi (Munir, 2013): ππ₯ = ππ¦ =
ππ(π₯,π¦) ππ₯ ππ(π₯,π¦) ππ¦
= π(π₯ + 1, π¦) β π(π₯, π¦) ............................................................... (2.6) = π(π₯, 1 + π¦) β π(π₯, π¦) ............................................................... (2.7)
Kedua turunan diatas dapat dipandang sebagai dua buah mask konvulsi berikut (Munir,2013): ππ₯ = [β1 1] ................................................................................................... (2.8) 1 ππ¦ = [ ] ......................................................................................................... (2.9) β1 Berdasarkan konvolusi dengan kedua mask tersebut, kita menghitung kekuatan tepi, G[f(x,y)], yang merupakan magnitudo dari gradien, dan arah tepi πΌ(π₯, π¦), untuk setiap piksel (Gonzales, 2008): π(π₯, π¦) = πππ(βπ) = βππ₯ 2 + ππ¦ 2 ............................................................ (2.10) π(π₯, π¦) β |ππ₯ | + |ππ¦ | ................................................................................... (2.11) ππ¦
πΌ = π‘ππβ1 (π ) ............................................................................................... (2.12) π₯
Keputusan apakah suatu piksel merupakan tepi atau bukan tepi dinyatakan dengan operasi pengambangan berikut (Munir, 2013): π(π₯, π¦) = {
1, ππππ π(π₯, π¦) β₯ π ..................................................................... (2.13) 0, ππππππ¦π
Keterangan : π(π₯, π¦) βΆ πππππ ππππ ππ ππ π‘ππ‘ππ π₯, π¦ π(π₯, π¦): ππππππ‘π’ππ ππππ π‘ππ‘ππ π₯, π¦
12
π
βΆ π‘βπππ βπππ
πΌ
βΆ πππβ π‘πππ
dalam hal ini T adalah nilai ambang, piksel tepi dinyatakan putih sedangkan piksel bukan tepi dinyatakan hitam. 2.1.3.4.2 Operator Sobel Suatu pengatuan piksel di sekitar piksel (x,y) : ππ π1 π2 [π7 (π₯, π¦) π3] π6 π5 π4 Operator Sobel adalah magnitude dari gradient yang dihitung dengan : π = βππ₯ 2 + ππ¦ 2 ........................................................................................... (2.14) Turunan parsial dihitung dengan : ππ₯ = (π2 + ππ3 + π4) β (ππ + ππ7 + π6 ................................................... (2.15) ππ¦ = (ππ + ππ1 + π2) β (π6 + ππ5 + π4) ................................................. (2.16) Dengan konstanta c adalah 2, dalam bentuk mask, Sx dan Sy dapat dinyatakan sebagai : β1 0 ππ₯ = [β2 0 β1 0
1 2] 1
1 2 1 ππ¦ = [ 0 0 0] β1 β2 β1
Arah tepi dihitung dengan persamaan : ππ¦
πΌ(π₯, π¦) = π‘ππβ1 (ππ₯ ) ..................................................................................... (2.17) 2.1.3.5 Structuring Elements (SE) Operasi morphologi menggunakan dua input himpunan yaitu suatu citra (pada umumnya citra biner) dan suatu kernel. Khusus dalam morphologi, istilah kernel biasa disebut dengan structuring elements. SE merupakan suatu matrik dan pada umumnya berukuran kecil, yang digunakan dalam proses morphology. Berikut contoh SE berbentuk disk. 0 1 [1 1 0 1
0 1] 0
13
2.1.3.6 Opening Operasi opening merupakan operasi erosi yang diikuti oleh operasi dilasi. Operasi ini mencegah penurunan ukuran objek secara keseluruhan. Pada citra grayscale operasi ini memberikan efek penurunan intensitas bagian citra yang terang yang berukuran lebih kecil dari SE. Sedangkan untuk bagian terang yang lebih besar dari SE tidak berubah. Adapun perubahan yang terjadi setelah proses opening.
(a) Gambar 2. 4 (a) Citra RGB
(b) (b) Citra Hasil Opening Morphology
2.1.3.7 HU Invariant Moment Citra daun memiliki ukuran ruang vektor yang besar, asumsikan memiliki citra berukuran 100x100 piksel dan akan menghasilkan vector pengamatan dengan dimensi 100x100 = 10000, jika dilakukan proses komputasi akan memerlukan waktu komputasi yang lama. Oleh karena itu perlu dilakukan transformasi ruang vector menjadi dimensi yang lebih rendah namun memiliki kualitas citra yang sama baiknya dengan citra asli. Metode HU Invariant Moment merupakan metode yang umum digunakan pada citra agar memperoleh dimensi yang lebih rendah dan memiliki kualitas citra yang baik dan lebih bervariasi. Citra 2D dengan fungsi f(x,y) dan berordo (p+q) didefinisikan sebagai (Huang, 2010): β
β
πππ = β«ββ β«ββ π₯ π π¦ π π(π₯, π¦)ππ₯ππ¦ ................................................................ (2.18) Untuk p,q=1,2,β¦ citra dengan intensitas piksel I(x,y), maka raw moments dihitung dengan : π΄ππ = βπ₯ βπ¦ π₯ π π¦ π πΌ(π₯, π¦) ............................................................................... (2.19)
14
Sedangkan untuk central moments didefinisikan sebagai (Huang, 2010): β
β
πππ = β«ββ β«ββ(π₯ β π₯Μ
)π (π¦ β π¦Μ
)π π(π₯, π¦)ππ₯ππ¦ .............................................. (2.20) Untuk citra digital maka persamaan diatas menjadi : πππ = βπ₯ βπ¦(π₯ β π₯π )π (π¦ β π¦π )π π(π₯, π¦) (π, π = 0,1,2, β¦ ) ......................... (2.21) Dengan π
10 π₯π = πππ ......................................................................................................... (2.22)
π
π¦π = π01 ......................................................................................................... (2.23) ππ
Untuk Rotation Invariant Moments dihitung dengan (Fang, 2014): πΌ1 = π20 + π02 ................................................................................................ (2.24) πΌ2 = (π20 + π02 )2 + 4π11 2 ............................................................................ (2.25) πΌ3 = (π30 + 3π12 )2 + (3π21 + π03 )2 ............................................................ (2.26) πΌ4 = (π30 + π12 )2 + (π21 + π03 )2 ................................................................. (2.27) πΌ5 = (π30 + 3π12 )(π30 + π12 )[(π30 + π12 )2 β 3(π21 + π03 )2 ] + (3π21 β π03 )(π21 + π03 )[3(π30 + π12 )2 β (π21 + π03 )2 ] ............................ (2.28) πΌ6 = (π20 + π02 )[(π30 + π12 )2 β (π21 + π03 )2 ] + 4π11 (π30 + π12 )(π21 + π03 ) ......................................................................................................................... (2.29) πΌ7 = (3π21 + π03 )(π30 + π12 )[(π30 + π12 )2 β 3(π21 + π03 )2 ] + (π12 + π30 )(π21 + π03 )[3(π30 + π12 )2 β (π21 + π03 )2 ] .............................. (2.30) Dengan πππ =
πππ π+π (1+ ) π00 2
.................................................................................................. (2.31)
Keterangan : πΌπ βΆ πππππ πππ πππ ππ π₯π βΆ ππ’π ππ‘ πππππ π₯ π¦π βΆ ππ’π ππ‘ πππππ π¦ 2.1.4
Pengenalan Pola Pola adalah entitas yang terdefinisi dan dapat diidentifikasi melalui ciri-
cirinya (features). Ciri-ciri tersebut digunakan untuk membedakan suatu pola dengan pola lainnya. Ciri yang bagus adalah ciri yang memiliki daya pembeda yang
15
tinggi, sehingga pengelompokan pola berdasarkan ciri yang dimiliki dapat dilakukan dengan keakuratan yang tinggi. 2.1.4.1
SVM (Support Vector Machine) SVM merupakan salah satu metode klasifikasi yang umum digunakan saat
ini oleh banyak peneliti, karena memiliki kemampuan yang baik dalam banyak aplikasi. Ide dasar SVM adalah memaksimalkan batas hyperplane, yang diilustrasikan seperti gambar berikut :
Hyperplane optimal
Hyperplane Nonoptimal
(a) Gambar 2. 5 (a) hyperplane non optimal
(b) (b) hyperplane optimal (Han, 2006)
Pada gambar 2.5 (a) ada sejumlah pilihan hyperplane yang mungkin untuk set data, sedangkan gambar 2.5 (b) merupakan hyperplane dengan margin yang paling maksimal. Meskipun sebenarnya pada gambar 2.5 (a) bisa juga menggunakan hyperplane sembarang, tetapi hyperplane dengan margin yang maksimal akan memberikan generalisasi yang lebih baik pada metode klasifikasi. Konsep klasifikasi dengan SVM dapat dijelaskan secara sederhana sebagai usaha untuk mencari hyperplane terbaik yang berfungsi sebagai pemisah dua buah kelas data pada input space. Data yang tergabung pada kelas -1 disimbolkan dengan bentuk lingkaran keabuan, sedangkan data pada kelas +1, disimbolkan dengan bentuk lingkaran berwarna putih.
16
2.1.4.1.1 SVM Linier Setiap data latih dinyatakan oleh (π₯π , π¦π ) dengan i=1, 2, β¦, N, dan π₯π = {π₯π1 , π₯π2 , β¦ , π₯ππ }π merupakan atribut (fitur) set untuk data latih ke-i. Untuk π¦π β {β1, +1} menyatakan label kelas. Hyperplane dapat dinotasikan (Prasetyo, 2014): π. ππ + π = 0 ................................................................................................. (2.32) w dan b adalah parameter model. π. ππ merupakan inner-product antara w dan π₯π . Dengan memberikan label -1 untuk kelas pertama dan +1 untuk kelas kedua, maka untuk prediksi semua data uji menggunakan formula (Prasetyo, 2014): π¦={
+1, ππππ π€. π§ + π > 0 ........................................................................... (2.33) β1, ππππ π€. π§ + π < 0
Untuk support vector memenuhi persamaan (Prasetyo, 2014): π. ππ + π = β1 ............................................................................................. (2.34) π. ππ + π = +1 ............................................................................................. (2.35) Dengan mengurangkan kedua persamaan support vector maka diperoleh jarak antara dua hyperplane dari dua kelas tersebut, dinyatakan dengan persamaan berikut (Prasetyo, 2014): 2
π = βπ€β ........................................................................................................... (2.36) Margin optimal dihitung dengan memaksimalkan jarak antara hyperplane dan data terdekat.
Permasalahan
ini
selanjutnya
diselesaikan
dengan
Quadratic
Programming (QP) dengan meminimalkan invers. Berikut permasalahan QP dalam persamaan matematis (Krisantus, 2007) : Min 1 2
βπβ2 ............................................................................................................ (2.37)
Subject to π¦π (π. ππ + π) β₯ 1, π = 1, 2, β¦ , π ................................................................... (2.38)
17
Permasalahan ini sulit untuk diselesaikan untuk itu perlu dirubah terlebih dahulu dalam bentuk Lagrange Multipliers (Prasetyo, 2014): 1
πΏπ = βπ π=1 πΌπ β 2 βπ,π πΌπ πΌπ π¦π ππ ππ ................................................................... (2.39) ππ . ππ merupakan dot-product dua buah data dalam data latih. Syarat 1: βπ π=1 πΌπ π¦π = 0 ................................................................................................. (2.40) Syarat 2: πΌπ β₯ 0, π = 1,2, β¦ , π ...................................................................................... (2.41) Keterangan : πΏπ βΆ πΏπππππππ ππ’πππ‘πππ πΌπ βΆ πΏπππππππ ππ’ππ‘ππππππ ππ β π π¦π βΆ π‘πππππ‘ π₯π βΆ πππ‘π ππ β π π₯π βΆ πππ‘π ππ β π 2.1.4.1.2 SVM Nonlinier Jika dalam ANN ada perceptron dan MLP, maka dalam SVM terdapat SVM Linier dan SVM Nonlinier (kernel trick). Seperti halnya Perceptron, SVM sebenarnya adalah hyperplane linier yang hanya bekerja pada data yang dapat dipisahkan secara linier. Untuk data yang distribusi kelasnya tidak linear biasanya menggunakan pendekatan kernel pada fitur data awal set data. Kernel dapat didefinisikan sebagai suatu fungsi yang memetakan fitur data dari dimensi awal (rendah) ke fitur baru dengan dimensi yang relatif lebih tinggi (Prasetyo, 2014). Pendekatan ini berbeda dengan metode klasifikasi pada umunya yang justru mengurangi dimensi awal untuk menyederhanakan proses dan memberikan akurasi prediksi yang lebih baik. Berikut gambar permasalahan non-linear :
18
Gambar 2. 6 SVM-Nonlinear (krisantus, 2007) Pemetaan kernel dengan cara menghitung dot product dua buah vector di ruang dimensi baru dengan memakai komponen kedua buah vector tersebut di ruang dimensi asal sebagai berikut (Prasetyo, 2014): πΎ(π₯π , π₯π ) = π₯π . π₯π ............................................................................................ (2.42) Dan untuk prediksi pada data uji (z) dengan dimensi fitur yang baru dapat diformulasikan (Prasetyo, 2014) : π(π§) = π πππ(π€. z + π) = π πππ(βπ π=1 πΌπ π¦π . K(π₯π , z) + π) ............................. (2.43) Keterangan : π βΆ ππ’πππ π ππππ’π‘π’π ππ πΌπ βΆ πΏπππππππ ππ’ππ‘ππππππ ππ β π π¦π βΆ π‘πππππ‘ ππ β π π βΆ ππππ πΎ βΆ ππ’πππ π ππππππ π₯π βΆ π π’πππππ‘ π£πππ‘ππ ππ β π π§ βΆ πππ‘π π’ππ N adalah jumlah data yang menjadi support vector, π₯π adalah support vector, dan z adalah data uji yang akan dilakukan prediksi. Berikut beberapa pilihan fungsi kernel (Prasetyo, 2014): Tabel 2. 1 Fungsi Kernel Nama Kernel
Definisi Fungsi
Linear
K(x,y)=x.y
19
Polynomial
K(x,y)=(π₯. π¦ + π)π
Gaussian RBF
K(x,y)=exp(
ββπ₯βπ¦β2 2.π2
)
Sigmoid
K(x,y)=tanh(π(π₯. π¦) + π)
Invers Multiquadric
K(x,y)=
1 ββπ₯βπ¦β2 +π 2
Keterangan : π₯, π¦ βΆ π ππ‘ πππ‘π πΎ βΆ ππ’πππ π ππππππ π βΆ ππππ π‘πππ‘π 2.1.5
Sequential Minimal Optimization (SMO) SMO merupakan algoritma yang diperuntukan untuk mengoptimalkan SVM.
SMO membantu dalam menyelesaikan persamaan QP SVM (2.39) dengan batasan (2.40) dan (2.41). Ide SMO pada setiap langkahnya adalah memilih dua lagrange multipliers untuk dioptimalkan, jika ditemukan maka update SVM untuk merefleksikan nilai optimal yang baru (Platt, 1998). Permasalahan QP diselesaikan dengan memenuhi kondisi KKT (Karush Kuhn Tucker). Berikut kondisi yang mana QP dapat diselesaikan untuk semua i : πΌπ = 0 <=> π¦π π’π β₯ 1 ............................................................................ (2.44) 0 < πΌπ < πΆ <=> π¦π π’π = 1 .................................................................... (2.45) πΌπ = πΆ <=> π¦π π’π β€ 1 ............................................................................ (2.46) Permasalahan QP dapat dilihat seperti pada gambar berikut :
Gambar 2. 7 SMO (Platt, 1998)
20
pada gambar 2.6 terlihat πΌ1 dan πΌ2 harus berada dalam batasan 0 β€ πΌ1 , πΌ2 β€ πΆ, sedangkan βπ π=1 π¦π πΌπ menyebabkan πΌ1 dan πΌ2 berada dalam garis diagonal, dua batasan tersebut membuat fungsi objective QP menjadi optimum. Hal ini memberikan penjelasan kenapa lagrange multipliers dapat dioptimalkan (Platt, 1998). Pertama akan dihitung πΌ2 jika π¦1 β π¦2 maka akan berlaku aturan berikut (Platt, 1998): πΏ = max(0, πΌ2 β πΌ1 ) .................................................................................... (2.47) π» = min(πΆ, πΆ + πΌ2 β πΌ1 ) ............................................................................ (2.48) Jika sama maka berlaku persamaan berikut : πΏ = max(0, πΌ2 + πΌ1 β πΆ) ............................................................................ (2.49) π» = min(πΆ, πΌ2 + πΌ1 ) .................................................................................. (2.50) Turunan kedua fungsi objektif sepanjang garis diagonal dapat dinyatakan sebagai berikut (Platt, 1998) : π = 2β©π₯1 , π₯ 2 βͺ β β©π₯1 , π₯1 βͺ β β©π₯ 2 , π₯ 2 βͺ ............................................................... (2.51) Untuk menghitung πΌ2 dapat dilakukan sebagai berikut (Platt, 1998): πΌ2 πππ€ = πΌ2 β
π¦ 2 (πΈ1 βπΈ2 ) π
................................................................................ (2.52)
E merupakan error training yang dapat dihitung sebagai berikut : π π π π πΈπ = βπ π=1(πΌπ π¦ β©π₯ , π₯ βͺ) + π β π¦ ................................................................ (2.53)
Setelah itu dapat dihitung πΌ1 sebagai berikut : πΌ1 = πΌ1 + π¦1 π¦ 2 (πΌ2 πππ β πΌ2 πππ€, πππππππ) .................................................. (2.54) Dimana πΌ2 πππ€, πππππππ didapat dengan persamaan berikut : π», ππ πΌ2 πππ€ β₯ π» πΌ2 πππ€, πππππππ = {πΌ2 πππ€, ππ πΏ < πΌ2 πππ€ < π» ......................................... (2.55) πΏ, ππ πΌ2 πππ€ β€ πΏ Sedangkan untuk bias yang baru bisa didapatkan dengan persamaan berikut : π1 = π β πΈ1 β π¦1 (πΌ1 β πΌ1 πππ )β©π₯1 , π₯1 βͺ β π¦ 2 (πΌ2 β πΌ2 πππ )β©π₯1 , π₯ 2 βͺ ............. (2.56) π2 = π β πΈ2 β π¦ 1 (πΌ1 β πΌ1 πππ )β©π₯1 , π₯ 2 βͺ β π¦ 2 (πΌ2 β πΌ2 πππ )β©π₯ 2 , π₯ 2 βͺ ............ (2.57) π = π1, 0 < πΌ1 < πΆ π = {π = π2, 0 < πΌ2 < πΆ ............................................................................ (2.58) π1 +π2 2
21
πΎππ‘πππππππ βΆ π
βΆ ππ’πππ π ππππππ‘ππ£π
πΌ
βΆ ππππππππ ππ’ππ‘ππππππ
π
βΆ ππππ
πΈ
βΆ πππππ
2.1.6
BDT (Binary Decsision Tree) Pohon biner merupakan pohon yang terdiri atas sebuah akar yang setiap
vertex memiliki maksimal 2 anak, yakni anak sebelah kiri maupun kanan. Berikut aturan mengenai pohon biner : 1. Jika T adalah pohon biner penuh dengan i simpul internal, maka T memiliki i + 1 simpul terminal dan 2i + 1 jumlah simpul. Berikut adalah contoh binary tree :
Gambar 2. 8 BDT Pohon biner diatas merupakan pohon yang digunakan untuk menyimpan setiap proses SVM dalam node tree, yang mana pada gambar 2.7 root tree diatas membagi kelas 1,2,3,4,5 menjadi dua kelas yang dimisalkan dengan kelas + dan - sehingga pada setiap node pada tree dapat dilakukan proses pelatihan SVM secara rekursif sampai semua data telah terbagi sesuai kelasnya masing-masing. 2.1.7
Random Subsampling Metode random subsampling melakukan metode hold-out beberapa kali
(misalkan k kali) untuk meningkatkan perkiraan kinerja classifier. Metode hold out merupakan metode yang memecah set data menjadi dua yakni data latih untuk
22
training dan data uji untuk testing dengan proporsi tertentu. Andaikan ππππ menyatakan akurasi model pada iterasi ke-i. Akurasi keseluruhan dapat ditunjukan oleh formula berikut (Prasetyo, 2014): 1
ππππ π’π = π βππ=1 ππππ ....................................................................................... (2.59)