5
BAB II TINJAUAN PUSTAKA
2.1. Klasifikasi Klasifikasi adalah tugas pembelajaran yang memetakan setiap himpunan atribut x ke salah satu label kelas y yang telah didefinisikan sebelumnya. Klasifikasi dapat dipandang sebagai kotak hitam yang secara otomatis memberikan sebuah label ketika dipresentasikan dengan himpunan atribut dari record yang tidak diketahui. Beberapa teknik klasifikasi yang digunakan adalah k-nearest neighbor (KNN) dan Jaringan Syaraf Tiruan (JST). Setiap teknik menggunakan algoritme pembelajaran untuk mengidentifikasi model yang memberikan hubungan yang paling sesuai antara himpunan atribut dan label kelas dari data input. Pendekatan umum yang digunakan dalam masal ah klasifikasi adalah data latih yang berisi record yang mempunyai label kelas ya ng diketahui. Data latih digunakan untuk membangun model klasifikasi untuk diaplikasikan pada data uji yang berisi record dengan label kelas yang tidak diketahui (Duda 1995).
2.1.1. K-Nearest Neighbor K-Nearest Neighbor merupakan salah satu metode yang dig unakan dalam klasifikasi. Prinsip kerja KNN adalah mengelompokkan data baru berdasarkan jarak ke beberapa data k tetangga terdekat (neighbor) dalam data pelatihan (Hanselman 1998). Nilai k yang terbaik untuk algo ritme ini tergantung pada data, secara umum nilai k yang tinggi akan mengurangi efek noise pada klasifikasi, tetapi membuat batasan antara setiap klasifikasi menjadi lebih kabur. Teknik cross validasi digunakan untuk mencari nilai k yang optimal dalam mencari parame ter terbaik dalam sebuah model. Jarak Euclidean menurut McAndrew (2004) digunakan untuk menghitung jarak antara dua vektor yang berfungsi menguji ukuran yang bisa digunakan sebagai interpretasi kedekatan jarak antara dua obyek yang direpresentasikan dalam persamaan (1).
6
∑
,
.................................................... (1)
dengan d(x,y) xi yi n
: : : :
jarak euclidean antara vektor x dan vektor y fitur ke i dari vektor x fitur ke i dari vektor y jumlah fitur pada vektor x dan y
Langkah-langkah untuk menghitung metode K -NN : 1. Menentukan parameter k (jumlah tetangga paling dekat). 2. Menghitung kuadrat jarak euclid ean (query instance) masing-masing obyek terhadap data sampel yang diberikan. 3. Mengurutkan objek-objek tersebut ke dalam kelompok yang mempunyai jarak euclidean terkecil. 4. Mengumpulkan kategori atau kelas Y (klasifikasi nearest neighbor). 5. Dengan menggunakan kategori atau kelas nearest neighbor yang paling mayoritas maka dapat dipredisikan nilai query instance yang telah dihitung. Konsep K-NN menggunakan fungsi jarak Euclidean, untuk menghindari perbedaan range nilai pada tiap atribut (fitur) maka perlu dilakukan transformasi. Transformasi digunakan untuk menyamakan skala fitur ke dalam sebuah range yang spesifik, misalnya -1 sampai 1 atau 0 sampai 1. Metode transformasi yang digunakan adalah Min Max Normalization yang menghasilkan transformasi linear pada fitur data asli guna menghasilk an range nilai yang sama (Han & Kamber 2001) seperti pada persamaan (2). _
_
_
...................... (2)
dengan V minA maxA new_min A new_max A
: : : : : :
nilai baru fitur hasil Min-Max Normalization nilai fitur yang akan ditransformasi nilai minimum dari field pada fitur yang sama nilai maksimum dari field pada fitur yang sama nilai minimum fitur yang diinginkan nilai maksimum fitur yang diinginkan
7
2.1.2. Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (JST) adalah representasi buatan cara berpikir manusia menggunakan komputer untuk meyelesaikan perhitungan melalui proses pembelajaran (Kusumadewi 2004). Syaraf tiruan menerima input atau masukan baik dari data yang dimasukkan atau dari output sel syaraf pada jaringan syaraf. JST memiliki arsitektur dan operasi yang diilhami dari pengetahuan tentang sel syaraf biologis di dalam otak, yang merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba menstimulasi proses pembelaj aran pada otak manusia tersebut (Hermawan 2006). Tiruan neuron dan jaringan syaraf tiruan adalah sebagai elemen pemroses yang dapat berfungsi seperti halnya sebuah neuron. Sebuah sinyal masukan a dikalikan dengan masing-masing penimbang yang bersesuaian w , kemudian dilakukan penjumlahan dari seluruh hasil perkalian tersebut dan keluaran yang dihasilkan dilakukan ke dalam fungsi aktivasi untuk mendapatkan tingkatan derajat sinyal keluarannya F (a,w ). Model tiruan sebuah neuron ditunjukkan pada Gambar 1.
Gambar 1 Model tiruan sebuah neuron (Kusumadewi 2004).
Gambar 1 menunjukkan sebuah neuron yang akan mengolah N input (X 1, X2,..., XN) dengan bobot yang dimiliki yaitu W 1, W2,..., W N dan bobot bias b, dengan rumus : a = ∑
Kemudian fungsi aktivasi F akan mengaktivasi a menjadi output jaringan y.
8
2.1.2.1. Metode Propagasi Balik (Backpropagation) Metode backpropagation yaitu metode pendekatan nilai hasil output JST terhadap nilai pembanding ( teacher pattern) yang diberikan dari luar sistem. Arsitektur JST backpropagation terdiri dari satu lapisan input, satu atau lebih lapisan tersembunyi dan satu lapisan output dan metode penentuan bobot menggunakan supervised training. Algoritme backpropagation menggunakan galat output untuk mengubah nilai bobot -bobotnya dalam arah mundur (backward). Untuk mendapatkan galat ini, tahap perambatan maju ( forward propagation) harus dikerjakan terlebih dahulu. Saat perambatan maju, neuronneuron
diaktifkan
dengan
menggunakan
fungsi
aktivasi
yang
dapat
dideferensiasikan misalnya fungsi sigmoid biner (logsig) , sigmoid bipolar (tansig), dan linear (purelin). Gambar 2 menunjukkan arsitektur jaringan backpropagation. Jaringan terdiri atas n neuron pada lapisan input, yaitu X 1, ...,Xn ; satu lapisan tersembunyi terdiri atas
p neuron, yaitu Z 1, ..., Zp. Bobot yang
menghubungkan lapisan input dengan neuron pertama pada lapisan tersembunyi adalah V11, Vi1, Vn1. Bobot yang menghubungkan lapisan tersembunyi dengan neuron pertama pada lapisan output adalah W 11, Wj1, Wp1.
Gambar 2 Arsitektur backpropagation dengan satu hidden layer (Fausett 1994).
9
Menurut Fausett (1994), algoritme pelatihan backpropagation adalah sebagai berikut : Langkah 0.
Inisialisasi bobot (biasanya digunakan nilai acak yang kecil)
Langkah 1.
Selama syarat henti salah, lakukan langkah 2 -9
Langkah 2.
Untuk setiap pasangan pelatihan (masukan dan target), lakukan 3 -8
Fase 1 : Propagasi maju. Langkah 3.
Setiap unit masukan (Xi,i=1,...,n) menerima sinyal masukan x i dan meneruskannya ke seluruh unit pada lapisan di atasnya ( hidden units).
Langkah 4.
Setiap unit tersembunyi ( Zj,j=1,...,p) menghitung total sinyal masukan terboboti n
z _ in j v0 j xi vij i 1
lalu menghitung sinyal keluarannya dengan fungsi aktivasi z j f ( z _ in j )
dan mengirimkan sinyal ini ke selur uh unit pada lapisan di atasnya (lapisan output) Langkah 5.
Setiap unit output (Yk,k=1,...,m) menghitung total sinyal masukan terboboti p
y _ in k w0 k x j w jk i 1
Lalu menghitung sinyal keluaran dengan fungsi aktivasi yk f ( y _ ink ) Fase 2: Propagasi mundur Langkah 6.
Setiap unit output (Yk,k=1,...,m) menerima sebuah pola terget yang sesuai
dengan
pola
masukan
pelatihannya.
Unit
tersebut
menghitung informasi kesalahan (t k yk ) f ' ( y _ ink ) Kemudian menghitung koreksi bobot (digunakan untuk mengubah wjk nanti), w jk k z j dan menghitung koreksi bias w0 k k
10
serta mengirimkan nilai k ke unit lapisan di bawahnya Langkah 7.
Setiap unit tersembunyi (Zj,j=1,...,p) menghitung selisih input (dari unit-unit pada layer diatasnya) m
_ in j k w jk k 1
lalu mengalikannya dengan turunan fungsi aktivasi untuk menghitung informasi error. j _ in j f ' ( z __ in j )
selanjutnya menghitung koreksi bobot untuk mengubah vij nanti vij j xi
dan menghitung koreksi biasnya v0 j j Fase 3: Perubahan bobot. Langkah 8.
Setiap unit output (Yk,k=1,...,m) mengubah bias dan bobotbobotnya (j=0,...,p) : w jk ( new ) w jk ( old ) w jk setiap unit tersembunyi (Zj,j=1,...,p) mengubah bias dan bobot bobotnya (i=1,...,n) : v ij ( new ) v ij ( old ) v ij
Langkah 9.
Uji syarat henti : n
Jika besar total squared-error
(t k 1
k
y k ) 2 lebih kecil dari
toleransi yang telah ditentukan atau jumlah epoh pelatihan sudah mencapai epoh maksimum, maka selesai; jika tidak maka kembali ke langkah 1. Nilai toleransi ( ) yang digunakan adalah 0 1
11
2.1.2.2. Fungsi Aktivasi Fungsi aktivasi yang digunakan dalam pelatihan adalah fungsi yang dapa t dideferensiasikan (Fausett 1994) seperti fungsi sigmoid biner (logsig), sigmoid bipolar (tansig) dan fungsi linear (purelin).
a. Fungsi aktivasi sigmoid biner (logs ig) Fungsi ini memiliki range nilai antara 0 sampai 1 (Gambar 3) dan dirumuskan sebagai berikut : 1
1
dengan turunan 1
Gambar 3 Fungsi aktivasi sigmoid biner dengan range (0,1).
b. Fungsi aktivasi sigmoid bipolar (tansig) Fungsi ini memiliki range nilai antara -1 sampai 1 (Gambar 4), fungsi ini dirumuskan sebagai berikut : 1
2
dengan turunan
1
1 1 1 2 Fungsi ini sangat dekat dengan fungsi hyperbolic tangent (range -1 sampai 1) yang dirumuskan sebagai berikut : tanh
12
Gambar 4 Fungsi aktivasi sigmoid bipolar dengan range (-1,1).
c. Fungsi aktivasi linear (purelin) Fungsi aktivasi purelin akan menghitung nilai
output dari neuron dan
mengembalikan nilai tersebut menggunakan fungsi linier. Fungsi purelin dikenal juga dengan fungsi identitas, didefinisikan sebagai : y =f(x) = x, dimana f’(x) = 1. Fungsi purelin dapat dilihat pada Gambar 5.
Gambar 5 Fungsi aktivasi purelin. 2.1.2.3. Algoritme Pelatihan Lavenberg-Marquardt Algoritme Lavenberg-Marquardt (LM) menurut Fausett (1994) memiliki langkah untuk penentuan matriks Hessian yang berfungsi mencari bobot-bobot dan bias koneksi yang digunakan dalam pelatihan JST . Matriks Hessian merupakan turunan kedua dari fungsi kinerja terhadap setiap komponen bobot dan bias, matriks Hessian diubah menggunakan fungsi gradien dengan pendekatan iterative pada setiap epoch selama algoritme pelatihan berjalan. Matriks Hessian dapat diestimasi dengan persamaan
, jika fungsi kinerja yang
13
digunakan berbentuk jumlah kuadrat error (SSE), dengan η = parameter Marquardt, I = matriks identitas, J = matriks Jakobian yang terdiri dari turunan pertama error jaringan terhadap masing-masing komponen bobot dan bias. Matriks Jakobian tersusun dari turunan pertama fungsi error terhadap masing-masing komponen bobot dan bi as koneksi jaringan. Nilai parameter Marquardt (η) dapat berubah pada setiap epoch, jika satu epoch menghasilkan nilai fungsi error lebih kecil, nilai η akan dibagi oleh faktor τ. Bobot dan bias baru yang diperoleh akan dipertahankan dan pelatihan dapat dilanjutkan ke epoch berikutnya. Sebaliknya, jika setelah berjalan satu epoch nilai fungsi error menjadi lebih besar maka nilai η akan dikalikan factor τ. Nilai perubahan bobot dan bias dihitung kembali sehingga menghasilkan nilai yang baru. Algoritme pelatihan dengan metode Levenberg-Marquardt adalah sebagai berikut: Langkah 0 : Inisialisasi bobot awal dengan bilangan acak kecil Inisialisasi epoch 0, MSE
0
Tetapkan maksimum epoch parameter LM (η > 0), faktor τ dan target error. Langkah 1 : Jika kondisi penggentian belum terpenuhi ( epoch < maksimum epoch atau MSE > target error), lakukan langkah berikutnya. Langkah 2 : Epoch = epoch + 1 Untuk setiap data pelatihan, lakukan langkah 3 – 4. Langkah 3 : Unit/neuron output Y menerima target pola yang berhubungan dengan pola input pelatihan, jika diberikan N pasangan input data pelatihan (X r, tr), r = 1,2,…,N, dengan X r adalah input dan t r adalah target yang akan dicapai. Kesalahan pada suatu data pelatihan ke-r didefinisikan sebagai: er = tr - yr , dimana : er
: kesalahan pada unit output
tr
: keluaran yang diinginkan (target)
yr : keluaran aktual.
14
e adalah vektor kesalahan berukuran N x 1 yang tersusun dari er, r = 1,2,…,N. e dapat dituliskan sebagai:
…
.
Bobot dan bias koneksi dinyatakan dalam vektor w, w merupakan vektor berukuran ((2+n)p+1)x1 dapat dituliskan sebagai:
.
Kesalahan suatu pelatihan jaringan oleh vektor bobot dan bias koneksi w pada suatu data pelatihan ke-r menjadi: er(w) = (tr – yr) = (tr – f (xr, w) Vektor kesalahan oleh vektor bobot dan bias koneksi w menjadi e(w) berukuran Nx1 yang tersusun dari er(w), dengan r = 1,2,…,N. Hitung fungsi jumlah kuadrat error dengan persamaan:
Hitung matriks Jacobian untuk vektor bobot dan bias koneksi:
untuk r = 1,2,…N a.
Hitung matriks Hessian untuk vektor bobot dan bias koneksi.
b.
Hitung perubahan vektor bobot dan bias dengan persamaan berikut: ∆
c.
Hitung vektor bobot dan bias baru. ∆
d.
Hitung kesalahan yang terjadi oleh bobot dan bias koneksi yang baru.
e.
Bandingkan E(w) dengan E(w(baru)).
Jika E(w) <= E(w(baru)) maka didapatkan η = η x τ dan kembali ke langkah a.
Jika E(w) > E(w(baru)) maka didapatkan η = η ÷ τ ∆
Kembali ke langkah 2.
15
2.2. Ekstraksi Fitur Ekstraksi fitur bertujuan untuk mendapatkan fitur atau penciri dari suatu citra yang berfungsi sebagai input bagi K-NN dan JST. Dua teknik ekstraksi fitur yang digunakan dalam penelitian ini . Pertama berdasarkan citra berwarna dengan unsur R,G,B dan citra skala keabuan dengan unsur entropi, energi, kontras, homogenitas yang dikenal dengan analisis tekstur ( Haralick et al. 1973), standar deviasi dan level keabuan. Kedua menggunakan ekstraksi fitur dekomposisi wavelet.
2.2.1. Citra RGB dan Skala Keabuan Citra RGB dan skala keabuan adalah format warna pada citra digital. RGB merupakan sebuah model warna yang biasa digunakan pada monitor komputer dan televisi. Citra warna RGB memiliki kombinasi warna red, blue, dan green di setiap pikselnya. Setiap komponen RGB memiliki intensitas dengan nilai minimal 0 dan maksimal 255 (8 bit). Setiap piksel pada citra RGB membutuhkan 3 byte untuk media penyimpanan, sehingga kemungkinan jumlah kombinasi citra RGB adalah lebih dari 16 juta warna (McAndrew 2004). Gambar 6 merupakan contoh citra RGB dan representasinya dalam citra digital .
Gambar 6 Contoh representasi citra RGB (McAndrew 2004).
16
Citra skala keabuan (grayscale) memiliki warna abu-abu diantara warna minimum (hitam) dan warna maksimum (putih) atau intensitas terletak diantara 0 dan 1. Jumlah maksimum warna terdiri dari 4 bit atau 8 bit. Citra dengan skala keabuan 4-bit memiliki 16 kemungkinan warna, yaitu 0 hingga 15 . Citra digital dengan skala keabuan 8-bit memliki 256 kemungkinan warna, yaitu 0 hingga 255 (McAndrew 2004). Gambar 7 menunjukkan contoh citra grayscale dan representasi dalam citra digital .
Gambar 7 Contoh representasi citra grayscale (McAndrew 2004).
Transformasi citra warna menjadi citra grayscale menurut Wu et al. (2007) seperti pada persamaan (3) berikut ini :
gray = 0,2989 *R + 0,5870 * G + 0,1140 * B ........................... (3)
dengan R, G, dan B menunjukkan komponen nilai red, green, dan blue pada citra. Contoh perhitungan transformasi citra warna menjadi citra grayscale ditunjukkan pada Gambar 8.
17
Grayscale = (0,2989*50+0,5870*65+0,1140*50)
R = 50
R = 40
R = 90
R = 80
G = 65
G = 40
G = 90
G = 50
B = 50
B = 55
B = 90
B = 50
R = 40
R = 50
R = 40
R = 20
G = 80
G = 80
G = 90
G = 20
B = 30
B = 50
B = 80
B = 50
R = 80
R = 70
R = 80
R = 10
G = 60
G = 70
G = 90
G = 70
B = 40
B = 70
B = 70
B = 10
Citra warna
58,80 41,71 89,99 58,96
62,34 67,61 73,91 23,42
63,69 69,99 84,72 45,22 Citra Grayscale
Gambar 8 Contoh perhitungan transformasi citra digital .
2.2.2. Analisis Tekstur Tekstur merupakan karakteristik yang dimiliki suatu objek yang secara alami terjadi sifat perulangan sehingga terjadi keteraturan pola tertentu yang terbentuk dari sekumpulan piksel-piksel dengan jarak dan arah tertentu. Kegunaan analisis tekstur di antaranya untuk mengklasifikasikan objek berdasarkan perhitungan fitur tekstur, di antaranya entropi, energi, kontras, homogenitas (Haralick et al. 1973). Matriks yang menggambarka n frekuensi munculnya pasangan piksel dengan intensitas dan arah tertentu disebut matriks intensitas co-occurrence. Misalnya terdapat matriks P dengan ukuran citra 4 x 5 dengan intensitas 1 – 8, maka matriks intensitas co-occurrence P0,1 dengan ukuran 8 x 8 untuk pasangan pixel yang berjarak 1 dengan sudut 0 derajat ditunjukkan pada Gambar 9 (Haralick et al. 1973).
Gambar 9 Contoh matriks intensitas co-occurrence.
18
Sebuah citra memiliki penyebaran piksel secara acak tanpa struktur yang tetap yang menyebabkan matriks intensitas co-occurrence tidak akan mempunyai pasangan dengan pola tertentu. Fitur yang berfungsi untuk mengukur keteracakan dari distribusi intensitas tersebut yaitu entropi. Fitur yang berfungsi untuk mengukur konsentrasi pasangan intensitas adalah energi. Fitur yang digunakan untuk mengukur kekuatan perbedaan intensitas adalah kontras. Fitur homogenitas berfungsi untuk mengukur tingkat homogen variasi intensitas (Ahmad 2005). Persamaan dari fitur tersebut adalah sebagai berikut : ∑ ∑
Entropi =
Energi = ∑ ∑
Kontras = ∑ ∑
,
Homogenitas = ∑ ∑
,
,
.................. (4)
......................................... (5)
|
.
,
|
....................... (6)
................................ (7)
dengan p(i1, i2) i1 i2
: pasangan matriks intensitas co-occurrence : menunjukkan baris : menunjukkan kolom.
2.2.3. Discrete Wavelet Transform (DWT) Transformasi wavelet dilakukan penyaringan data menjadi low pass dan high pass. Low pass merepresentasikan bagian penting dari data dalam resolusi yang rendah, sedangkan
high pass menyatakan detail dari data yang
ditransformasikan. Citra akan dilakukan DWT dua dimensi, yaitu DWT terhadap baris (horizontal), dan terhadap kolom (vertikal). Satu tahapan DWT dua dimensi akan menghasilkan empat buah kuadran, yaitu LL, HL, LH, dan HH. LL adalah sub-kelompok low dari hasil transformasi pada baris dan kolom. HL adalah sub-kelompok high dari hasil transformasi pada baris, dan sub kelompok low dari transformasi kolomnya. LH adalah sub-kelompok low dari hasil
transformasi
pada
baris,
dan
sub -kelompok
high
dari
19
transformasi kolomnya. HH adalah sub-kelompok high dari hasil transformasi baris dan kolom. Wavelet merupakan suatu teknik yang dapat menghasilkan ekstraksi fitur dari suatu citra. Proses transformasi pada sebuah citra didekomposisi kan menjadi 4 sub bagian citra (sub -image) baru. Setiap sub-image berukuran ¼ kali dari citra semula. Hasil dari 3 sub-image yaitu posisi kanan atas, bawah kiri, dan bawah kanan berisi komponen frekuensi tinggi dari citra asli. Sub -image dengan posisi kiri atas akan tampak seperti citra asli, karena berisi komponen frekuensi rendah. Proses dekomposisi dapat diulang sampai level transformasi yang diinginkan (Putra 2009). Proses dekomposisi sampai level 3 seperti pada Gambar 10.
(a)
(b)
(c)
Gambar 10 Proses dekomposisi level 1 (a), level 2 (b), level 3 (c).
2.2.3.1. Dekomposisi Perataan dan Pengurangan Proses dekomposisi wavelet memiliki dekomposisi perataan (p1) dan pengurangan (p2) menurut Putra (2010) dengan rumus pada persamaan (8) dan (9) , ,
, ,
............................................................. (8) ............................................................. (9)
dengan xi,j : menunjukkan nilai piksel pada baris ke -i dan kolom ke-j xi,j+1 : menunjukkan nilai piksel pada baris ke -i dan kolom ke-j+1 Gambar 11 menunjukkan contoh dekomposisi perata an dan pengurangan pada citra satu dimensi (Putra 2010).
20
37
35
28
28
58
18
21
15
level 1 Perataan 36
Pengurangan
28
38
18
1
0
20
3 level 2
Perataan
Pengurangan
32
28
4
10 level 3
Perataan
Pengurangan 2
30
Gambar 11 Proses perataan dan pengurangan dekomposisi penuh 3 level .
Dekomposisi perataan dan pengurangan pada citra dua dimensi dilakukan dalam dua tahap, yaitu dekomposisi seluruh baris dan dilanjutkan dengan dekomposisi seluruh kolom. Ilustrasi proses dekomposisi ditunjukkan pada Gambar 12.
perataan dan pengurangan baris
perataan dan pengurangan kolom
10
10
20
20
10
20
0
0
10
20
0
0
10
10
20
20
10
20
0
0
50
30
0
0
50
50
30
30
50
30
0
0
0
0
0
0
50
50
30
30
50
30
0
0
0
0
0
0
(a)
(b)
(c)
Gambar 12 Hasil dekomposisi pada citra 2 dimensi , citra asli (a), hasil dekomposisi arah baris (b), hasil dekomposisi arah kolom (c).
21
2.3. Anatomi Stomata Karakter anatomi stomata yang diamati adalah bentuk, kerapatan stomata, panjang, lebar dan jumlah sel penjaga stomata, ukuran sel epidermis, luas serta indeks stomata. Data ukuran sel epidermis, kerapatan stomata dan indeks stomata yang diperoleh merupakan nilai rata -rata dari pengukuran per bidang pandang. Indeks Stomata (IS) dan kerapatan dihitung berdasarkan persamaan (10) dan (11) sebagai berikut (Willmer 1983) 100 ........................................................ (10)
.................................................. ... (11)
dengan S : jumlah stomata E : jumlah epidermis L : satuan luas daun Detail bagian anatomi stomata dan c ontoh pengukuran panjang dan lebar sel stomata ditunjukkan pada Gambar 13 dan Gambar 14.
Gambar 13 Detail bagian anatomi stomata (Pasaribu 2010).
Gambar 14 Cara pengukuran panjang dan lebar sel stomata dengan a = panjang sel penjaga; b = lebar sel penjaga (Damayanti 2007).
22
2.4. Freycinetia Freycinetia merupakan jenis dari kelompok suku Pandanaceae dikenal dengan nama pandan hutan yang tergolong tumbuhan pemanjat. Habitat tersebar pada hutan primer, hutan sekunder dengan tanah berhumus dan ketinggian di bawah 1000 meter di atas permukaan laut (Pasaribu 2010). Kegunaan Freycinetia adalah sebagai makanan pengganti, tongkol bunganya dikukus untuk dapat dimakan (Brink & Escobin 2003), beberapa jenis berfungsi sebagai tanaman hias (Dahlgren et al. 1985), tongkol bunga digunakan sebagai pewarna pada minuman tradisional Cina, bunga Freycinetia dapat digunakan sebagai pengharum pakaian, daunnya dapat digunakan sebagai campuran untuk membuat minyak wangi dan
minyak gosok untuk penyakit
rematik, daunnya dapat dipakai sebagai bahan baku unt uk pembuatan tikar. Kegunaan lain pandan hutan antara lain sebagai bahan pangan, penyedap masakan, bahan kerajinan, ritual, dan obat tradisi onal (Heyne, 1987). Freycinetia juga digunakan sebagai tanaman hias di New Zealand. Akar penunjang
jenis
Freycinetia javanica dapat diolah menjadi bahan baku pembuat tali, sedangkan tongkol bunganya dapat menjadi bahan makanan di Pasifik Utara.