BAB 2 TINJAUAN PUSTAKA 2.1 Pendahuluan Sebelum melakukan pembahasan mengenai permasalahan dalam skripsi, dalam bab ini akan dijelaskan beberapa teori penunjang yang dapat membantu dalam penulisan skripsi. Teori penunjang tersebut antara lain : Analisis deret waktu (time series), stasioner dan non-stasioner, Pengujian kestasioneran data deret waktu, differencing, Autocorrelation Function/Fungsi Autokorealsi (ACF), Partial Autocorrelation Function/Fungsi Autokorelasi Parsial (PACF), proses White Noise, uji normalitas, model Autoregressive Integrated Moving Average (ARIMA), proses Pemodelan Autoregressive Integrated Moving Average (ARIMA) dan Artificial Neural Network (ANN). 2.2 Analisis Deret Waktu (Time Series) Time series atau runtun waktu adalah himpunan observasi data terurut dalam waktu (Hanke&Winchern, 2005). Metode time series adalah metode peramalan dengan menggunakan analisa pola hubungan antara variabel yang akan dipekirakan dengan variabel waktu. Peramalan suatu data time series perlu memperhatikan tipe atau pola data. Secara umum terdapat empat macam pola data time series, yaitu horizontal, trend, musiman, dan siklis (Hanke dan Wichren, 2005). Pola horizontal merupakan kejadian yang tidak terduga dan bersifat acak, tetapi kemunculannya dapat mempengaruhi fluktuasi data time series. Pola trend merupakan kecenderungan arah data dalam jangka panjang, dapat berupa
8
repository.unisba.ac.id
9
kenaikan maupun penurunan. Pola musiman merupakan fluktuasi dari data yang terjadi secara periodik dalam kurun waktu satu tahun, seperti triwulan, kuartalan, bulanan, mingguan, atau harian. Sedangkan pola siklis merupakan fluktuasi dari data untuk waktu yang lebih dari satu tahun. Time series adalah catatan dari nilai-nilai yang diamati dari sebuah proses atau fenomena yang diambil secara berturut-turut dari waktu ke waktu. Nilai-nilai yang diamati tersebut dapat bersifat deterministik (dapat dijelaskan secara eksplisit dengan rumus matematika) ataupun non-deterministik (tidak dapat dinyatakan dengan rumus matematika) atau data acak. Proses-proses yang sifatnya non-deterministik disebut sebagai stokastik dimana nilai-nilai yang diamati, dimodelkan sebagai urutan variabel-variabel acak. secara formal : Proses stokastik
adalah sekumpulan variabel acak dimana T
adalah indeks yang ditetapkan untuk semua variabel acak
,
didefenisikan pada sampel yang sama. Apabila indeks yang ditepakan T menunjukan waktu, maka proses stokastik disebut sebagai time series. Time series pada umumnya dapat diklasifikasi menjadi dua yaitu stasioner dan non-stasioner. Secara sederhana, suatu deret pengamatan dikatakan stasioner apabila proses tidak berubah seiring dengan adanya perubahan time series. Jika suatu time series Xt stasioner maka nilai tengah (mean), varian dan kovarian deret tersebut tidak dipengaruhi oleh berubahnya waktu pengamatan, sehingga proses berada dalam keseimbangan statistik (Soejoeti, 1987). Sebaliknya, untuk time series non-stasioner rata-rata, variansi atau keduanya akan berubah pada lintasan time series tersebut. Time series stasioner memiliki keunggulan dari representasi
repository.unisba.ac.id
10
oleh model-model analitis terhadap ralaman-ramalan yang dihasilkan. Modelmodel non-stasioner melalui proses defferencing dapat diubah menjadi time series stasioner dengan demikian analisis yang diterapkan sebagai proses stasioner. 2.3 Stasioner dan Non-stasioner Time series stasioner terkait dengan konsistensi pergerakan data time series. Suatu data time series dikatakan non-stasioner bila nilai rata-rata dan variansinya bervariasi sepanjang waktu atau dengan kata lain data dikatakan stasioner bila data bergerak stabil dan konvergen sekitar nilai rata-ratanya tanpa mengalami fluktuasi pergerakan trend positif maupun negatif. Kestasioneran data haruslah memenuhi asumsi homoskedastis dan tidak adanya autokorelasi. Properti data stasioner adalah sebagai berikut : 1. Mean
:
2. Varians
:
3. Kovarians
:
4. Distribusi {X
bersama
(konstan)
(tidak tergantung t) adalah
X untuk setiap
identik
dengan
.
Stasioneritas berarti tidak terjadinya pertumbuhan dan penurunan data. Suatu data dapat dikatakan stasioner apabila pola data tersebut berada pada kesetimbangan disekitar nilai rata-rata yang konstan dan variansi disekitar ratarata tersebut konstan selama waktu tertentu (Makridakis, 1999). Time series dikatakan stasioner apabila tidak ada unsur trend dalam data dan tidak ada unsur musiman atau rata-rata dan variannya tetap, seperti pada Gambar 2.1.
repository.unisba.ac.id
11
Gambar 2.1. Plot time series data stasioner dalam rata-rata dan variansi 2.4 Pengujian Kestasioneran Data Deret Waktu 2.4.1 Secara Visual Untuk menelaah ketidak-stasioneran data secara visual, tahap pertama dapat dilakukan pada peta data atas waktu, karena biasanya “mudah”, dan jika belum mendapatkan kejelasan, maka tahap berikutnya ditelaah pada gambar ACF dan PACF. 1. Analisis Grafik Data deret waktu diplot, dimana sumbuh datar adalah waktu dan sumbuh tegak nilai dari data. Jika plot data untuk setiap periode waktu meningkat dan menurun membentuk suatu trend maka data deret tersebut non-stasioner.
repository.unisba.ac.id
12
Gambar 2.2 Plot data tidak stasioner Pada gambar 2.2 di atas pola dapat memperlihatkan peningkatan setiap periodenya atau terdapat trend naik, menunjukan terdapat perubahan dalam ratarata, sehingga pola dikatakan non-stasioner. Sedangkan pada gambar 2.1 di atas, pola setiap periode memberikan rata-rata yang tidak berbeda memperlihatkan pola yang stasioner. 2. Korelogram Nilai-nilai Autokorelasi Menurut (Yanti, 2010), salah satu test kestasioneran yang sederhana didasarkan pada autocorrelation function (ACF). ACF lag ke-k dinotasikan ρk, yaitu : ...(2.1) dimana ...(2.2) nilai
ditaksir oleh rk
repository.unisba.ac.id
13
Telaahan pada gambar ACF adalah : a. Jika data stasioner maka gambarnya akan membangun pola yaitu nilainilai autokorelasi pada correlogram akan turun sampai nol mulai time-lag kedua atau ketiga. b. Jika data tidak stasioner maka gambar dari ACF akan membangun pola,
Menurun secara perlahan, jika data tidak stasioner dalam rata-rata hitung (trend naik atau turun). Data yang tidak stasioner maka nilai-nilai autokorelasi tersebut berbeda signifikan dari nol.
Gambar 2.3 Plot ACF non-stasioner dalam rata-rata
Alternating, jika data tidak stasioner dalam varians
Gelombang, jika data tidak stasioner dalam rata-rata dan varians. Terlihat pada gambar
repository.unisba.ac.id
14
Gambar 2.4 Plot ACF non-stasioner dalam Rata-rata dan Varians 2.4.2 ADF Test Perilaku data stasioner mengindikasikan bahwa data tersebut memiliki rata-rata, varians dan kovarians setiap saat sama, tidak menjadi persoalan di titik yang mana mereka diukurnya (Yanti, 2010), artinya data tersebut stabil atau mencapai keseimbangan dalam jangka panjang sehingga dari model yang digunakan untuk meramalkan periode yang akan datang menjadi sahih. Uji stasioner yang akan digunakan adalah Uji Akar Unit. (Yanti, 2010) Uji Akar Unit merupakan salah satu konsep yang akhir-akhir ini makin populer dipakai untuk menguji kestasioneran data time series. Uji ini dikembangkan oleh Dickey dan Fuller, dengan menggunakan Augmented Dickey Fuller Test (ADF). Terdapat tiga kemungkinan dimana ADF test ditaksir dari tiga bentuk persamaan yang berbeda, yaitu :
repository.unisba.ac.id
15
Data level : tanpa Intersep
...(2.3)
: Intersep
...(2.4)
: Intersep dan trend
...(2.5)
Langkah-langkah pengujiannya adalah sebagai berikut : 1) Menguji variabel dengan ADF test
Hipotesis yang digunakan adalah : H0 : δ = 0 (non stasioner), melawan H1 : δ < 0 (stasioner)
Statistik uji yang digunakan adalah
Tolak H0 jika τ hasil perhitungan lebih besar dari τ tabel atau jika probabilitas hasil perhitungan lebih kecil dari derajat kepercayaan yang kita inginkan. Perhitungan prosedur di atas menggunakan perangkat software Eviews
2) Bila variabel yang kita uji ternyata tidak stasioner maka data dilakukan differencing atau pembedaan, kemudian dilakukan pengujian terhadap data tersebut seperti langkah 1). 2.5 Metode Pembedaan (Differencing) Differencing (pembedaan) dilakukan untuk menstasionerkan data nonstasioner. Operator shift mundur (backward shift) sangat tepat untuk menggambarkan proses differencing (Makridakis, 1999). Notasi yang sangat bermanfaat dalam metode pembedaan adalah operator shift mundur (backward shift) disimbolkan dengan B sebagai berikut :
repository.unisba.ac.id
16
...(2.6) Dengan
: nilai variabel X pada waktu t : nilai variabel X pada waktu t-1 B
: backward shift
Pada persamaan (2.6) diatas, notasi B yang dipasang pada
memiliki
efek menggeser data satu periode ke belakang. Sedangkan dua aplikasi dari B terhadap
akan menggeser data tersebut dua periode ke belakang, sebagai
berikut : ...(2.7) Apabila suatu time series non-stasioner, maka data tersebut dapat dibuat lebih mendekati stasioner dengan melakukan pembedaan pertama. Operator ini memedahkan proses diferensiasi. Deffersiasi pertama/turunan tingkat satu dapat dituliskan sebagai berikut : =
...(2.8)
Menggunakan operator shift mundur, persamaan (2.8) dapat ditulis kembali menjadi (Makridakis, 1995) : =
...(2.9)
Pembedaan pertama dinyatakan oleh (1-B) sama halnya apabila perbedaan orde kedua (yaitu perbedaan pertama dari perbedaan pertama sebelumnya) harus dihitung, maka pembedaan orde kedua :
repository.unisba.ac.id
17
... (2.10) Pembedaan orde kedua diberi notasi (1-B)2. Pembedaan orde kedua tidak sama dengan pembedaan kedua yang diberi notasi 1-B2. Sedangkan pembedaan pertama (1-B) sama dengan pembedaan orde pertama (1-B). Pembedaan kedua Tujuan dari menghitung pembedaan adalah mencapai stasioneritas dan secara umum apabila terdapat pembedaan orde ke-d untuk mencapai stasioneritas, ditulias sebagai berikut : Pembedaan orde ke-d ...(2.11) 2.6 Autocorrelation Function/Fungsi Autokorealsi (ACF) Pada proses stasioner suatu data time series variansi
,
yang
diperoleh konstan
dan
, fungsinya hanya pada pembedaan waktu itu, hasil tersebut dapat ditulis sebagai kovariansi antara
dan kovariansi . Oleh karena
dan
sebagai
berikut (Wei, 1989) : ...(2.12) ...(2.13) Autokorelasi merupakan korelasi atau hubungan antar data pengamatan suatu data time series. Menurut Wei (2006), koefisien autokorelasi untuk lag–k dari data runtun waktu dinyatakan sebagai berikut:
repository.unisba.ac.id
18
...(2.14)
Dengan : = rata-rata = autokovariansi pada lag-k = autokorelasi pada lag-k t
= waktu pengamatan, t = 1,2,3,...
Dimana notasi
. Sebagai fungsi k, maka
disebut fungsi autokorelasi dan analisis time series, dan
dan
menggambarkan kovariansi (ACF), dalam
menggambarkan kovarian dan korelasi antara
dari proses yang sama, hanya dipisahkan oleh lag ke-k. Dengan menggunakan asumsi-asumsi diatas, maka taksiran parameter
diatas dapat disederhanakan menjadi : ...(2.15) Dengan : = koefisien autokorelasi pada lag-k k
= selisih waktu
n
= jumlah observasi = rata-rata dari pengamatan = pengamatan pada waktu ke-t = pengamatan pada waktu ke t+k, k=1,2,3,...
repository.unisba.ac.id
19
Untuk mengetahui apakah koefisien autokorelasi signifikan atau tidak, perlu dilakukan uji. Pengujian dapat dilakukan hipotesis : H0 :
= 0 (koefisien autokorelasi tidak signifikan)
H1 :
≠ 0 (koefisien autokorelasi signifikan)
Statistik uji yang digunakan adalah : dengan
. .
Kriteria uji keputusan H0 ditolak jika
2.7 Partial Autocorrelation Function/Fungsi Autokorelasi Parsial (PACF) Autokorelasi parsial merupakan korelasi antara mengabaikan
ketidakbebasan
.
digunakan untuk mengukur derajat asosiasi antara
dan
dan
dengan
Autokorelasi
parsial
, ketika efek dari
rentang/jangka waktu (time lag) 1,2,3,...,k-1 dianggap terpisah. Ada beberapa prosedur untuk menentukan bentuk PACF yang salah satunya akan dijelaskan sebagai berikut. Menurut (Wei, 1989) fungsi autokorelasi parsial dapat dinotasikan dengan : ... (2.16) Misalkan
adalah proses yang stasioner dengan
, selanjutnya
dapat dinyatakan sebagai proses linier : ...(2.17) Dengan
adalah parameter regresi ke-i dan
yang tidak berkorelasi dengan
adalah nilai kesalahan
untuk j=1,2,...,k. Dengan mengalikan
repository.unisba.ac.id
20
pada kedua ruas persaman (2.18) dan menghitung nilai nol harapannya (expected value), diperoleh :
...(2.18) dan
untuk j=1,2,...k, diperoleh sistem persamaan berikut :
dengan menggunakan aturan Cramer, berturut–turut k=1,2,...,n diperoleh
repository.unisba.ac.id
21
Karena
merupakan fungsi atas k, maka
disebut fungsi
autokorelasi parsial. Hipotesis untuk menguji koefisien autokorelasi parsial sebagai berikut : H0 :
=0
H1 :
0
Statistik uji yang digunakan : uji : tolak H0 jika
dengan
. Kriteria
, dengan derajat bebas df=n-1, n adalah
banyaknya data (Wei, 2006). 2.8 Proses White Noise Suatu proses {εt} disebut white noise jika merupakan barisan variabel acak yang tidak berkorelasi dengan rata-rata E(εt) = 0, varians konstan Var(εt) = Oleh karena itu, suatu proses white noise {εt} adalah stasioner dengan fungsi autokovariansi (Wei, 2006).
Proses white noise dengan fungsi autokorelasi sebagai berikut :
repository.unisba.ac.id
22
Sedangkan, proses white noise dengan fungsi autokorelasi parsial sebagai berikut :
Langkah-langka pengujian white noise : 0 (residu memenuhi proses white noise) (residu tidak memenuhi proses white noise) Statistik uji yang digunakan yaitu uji Ljung Box-pierce. Rumus uji Ljung-Box atau Box-pierce (Wei,2006) : ...(2.19) dengan n
= banyaknya observasi dalam runtun waktu
k
= banyaknya lag yang diuji = nilai koefisien autokorelasi pada lag-k
Kriteria uji : H0 ditolak jika Q > value <
tabel
dengan derajat bebas (db) = k - p atau p-
dengan p adalah banyaknya parameter. Selain itu, autokorelasi residual dapat dilihat dari plot ACF residual.
Apabila tidak ada lag yang keluar dari garis signifikansi, maka dapat dikatakan bahwa tidak ada autokorelasi. 2.9 Uji Normalitas Residu Uji normalitas residu dilakukan untuk mengetahui apakah galat berdistribusi normal atau tidak. Pengujian dapat dilakukan dengan analisis grafik normal probability plot. Jika residu berada di sekitar garis diagonal maka galat
repository.unisba.ac.id
23
berdistribusi normal. Sebaliknya, jika residu tidak berdistribusi normal, maka residu akan menyebar seperti pada gambar berikut ini.
Gambar 2.5 Grafik normal probability plot 2.10 Model Autoregressive Integrated Moving Average (ARIMA) Model Autoregressive Integrated Moving Average (ARIMA) merupakan model ARMA non-stasioner yang telah di differencing sehingga menjadi model stasioner. Ada beberapa model ARIMA yang dapat digunakan pada data time series, yaitu: 2.10.1 Model Autoregressive (AR) Autoregressive
adalah
suatu
bentuk
regresi
tetapi
bukan
yang
menghubungkan variabel tak bebas, melainkan menghubungkan nilai-nilai sebelumnya pada time lag (selang waktu) yang bermacam-macam. Jadi suatu model Autoregressive akan menyatakan suatu ramalan sebagai fungsi nilai-nilai sebelumnya dari time series tertentu (Makridakis, 1995).
repository.unisba.ac.id
24
Model Autogressive (AR) dengan order p dinotasikan dengan AR (p). Bentuk umum model AR(p) adalah: ...(2.20) Dengan : = nilai variabel pada waktu ke-t = nilai masa lalu dari time series yang bersangkutan pada waktu t. = koefisien regresi = nilai error pada waktu ke-t p
= orde AR
Persamaan (2.21) dapat ditulis dengan menggunakan operator B (back shift) : ...(2.21) dengan mengalikan kedua ruas pada persamaan (2.16) dengan
dan
berdasarkan rumus (2.13) maka diperoleh : ...(2.22) karena,
=
dan
=
, maka k=0 diperoleh dari : ...(2.23)
yang merupakan variansi dari autoregressive. Proses AR (p) terjadi jika terdapat parameter tidak nol berbeda secara signifikan dengan nol, sedangkan
yang bernilai (tidak berbeda
secara nyata dengan nol) untuk k > p.
repository.unisba.ac.id
25
Orde AR yang sering digunakan dalam analisis time series adalah p=1 atau p=2, yaitu model AR(1) dan AR(2). a. Model AR(1) Bentuk umum model AR(1) adalah : ...(2.24) independen dengan
Karena
Atau (
, maka variansinya adalah :
dan supaya
haruslah
berhingga dan tidak negatif, maka
. Ketidaksamaan inilah yang merupakan syarat agar runtun
waktunya stasioner. Dengan mengambil nilai harapan dari persamaan umum AR(1) diatas maka diperoleh : ...(2.25) Fungsi autokorelasinya adalah dan
yang menjamin bahwa
independen. Persamaan tersebut merupakan persamaan differensi
derajat satu yang mempunyai penyelesaian
Fungsi autokorelasi parsial dari AR(1) adalah dan untuk k > 1, maka
dan untuk
maka
untuk k=1
Persamaan (2.23) dapat ditulis dengan operator
back shift (B), menjadi : ...(2.26)
repository.unisba.ac.id
26
b. Model AR(2) Bentuk umum model Autoregressive orde 2 atau AR(2), yaitu : ...(2.27) Dengan mengambil ekspektasi dari persamaan (2.28), maka diperoleh :
Untuk stasioneritas dapat disimpulkan bahwa persamaan (2.28) dengan
. Dengan mengalikan
dan mengambil ekspektasinya diperoleh untuk k =
0. atau atau
, dan untuk
, maka
yang merupakan persamaan
differensi derajat dua yang dapat diselesaikan. Tetapi dalam praktiknya akan lebih mudah jika dimulai dengan : ...(2.28) ...(2.29) Dengan menstabilkan persamaan (2.30) pada persamaan variansinya, maka diperoleh :
agar faktor dalam penyebut positif, maka haruslah
repository.unisba.ac.id
27
persamaan (2.30) dapat ditulis dengan operator back shift (B), menjadi : ...(2.30) 2.10.2 Model Moving Average (MA) Moving Average (MA) merupakan nilai time series pada waktu t yang dipengaruhi oleh unsur kesalahan pada saat ini dan unsur kesalahan terbobot pada masa lalu (Makridakis, 1999). Model Moving Average (MA) order q, dinotasikan menjadi MA(q). Secara umum, model MA(q) adalah: ...(2.31) Dengan : = nilai variabel pada waktu ke-t = nilai-nilai pada error pada waktu t, t-1,t-2,...,t-q dan
diasumsikan white noise dan normal.
= koefisien regresi, i=1,2,3,...,q = nilai error pada waktu ke-t q
= orde MA
Persamaan (2.32) dapat ditulis menggunakan operator back shift (B), menjadi : dengan
merupakan operator
MA(q). Fungsi autokovariansi dari proses moving average orde q
repository.unisba.ac.id
28
Oleh karena itu, variansi dari proses ini adalah : . dan ...(2.32) Jadi fungsi autokorelasinya dari proses MA(q) adalah :
...(2.33)
, proses moving average berhingga
Karena
selalu stasioner. Proses moving average invertible jika akar-akar dari berada diluar lingkaran satuan. Secara umum, orde MA yang sering digunakan dalam analisis time series adalah q=1 atau q=2. yaitu MA(1) dan MA(2). Sehingga model Moving Average MA(1) adalah : ...(2.34) Persamaan (2.35) dapat ditulis dengan operator B (back shift), menjadi :
Rata-rata (
Variansi (
adalah
dan untuk semua k.
,
repository.unisba.ac.id
29
Sedangkan model Moving Average orde 2, MA(2) adalah : ...(2.35) Persamaan (2.36) dapat ditulis dengan operator B (back shift), menjadi :
Sebagai model moving average orde berhingga, proses MA(2) selalu stasioner. 2.10.3 Model Campuran AR(p) dan MA(q) / ARMA(p,q) Unsur dasar dari model AR dan MA dapat dikombinasikan untuk menghasilkan berbagai macam model yang merupakan gabungan kedua model Autoregressive (AR) dan Moving Average (MA). Bentuk umum dari Autoregressive (AR) dengan Moving Average (MA) yang dinotasikan ARMA (p,q) adalah sebagai berikut: ...(2.36) Dengan : = nilai variabel pada wakyu ke-t = koefisien autoregressive ke-i, i=1,2,3,...,p p
= orde AR
q
= orde MA = parameter model MA ke-i, i= 1,2,3,...,q = nilai galat pada waktu ke-t
Model ini dapat ditulis dalam bentuk : stasioneritas memerlukan akar-akar
untuk
terletak diluar lingkaran satuan
sedangkan untuk invertibilitas memerlukan akar-akar
terletak diluar
repository.unisba.ac.id
30
lingkaran. Dengan mengambil ekspektasi persamaan diatas, diperoleh karena 2.10.4 Model Autoregressive Integrated Moving Average (ARIMA) Hasil modifikasi model ARMA (p,q) dengan memasukkan operator differencing menghasilkan persamaan model ARIMA, adanya unsur differencing karena merupakan syarat untuk menstasionerkan data, dalam notasi operator shift mundur, differencing dapat ditulis
, dimana
hasil differencing
operator differencing. Yang
sebanyak d kali dan
merupakan data
dinotasikan dengan model ARIMA (p,d,q) :
Dimana :
Dengan p
= orde dari AR
q
= orde dari MA = koefisien orde p = koefisien orde q
B
= backward shift
repository.unisba.ac.id
31
= orde differencing non musiman = besarnya pengamatan (kejadian) pada waktu ke-t = suatu proses white noise atau galat pada waktu ke-t yang diasumsikan mempunyai mean 0 dan variansi konstan 2.11 Proses Pemodelan Autoregressive Integrated Moving Average (ARIMA) Metode ARIMA berbeda dengan metode peramalan lain karena metode ini tidak menyaratkan suatu pola data tertentu, sehingga model dapat dipakai untuk semua tipe pola data. Metode ARIMA akan bekerja dengan baik jika data dalam time series yang digunakan bersifat dependen atau berhubungan satu sama lain secara statistik. Secara umum model ARIMA ditulis dengan ARIMA (p,d,q) yang artinya model ARIMA dengan derajat AR(p), derejat pembeda d, dan derajat MA(q). Langkah-langkah pembentukan model secara iteratif adalah sebagai berikut : 1. Identifikasi Model Langkah pertama dalam pembentukan model Autoregressive Integrated Moving Average (ARIMA) adalah pembentukan plot data time series. Pembuatan plot data time series bertujuan untuk mendeteksi stasioneritas data time series. Data dikatakan stasioner jika pola data tersebut berada disekitar nilai rata-rata dan variansi yang konstan selama waktu tertentu. Selain itu, stasioneritas dapat dilihat dari plot Autocorrelation Function (ACF) data tersebut (Gambar 2.2). Kestasioneran suatu time series dapat dilihat dari plot ACF yaitu koefisien autokorelasinya menurun menuju nol dengan cepat, biasanya setelah lag ke-2 atau ke-3. Bila data tidak statsioner maka dapat dilakukan pembedaan atau
repository.unisba.ac.id
32
differencing, orde pembedaan sampai deret menjadi stasioner dapat digunakan untuk menentukan nilai d pada ARIMA (p,d,q) 2. Menentukan Orde Autoregressive (AR) dan Moving Average (MA) Model AR dan MA dari suatu time series dapat dilakukan dengan melihat grafik ACF dan PACF. a. Jika terdapat lag autokorelasi sebanyak q yang berbeda dari nol secara signifikan maka prosesnya adalah MA (q). b. Jika terdapat lag autokorelasi parsial sebanyak p yang berbeda dari nol secara signifikan maka prosesnya adalah AR (p). Secara umum jika terdapat lag autokorelasi sebanyak q yang berbeda dari nol secara signifikan dan d pembedaan maka prosesnya adala ARIMA (p,d,q) c. Jika terdapat lag PACF sebanyak p, lag ACF sebanyak q yang berbeda dari nol secara signifikan maka prosesnya adalah ARMA (p,q), dan d sebagai pembedaan maka prosesnya adalah ARIMA (p,d,q) 3. Estimasi Parameter Ada dua cara yang mendasar untuk mendapatkan parameter-parameter tersebut : a. Dengan cara mencoba-coba (trial and error), menguji beberapa nilai yang berbeda dan memilih satu nilai tersebut (atau sekumpulan nilai, apabila terdapat
lebih
dari
satu
parameter
yang
akan
ditaksir)
yang
meminimumkan jumlah kuadrat nilai sisa (sum of squared residual).
repository.unisba.ac.id
33
b. Perbaikan secara iteratif, memilih taksiran awal dan kemudian membiarkan program komputer memperhalus penaksiran tersebut secara iteratif. Metode yang digunakan untuk mengestimasi parameter autoregressive yaitu metode kuadrat terkecil (least squared method). Model AR (p) dinyatakan dalam bentuk: ...(2.37) Dari n observasi
parameter
dapat diestimasi dengan
meminimumkan jumlah kuadrat residual Sum Squared Error (SSE) ...(2.38) Sebagai contoh, diketahui model AR(1) ...(2.39) Sehingga di peroleh galat untuk mengestimasi parameter
dengan meminimumkan jumlah kuadrat
residual ...(2.40)
Estimator untuk parameter
dinyatakan sebagai ...(2.41)
repository.unisba.ac.id
34
4. Pemeriksaan Diagnostik Setelah berhasil mengestimasi nilai-nilai parameter dari model ARIMA yang ditetapkan sementara, selanjutnya perlu dilakukan pemeriksaan diagnostik untuk membuktikan bahwa model tersebut cukup memadai dan menentukan model mana yang terbaik digunakan untuk peramalan (Makridakis, 1999). Pemeriksaan diagnostik ini dapat dilakukan dengan mengamati apakah residual dari model terestimasi merupakan proses white noise atau tidak. Model dikatakan baik jika nilai error bersifat random, artinya sudah tidak mempunyai pola tertentu lagi. Dengan kata lain model yang diperoleh dapat menangkap dengan baik pola data yang ada. Statistika uji Q Box- Pierce dapat digunakan untuk menguji kelayakan model, yaitu dengan menguji apakah sekumpulan korelasi diri untuk nilai sisa tersebut tidak nol. Statistik uji Q Box-Pierce menyebar mengikuti sebaran
dengan derajat bebas (m – p - q), dimana m
adalah maksimum yang diamati, p adalah ordo AR, dan q adalah ordo MA. Jika nilai Q lebih besar dari nilai
untuk tingkat kepercayaan tertentu
atau nilai peluang statistik Q lebih kecil dari taraf nyata
, maka dapat
disimpulkan bahwa model tidak layak. persamaan statistik uji Box dan Pierce menurut (Makridakis, 1995) adalah : ...(2.42) Dengan : = nilai korelasi diri pada lag ke-k n
= banyaknya amatan pada data awal
d
= ordo pembedaan
repository.unisba.ac.id
35
m
= lag maksimal
5. Kriteria Pemilihan Model Terbaik Salah satu kriteria pemilihan model yang dapat digunakan untuk model terbaik adalah berdasarkan kesalahan peramalan, semakin kecil nilai MSE maka semakin baik model itu untuk dipilih yaitu : ...(2.43) Dengan : n
= Jumlah sampel = Nilai aktual harga open emas = Nilai Prediksi harga open emas
Pada pemilihan metode terbaik (metode yang paling sesuai) yang digunakan untuk meramalkan suatu data dapat dipertimbangkan dengan meminimumkan kesalahan (error) yang mempunyai ukuran kesalahan model terkecil. 6. Peramalan dengan Model ARIMA Notasi yang digunakan dalam ARIMA adalah notasi yang mudah dan umum. Misalkan model ARIMA (0,1,1)(0,1,1)12 dijabarkan sebagai berikut : ...(2.44) Tetapi untuk menggunakannya dalam peramalan mengharuskan dilakukan sesuatu penjabaran dari persamaan tersebut dan menjadikannya sebuah persamaan regresi yang lebih umum. untuk model diatas bentuknya adalah : ...(2.45)
repository.unisba.ac.id
36
Untuk meramalkan satu periode ke depan, yaitu
maka seperti pada
persamaan berikut : ...(2.46) Nilai
tidak akan diketahui, karena nilai yang diharapkan untuk
kesalahan random pada masa yang akan datang harus ditetapkan sama dengan nol. Akan tetapi dari model yang disesuaikan (fitted model) kita boleh mengganti nilai dengan nilai-nilai yang ditetapkan secara empiris (seperti yang diperoleh setelah iterasi terakhir algoritma Marquardt). Tentu saja bila kita meramalkan jauh ke depan, tidak akan kita peroleh nilai empiris untuk “ ” sesudah beberapa waktu, dan oleh sebab itu nilai harapan mereka akan seluruhnya nol. Untuk nilai X, pada awal proses peramalan, kita akan mengetahui nilai
. Akan tetapi sesudah beberapa saat, nilai X akan berupa nilai
ramalan (forecasted value), bukan nilai-nilai masa lalu yang telah diketahui. 2.12 Artificial Neural Network (ANN) Artificial neural network atau juga disebut dengan jaringan syaraf tiruan (JST) adalah sistem pemroses informasi yang memiliki karakteristik mirip dengan jaringan syaraf biologi. Neural network telah diaplikasikan dalam berbagai bidang diantaranya pattern recognition, medical diagnostic, signal processing, dan peramalan. Meskipun banyak aplikasi menjanjikan yang dapat dilakukan oleh neural network, namun neural network juga memiliki beberapa keterbatasan umum, yaitu ketidak akuratan hasil yang diperoleh. Neural network bekerja berdasarkan pola yang terbentuk pada inputnya.
repository.unisba.ac.id
37
Neural network terdiri atas elemen-elemen untuk pemrosesan informasi yang disebut dengan neuron, unit, sel atau node (Fausset , 1994). Setiap neuron dihubungkan dengan neuron lainnya dengan suatu connection link, yang direpresentasikan dengan weight/bobot. Metode untuk menentukan nilai weight disebut dengan training, learning atau algoritma. Setiap neuron menggunakan fungsi aktivasi pada net input untuk menentukan prediksi output. Neuron-neuron dalam neural network disusun dalam grup, yang disebut dengan layer (lapis) . Susunan neuron-neuron dalam lapis dan pola koneksi di dalam dan antar lapis disebut dengan arsitektur jaringan. Arsitektur ini merupakan salah satu karakteristik penting yang membedakan neural network. Secara umum ada tiga lapis yang membentuk neural network : 1. Lapis input Unit-unit di lapisan input disebut unit-unit input. Unit-unit input tersebut menerima
pola
inputan
dari
luar
yang
menggambarkan
suatu
permasalahan. banyak node atau neuron dalam lapis input tergantung pada banyaknya input dalam model dan setiap input menentukan satu neuron. 2. Lapis tersembunyi (hidden layer) Unit-unit dalam lapisan tersembunyi disebut unit-unit tersembunyi, dimana outputnya tidak dapat diamati secara langsung. Lapis tersembunyi terletak di antara lapis input dan lapis output, yang dapat terdiri atas beberapa lapis tersembunyi.
repository.unisba.ac.id
38
3. Lapis output Unit-unit dalam lapisan output disebut unit-unit output. Output dari lapisan ini merupakan solusi neural network terhadap suatu permasalahan. Setelah melalui proses training, network merespon input baru untuk menghasilkan output yang merupakan hasil peramalan. 2.12.1 Arsitektur Neural Network Pengaturan neuron ke dalam lapisan, pola hubungan dalam lapisan, dan diantara lapisan disebut arsitektur neural network (Fausset, 1994). Arsitektur jaringan neural network diilustrasikan dalam Gambar 2.6 yang terdiri dari unit input, unit output, dan satu unit tersembunyi. Neural network sering diklasifikasikan sebagai single layer dan multilayer
Gambar 2.6 Arsitektur jaringan neural network sederhana a. Single layer Sebuah jaringan single layer memiliki satu lapisan bobot koneksi (Fausset, 1994). Ciri khas dari single layer terlihat dalam Gambar 2.6, dimana unit input yang menerima sinyal dari dunia luar terhubung ke unit output tetapi tidak
repository.unisba.ac.id
39
terhubung ke unit input lain, dan unit-unit output yang terhubung ke unit output lainnya.
Gambar 2.7 Arsitektur jaringan neural network single layer b. Multilayer Jaringan multilayer adalah jaringan dengan satu atau lebih lapisan tersembunyi antara unit input dan unit output (Fausset, 1994). Biasanya, ada lapisan bobot antara dua tingkat yang berdekatan unit (input, tersembunyi, atau output). Jaringan multilayer yang di illustrasikan pada Gambar 2.8 memecahkan masalah yang lebih rumit dari pada jaring single layer, dan juga pelatihannya mungkin lebih sulit.
Gambar 2.8 Arsitektur jaringan neural network multilayer
repository.unisba.ac.id
40
2.12.2 Metode Pelatihan Selain arsitektur, metode pengaturan nilai bobot (training) merupakan karakteristik yang penting dalam jaringan neural network (Fausset, 1994). Metode pelatihan pada neural network dibagi menjadi dua jenis, yaitu : a. Pelatihan Terawasi Pelatihan ini dilakukan dengan adanya urutan vektor pelatihan, atau pola yang masing-masing terkait dengan vektor target output. Bobot kemudian disesuaikan untuk algoritma pembelajaran. Proses ini dikenal sebagai pelatihan terawasi. b. Pelatihan tak Terawasi Pada pelatihan ini jaring saraf mengatur segala kinerja dirinya sendiri, mulai dari masukan vektor hingga menggunakan data training untuk melakukan pembelajaran. 2.12.3 Fungsi Aktivasi Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron akan diteruskan atau tidak. Ada beberapa fungsi aktivasi yang sering digunakan dalam neural network, antara lain: a. Fungsi undak biner (Threshold) Fungsi undak biner dengan menggunakan nilai ambang sering juga disebut dengan fungsi nilai ambang (Threshold) atau fungsi Heaviside.
repository.unisba.ac.id
41
Gambar 2.9 fungsi aktivasi undak biner (threshold) Fungsi undak biner (dengna nilai ambar θ) dirumuskan sebagai :
b. Fungsi Linear (Identitas) Fungsi linear memiliki nilai output yang sama dengan nilai inputnya. Fungsi ini dirumuskan sebagai : =
Gambar 2.10 fungsi aktivasi linear (identitas)
repository.unisba.ac.id
42
c. Fungsi Sigmoid Biner Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0 sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1. Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0 atau 1. Fungsi sigmoid biner dirumuskan sebagai : ...(2.47) dengan : ...(2.48) d. Fungsi Sigmoid Bipolar Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai -1. Fungsi sigmoid bipolar dirumuskan sebagai : ...(2.49) dengan : ...(2.50) Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan sebagai : ...(2.51) atau :
repository.unisba.ac.id
43
...(2.52) dengan : ...(2.53) 2.12.4
Model
Feedforward
Neural
Network
dengan
Algoritma
backpropagation Secara umum, proses bekerjanya jaringan neural network menyerupai cara otak manusia memproses data input sensorik, diterima sebagai neuron input. Selanjutnya neuron saling berhubungan dengan sinapsis (node), dan sinyal dari neuron bekerja secara paralel digabungkan untuk menghasilkan informasi maupun reaksi. Feedforward Neural Network (FFNN) merupakan salah satu model neural network yang banyak dipakai dalam berbagai bidang. Arsitektur model FFNN terdiri atas satu lapis input, satu atau lebih lapis tersembunyi, dan satu lapis output. Dalam model ini, perhitungan respon atau output
dilakukan dengan
memproses input x mengalir dari satu lapis maju ke lapis berikutnya secara berurutan. Single layer feedforward dengan satu neuron pada lapisan tersembunyi adalah jaringan saraf yang paling dasar dan umum digunakan dalam ekonomi dan aplikasi keuangan. Kompleksitas dari arsitektur FFNN tergantung pada jumlah lapis tersembunyi dan jumlah neuron pada masing-masing lapis. Gambar 2.11 adalah arsitektur feedforward neural network dengan n buah masukan (ditambah sebuah bias), sebuah lapisan tersembunyi yang terdiri dari p unit (ditambah sebuah bias), serta m buah unit keluaran.
repository.unisba.ac.id
44
Gambar 2.11 Arsitektur Feedforward Neural Network 1. Algoritma Backpropagtion Algoritma pelatihan Backpropagation (BP) adalah salah satu algoritma dengan multilayer percepton yang pertama kali dirumuskan oleh Werbos dan dipopulerkan oleh Rumelhart dan McClelland untuk dipakai pada neural network. Backpropagation neural network merupakan tipe jaringan saraf tiruan yang menggunakan metode pembelajaran terawasi . Algoritma BP juga banyak dipakai pada aplikasi pengaturan karena proses pelatihannya didasarkan pada hubungan yang sederhana, yaitu jika keluaran memberikan hasil yang salah, maka penimbang dikoreksi supaya errornya dapat diperkecil dan respon jaringan selanjutnya diharapkan akan lebih mendekati harga yang benar. BP juga berkemampuan untuk memperbaiki penimbang pada lapisan tersembunyi (hidden layer). Algoritma Backpropagation disebut sebagai propagasi balik karena ketika jaringan diberikan pola masukan sebagai pola pelatihan maka pola tersebut menuju ke unit-unit pada lapisan tersembunyi untuk diteruskan ke unit-unit. lapisan keluaran. Selanjutnya, unit-unit lapisan keluaran memberikan tanggapan
repository.unisba.ac.id
45
yang disebut sebagai keluaran jaringan. Saat keluaran jaringan tidak sama dengan keluaran yang diharapkan maka keluaran akan menyebar mundur (backward) pada lapisan tersembunyi diteruskan ke unit pada lapisan masukan. Oleh karenanya mekanisme pelatihan tersebut dinamakan backpropagation. Tahap pelatihan ini merupakan langkah bagaimana suatu jaringan saraf itu berlatih, yaitu dengan cara melakukan perubahan penimbang (sambungan antar lapisan yang membentuk jaringan melalui masing-masing unitnya). Sedangkan pemecahan masalah baru akan dilakukan jika proses pelatihan tersebut selesai, fase tersebut adalah fase mapping atau proses pengujian/testing. Algoritma Pelatihan
Backpropagation
terdiri
dari
dua
proses,
feedforward
dan
backpropagation dari errornya. Algoritmanya sebagai berikut (Fausset, 1994): Terdapat tiga fase dalam pelatihan backpropagation yaitu : 1. Fase 1, yaitu Feedforward atau propagasi maju Dalam propagasi maju, setiap sinyal masukan dipropagasi (dihitung maju) ke layar tersembunyi hingga layar keluaran dengan menggunakan fungsi aktivasi yang ditentukan. 2. Fase 2, yaitu backpropagation atau propagasi mundur Kesalahan (selisih antara keluaran jaringan dengan target yang diinginkan) yang terjadi dipropagasi mundur mulai dari garis yang berhubungan langsung dengan unit-unit di layar keluaran.
repository.unisba.ac.id
46
3. Fase 3, yaitu perubahan bobot Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan yang terjadi. Ketiga fase tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi. Algoritma pelatihan untuk jaringan dengan satu layar tersembunyi (dengan fungsi aktivasi sigmoid biner) adalah sebagai berikut : Langkah 1
: Inisialisasi semua bobot dengan bilangan acak kecil.
Langkah 2
: Jika kondisi penghentian belum terpenuhi, lakukan langkah 2 sampai langkah 9.
Langkah 3
: Untuk setiap pasang data pelatihan lakukan langkah 3 sampai langkah 8.
Fase I : Feedforward Langkah 4
: Tiap unit masukan
menerima sinyal dan
meneruskannya ke unit tersembunyi diatasnya. Langkah 5
: Hitung semua keluaran di unit tersembunyi . ...(2.54)
gunakan fungsi aktivasi untuk menghitung sinyal outputnya : ...(2.55) dan kirimkan sinyal tersebut ke semua unit lapisan atasnya (unit-unit output). Langkah ini dilakukan sebanyak jumlah lapisan tersebunyi. Langkag 6
:Hitung semua keluaran jaringan unit ...(2.56)
repository.unisba.ac.id
47
gunakan fungsi aktivasi untuk menghitung sinyal outputnya : ...(2.57) Fase II : Backpropagation Langkah 7
: Hitung faktor δ unit keluaran berdasarkan kesalahan disetiap unit keluaran ...(2.58)
merupakan unit kesalahan yang akan diperbaiki dalam perubahan bobot layar dibawahnya (langkah 7). kemudian hitung suku perubahan bobot dipakai nanti untuk merubah bobot
(yang akan
) dengan laju percepatan ...(2.59)
kemudian hitung suku perubahan bias memperbaiki
(yang akan dipakai nanti untuk
) ...(2.60)
Langkah 8
: Hitung faktor unit δ tersembunyi berdasarkan kesalahan di setiap unit tersembunyi ...(2.61)
Faktor
unit tersembunyi : ...(2.62)
Hitung suku perubahan bobot
(yang akan dipakai nanti untuk merubah bobot
) ...(2.63)
repository.unisba.ac.id
48
kemudian hitung suku perubahan bias bobot
(yang akan dipakai nanti untuk merubah
) ...(2.64)
Fase III : Perubahan bobot Langkah 9
: Tiap-tiap unit output
memperbaiki
bobotnya ...(2.65) Perubahan bobot garis yang menuju unit tersembunyi : ...(2.66) Langkah 10
: Setelah diperoleh bobot yang baru dari hasil perubahan bobot, fase pertama dilakukan kembali kemudian dibandingkan hasil keluaran dengan target apabila hasil keluaran telah sama dengan target dan toleransi error maka proses dihentikan.
Model FFNN algoritma backpropagation secara sistematis dapat dituliskan sebagai berikut : ...(2.67) 2.12.5 Membangun Jaringan Feedforward Neural Network dengan algoritma backpropagation Membangun jaringan feedforward neural network dengan algoritma backpropagation memerlukan beberapa langkah. Penulis membagi langkahlangkah tersebut kedalam beberapa tahap yaitu sebagai berikut :
repository.unisba.ac.id
49
a. Menentukan input Jaringan Dalam menentukan input jaringan dari data open emas, yang menjadi variabel input yaitu harga open emas hari kemarin sebagai x1, dan harga open emas berupa data hari sekarang sebagai x2. Sedangkan data target adalah data hari esok. Data input yang telah dipilih dinormalisasi dengan perintah prestd dalam MATLAB. Fungsi aktivasi yang digunakan pada lapis tersembunyi yaitu sigmoid biner (tansig), sedangkan pada lapis output menggunakan fungsi aktivasi linier (purelin).
Pembelajaran
backpropagation
dilakukan
dengan
menentukan
banyaknya neuron pada lapis tersembunyi. b. Pembagian data Data yang ada dibagi menjadi 2 yaitu training dan data testing. Beberapa komposisi data training dan testing yang sering digunakan adalah 80% untuk training dan 20% untuk data testing, 75% untuk data training dan 25% untuk data testing, atau 50% data training dan 50% untuk data testing. Komposisi ini bersifat bebas. c. Normalisasi data Sebelum melakukan pembelajaran maka data perlu dinormalisasikan. Normalisasi data dilakukan karena normalisasi sangat dibutuhkan pada jaringan syaraf tiruan yang menggunakan fungsi aktifasi sigmoid. Hal ini dapat dilakukan dengan meletakkan data-data input dan target pada range tertentu. Proses normalisasi dapat dilakukan dengan bantuan mean dan standar deviasi.
Perhitungan nilai rata-rata ...(2.68)
repository.unisba.ac.id
50
Perhitungan nilai variansi ...(2.69)
Perhitungan normalisasi ...(2.70)
dengan : n
= Banyaknya data = rata-rata data = pengamatan pada waktu t = variansi
s
= simpangan baku
Proses normalisasi data dengan bantuan mean dan standar deviasi menggunakan perintah prestd pada MATLAB yang akan membawa data ke dalam bentuk normal. Berikut perintahnya: [pn, meanp, stdp, tn, meant, stdt] = prestd (P,T) dengan P
= matriks input
T
= matriks target
Fungsi pada matlab akan menghasilkan: Pn
= matriks input yang ternormalisasi (mean = 0, deviasi standar = 1)
tn
= matriks target yang ternormalisasi (mean=0,deviasi standar = 1)
meanp = mean pada matriks input asli (p) stdp
= deviasi standar pada matriks input asli (p)
meant = mean pada matriks target asli (t)
repository.unisba.ac.id
51
stdt
= deviasi standar pada matriks target asli (t)
d. Menentukan Model FFNN yang Optimal dengan Algorit backpropagation Sebuah jaringan harus dibentuk dengan menentukan input dari jaringan tersebut. Input diketahui dari plot ACF dan PACF yang telah dijelaskan sebelumnya. Jika input sudah diketahui, maka neuron pada lapis tersembunyi harus ditentukan. Penentuan neuron pada lapis tersembunyi dengan cara mengestimasi. Arsitektur jaringan yang sering digunakan oleh algoritma backpropagation adalah jaringan feedforward dengan banyak lapisan. Untuk membangun suatu jaringan feedforward digunakan perintah newff pada MATLAB, yaitu net
=
newff(PR,[S1
S2
...
SN1],{TF1
TF2
...
TFN1},BTF,BLF,PF) dengan : PR
= matriks berukuran Rx2 yang berisi nilai minimum dan maksimum, dengan R adalah jumlah variabel input
Si
= jumlah neuron pada lapisan ke-i, dengan = 1,2, . . . , 1
TFi
= fungsi aktivasi pada lapisan ke-i, dengan = 1,2, . . . , 1
BTF
= fungsi pelatihan jaringan (default :trainlm)
BLF
= fungsi pelatihan untuk bobot (default : learngdm)
PF
= fungsi kinerja (default: mse)
Fungsi aktivasi TFi harus merupakan fungsi yang dapat dideferensialkan, seperti tansig, logsig atau purelin. Fungsi pelatihan BTF dapat digunakan fungsi-
repository.unisba.ac.id
52
fungsi pelatihan untuk backpropagation, seperti trainlm, trainbfg, trainrp atau traind. Proses membangun jaringan feedforward neural network dengan algoritma backpropagation terdiri atas : 1) Menentukan banyaknya neuron pada lapis tersembunyi Jaringan yang dibangun akan dinilai keakuratannya dengan menentukan neuron terbaik pada lapisan tersembunyi. Indikator pemilihan penilaian yang digunakan adalah MAPE, MSE dan MAD. Berdasarkan nilai indikator yang terendah dari proses pembelajaran, maka diperoleh jaringan yang terbaik. Dalam skripsi ini, penulis menggunakan MSE sebagai indikatornya. Rumus MSE bisa dilihat pada persamaan (2.44) 2) Menentukan input yang optimal Jaringan yang akan dibangun seharusnya berdasarkan input yang sederhana namun optimal, untuk itu perlu dilalukan pengecekan terhadap input jaringan. Untuk mendapatkan input yang optimal perlu dilakukan pengeliminasian terhadap input. Indikator dari optimalnya dilihat dari MSE yang diperoleh setelah melakukan pelatihan. Input yang optimal yaitu ketika MSE yang diperoleh sangat kecil atau paling kecil. 3) Menentukan bobot model Penentuan
bobot
model
bergantung
pada
pemilihan
parameter
pembelajaran.Pemilihan parameter pembelajaran adalah proses yang penting ketika melakukan pembelajaran. Dalam membentuk suatu jaringan, model yang kurang baik dapat diperbaiki dengan paramerer-parameter secara trial and error
repository.unisba.ac.id
53
untuk mendapatkan nilai bobot optimum supaya MSE jaringan dapat diperbarui. Adapun untuk parameter-parameter yang perlu diatur ketika melakukan pembelajaran traingdx adalah (Sri Kusumadewi, 2004) : a) Maksimum epoh Maksimum epoh adalah jumlah epoh maksimum yang boleh dilakukan selama proses pelatihan. Iterasi akan terhenti apabila nilai epoh melebihi maksimum epoh. Perintah di MATLAB : net.trainParam.epochs = MaxEpoh Nilai default untuk maksimum epoh adalah 10 b) Kinerja tujuan Kinerja tujuan adalah target nilai fungsi kinerja. Iterasi akan dihentikan apabila nilai fungsi kinerja kurang dari atau sama dengan kinerja tujuan. Perintah di MATLAB : net.trainParam.goal = TargetError Nilai default untuk kinerja tujuan adalah 0. c) Learning rate Learning rate adalah laju pembelajaran. Semakin besar learning rate akan berimplikasi pada semakin besar langkah pembelajaran. Perintah di MATLAB : net.trainParam.Ir = LearningRate. Nilai default untuk learning rate adalah 0,01. d) Rasio untuk menaikkan learning rate Rasio yang berguna sebagai faktor pengali untuk menaikkan learning rate apabila learning rate yang ada terlalu rendah atau mencapai kekonvergenan. Perintah di MATLAB : net.trainParam.Ir_inc =IncLearningRate
repository.unisba.ac.id
54
Nilai default untuk rasio menaikkan learning rate adalah 1,05. e) Rasio untuk menurunkan learning rate Rasio yang berguna sebagai faktor pengali untuk menurunkan learning rate apabila learning rate yang ada terlalu tinggi atau menuju ke ketidakstabilan. Perintah di MATLAB : net.trainParam.Ir_decc =DecLearningRate Nilai default untuk rasio penurunan learning rate adalah 0,7. f) Maksimum kegagalan Maksimum kegagalan diperlukan apabila pada algoritma disertai dengan validitas (optional). Maksimum kegagalan adalah ketidakvalitan terbesar yang diperbolehkan. Apabila gradient pada iterasi ke-k lebih besar daripada gradien iterasi ke-(k-1), maka kegagalannya akan bertambah 1. Iterasi akan dihentikan apabila jumlah kegagalan lebih dari maksimum kegagalan. Perintah di MATLAB : net.trainParam.max_fail =MaxFaile Nilai default untuk maksimum kegagalan adalah 5. g) Maksimum kenaikan kerja Maksimum kenaikan kerja adalah nilai maksimum kenaikan error yang diijinkan, antara error saat ini dan error sebelumnya. PerintahdiMATLAB : net.trainParam.max_perf_inc =MaxPerfInc Nilai default untuk maksimum kenaikan kinerja adalah 1,04. h) Gradien minimum Gradien minumum adalah akar dari jumlah kuadrat semua gradien (bobot input, bobot lapisan, bobot bias) terkecil yang diperbolehkan. Iterasi akan
repository.unisba.ac.id
55
dihentikan apabila nilai akar kuadrat semua gradien ini kurang dari gradien minimum. Perintah di MATLAB : net.trainParam.min_grad =MinGradien Nilai default untuk gradien minimum adalah 10-10. i) Momentum Momentum adalah perubahan bobot yang baru dengan dasar bobot sebelumnya. Besarnya momentum antara 0 sampai 1. Apabila besarnya momentum = 0 maka perubahan bobot hanya akan dipengaruhi oleh gradiennya. Sedangkan, apabila besarnya momentum = 1 maka perubahan bobot akan sama dengan perubahan bobot sebelumnya. Perintah di MATLAB : net.trainParam.mc =Momentum Nilai default untuk momentum adalah 0,9. j) Jumlah epoh yang akan ditunjukkan kemajuannya Parameter ini menunjukkan berapa jumlah epoh yang berselang yang akan ditunjukkan kemajuannya. Perintah di MATLAB : net.trainParam.show =EpohShow Nilai default untuk jumlah epoh yang akan ditunjukkan adalah 25. k) Waktu maksimum untuk pelatihan Parameter ini menunjukkan waktu maksimum yang diijinkan untuk melakukan pelatihan. Iterasi akan dihentikan apabila waktu pelatihan melebihi waktu maksimum. Perintah di MATLAB : net.trainParam.time =MaxTime Nilai default untuk waktu maksimum adalah tak terbatas (inf).
repository.unisba.ac.id
56
Algoritma pelatihan dilakukan untuk pengaturan bobot, sehingga pada akhir pelatihan mendapatkan bobot-bobot yang baik. Selama proses pelatihan, bobot diatur secara iteratif untuk meminimumkan fungsi kinerja jaringan. Fungsi kinerja jaringan yang sering digunakan dalam backpropagation adalah mean square error (MSE), fungsi ini akan mengambil rata-rata kuadrat error yang terjadi antara output jaringan dengan target. Algoritma pelatihan yang dasar ada 2 macam (Sri Kusumadewi, 2004), yaitu: a. Incremental Mode Dalam MATLAB, perintah Incremental Mode ada 2 yaitu learngd dan learngdm. b. Batch Mode Dalam MATLAB, perintah Batch Mode ada 2 yaitu traingd dan traingdm. Dari kedua algoritma tersebut, algoritma pelatihan dasar Batch Mode yang sering digunakan. Pelatihan sederhana dengan Batch Mode menggunakan fungsi train dalam matlab sebagai berikut: net = train (net,P,T) e. Denormalisasi Setelah proses pelatihan selesai, maka data yang telah dinormalisasi dikembalikan seperti semula yang disebut denormalisasi data. Data akan di denormalisasi dengan fungsi poststd pada matlab, dengan perintah sebagai berikut : [P,T]= poststd (pn, meanp, stdp, tn, meant, stdt).
repository.unisba.ac.id
57
f. Uji kesesuaian model Untuk mengecek error pada struktur jaringan yang telah dibentuk dengan uji white noise. Pengujian ini dilihat dari plot ACF dan PACF dari error training apakah bersifat random atau tidak. Jika error bersifat random maka proses white noise terpenuhi sehingga jaringan layak digunakan untuk peramalan. Model backpropagation dengan p neuron tersembunyi dan input xi, secara sistematis dapat ditulis sebagai berikut : ...(2.71)
repository.unisba.ac.id