33
BAB III METODE PENELITIAN 3.1 Jenis dan Sumber Data Penelitian ini dilakukan berdasarkan data series bulan yang dipublikasikan oleh Bank Indonesia (BI) dan Badan Pusat Statistik (BPS), diantaranya adalah Publikasi Tinjauan Kebijakan Moneter dan Statistik Perbankan Indonesia yang diterbitkan bulanan. Selain itu terdapat pula data yang diperoleh dari Publikasi Indokator Ekonomi yang diterbitkan oleh BPS. Jenis data yang dikumpulkan meliputi : -
Jumlah deposito pada bank Umum (bulanan)
-
Data inflasi m-t-m (bulanan)
-
Data suku bunga deposito 1 bulan (bulanan)
3.2 Metode Analisis Metode analisis yang digunakan untuk mendukung dan mencapai tujuan penelitian adalah analisis deskriptif dan model AutoRegressive Conditional Heteroscedasticity
(ARCH)
dan
Generalized
AutoRegressive
Conditional
Heteroscedasticity (GARCH). 3.2.1 Analisis Deskriptif Metode analisis deskriptif dilakukan untuk memberikan gambaran tentang perilaku data setiap variabel yang akan diteliti. Variabel yang diteliti dalam penelitian ini adalah jumlah deposito, tingkat suku bunga deposito satu bulan, dan inflasi month to month selama periode Januari 2004 sampai Desember 2010.
34
3.2.2 Model AutoRegressive Conditional Heteroscedasticity (ARCH) dan Generalized AutoRegressive Conditional Heteroscedasticity (GARCH) Metode dalam penelitian ini menggunakan Conditional
Heteroscedasticity
(ARCH)
dan
model AutoRegressive
Generalized
AutoRegressive
Conditional Heteroscedasticity (GARCH), yaitu suatu analisis yang digunakan untuk mengetahui pengaruh satu atau beberapa variabel independen terhadap suatu variabel dependen. Salah satu asumsi yang mendasari estimasi regresi linier berganda dengan metode OLS adalah residual harus bersifat konstan dari waktu ke waktu. Apabila residual tidak bersifat konstan, maka terkandung masalah heteroskedastisitas. Pada penelitian
ini
data
runtut
waktu
yang
diolah
menghasilkan
masalah
heteroskedastisitas. Oleh karena itu metode estimasi dengan menggunakan OLS tidak dapat dilakukan, karena koefisien yang dihasilkan tidak bersifat BLUE (best linier unbiased estimator). Sebagai jalan keluar, kini telah ada model yang khusus digunakan untuk menghadapi kondisi seperti ini. Model tersebut dikenal dengan ARCH (AutoRegresive Conditional Heteroscedasticity). Kelebihan model ini dibandingkan dengan analisis regresi linear berganda adalah model ini tidak memandang heteroskedastisitas sebagai suatu permasalahan, tetapi justru memanfaatkan kondisi tersebut untuk membuat model, bahkan dengan memanfaatkan heteroskedastisitas dalam error yang tepat, maka akan diperoleh estimator yang lebih efisien (Nachrowi dan Usman, 2006). Model ini dikembangkan oleh Robert Engle (1982) dan dimodifikasi oleh Mills (1999). Dalam perkembangannya muncul variasi dari model ini, yang dikenal dengan
nama
GARCH
(Generalized
AutoRegresive
Conditional
35
Heteroscedasticity), yang dikembangkan oleh tim Bollerslev (1986 dan 1994). Dalam model ARCH, varian residual data runtut waktu tidak hanya dipengaruhi oleh variabel independen, tetapi juga dipengaruhi oleh nilai residual data itu sendiri. Model ARCH menggunakan dua persamaan berikut ini: Yt = β0 + β1X1t + β2X2t + εt
(3.1) (3.2)
Dengan Y adalah variabel dependen, X variabel independen (bisa ditambah sesuai keperluan), ε adalah pengganggu atau residual,
adalah varian residual, dan
disebut sebagai komponen ARCH. Ada berbagai bentuk ARCH dan GARCH, antara lain: 1. GARCH (1,1) 2. ARCH in Mean (M-ARCH) 3. Treshold ARCH (TARCH) 4. Eksponential ARCH/GARCH (E-(G)ARCH) 5. Simple asymmetric ARCH (SAARCH) 6. dan lain-lain. Namun yang akan digunakan dalam penelitian ini dan menjadi model yang baik untuk memprediksi variabel deposito adalah model GARCH (1,1). Persamaan dari model ini adalah, sebagai berikut: Yt = β0 + β1X1t + β2X2t + εt
(3.3) (3.4)
dimana :
36
Yt = variabel dependen pada akhir bulan ke-t Xit = variabel independen i pada akhir bulan ke-t (i = 1,2,3, ...) βi = koefesien regresi berganda
εt
= error term ke-t
Sedangkan varian bersyarat ω
, memiliki tiga bagian, yaitu
= rata-rata (mean) = Volatilitas periode sebelumnya (disebut komponen ARCH) = Varian periode sebelumnya (disebut komponen GARCH) Hal yang menarik dalam persamaan ini tidak hanya peramalan dari Yt saja,
tapi juga peramalan varians
. Perubahan dalam varians sangat penting misalnya
dalam memahami pasar saham atau pasar keuangan. 3.2.2.1 Prosedur Estimasi Model ARCH-GARCH Dalam mengaplikasikan model ARCH dan GARCH, langkah-langkah yang dilakukan adalah, sebagai berikut: 1. Identifikasi efek ARCH Dalam pemodelan ARCH-GARCH didahului dengan identifikasi apakah data mengandung heteroskedastisitas. Dilanjutkan dengan melihat apakah terdapat efek ARCH pada residunya. 2. Estimasi Model Pada tahapan ini dilakukan simulasi beberapa model ragam dengan menggunakan model rataan yang telah didapatkan. Kemudian dilanjutkan dengan pendugaan parameter model untuk memilih model terbaik. 3. Evaluasi Model
37
Evaluasi model dilakukan dengan memperhatikan beberapa indikator, yaitu apakah error sudah terdistribusi normal, dan apakah terdapat masalah otokorelasi pada error-nya 4. Peramalan Peramalan dilakukan dengan memasukkan parameter kedalam persamaan yang diperoleh. 3.2.2.2 Kelebihan dan Keterbatasan Model ARCH-GARCH Kelebihan model ARCH-GARCH dibandingkan dengan metode OLS adalah, sebagai berikut : 1. Model ini tidak memandang heteroskedastisitas sebagai suatu masalah, namun justru memanfaatkannya untuk membuat model. 2. Model ini tidak hanya menghasilkan peramalan dari Y, tapi juga peramalan dari varians. Perubahan dalam varians sangat penting misalnya untuk memahami pasar saham dan pasar keuangan. Sedangkan keterbatasan model ini diantaranya adalah: 1. Model ARCH-GARCH digunakan dengan asumsi data harus mengandung heteroskedastisitas pada varians-nya. 2. Model ini tidak mampu melihat transisi atau perubahan perilaku antara volatilitas rendah dengan volatilitas tinggi. 3. Model ini mengasumsikan volatilitas dari error bersifat simetri, yaitu pengaruh shock terhadap volatilitas sama besar ketika terjadi shock positif maupun negatif.
38
3.2.3
Uji Akar-akar Unit (Unit Roots Test) Sebelum mengestimasi data runtun waktu maka terlebih dahulu dilakukan
pengujian stasionaritas data untuk masing-masing variabel. Estimasi dengan data yang tidak stasioner akan menimbulkan regresi palsu/spurious
regression
(Nachrowi dan Usman, 2006). Sekumpulan data dinyatakan stasioner jika nilai rata-rata dan variannya tidak mengalami perubahan secara sistematik sepanjang waktu, atau rata-rata dan variannya konstan. Dalam uji akar unit, hipotesis yang dibentuk adalah Ho : ρ* = 0
(data mengandung akar unit/tidak stasioner)
Ha : ρ* < 0
(data tidak mengandung akar unit/stasioner)
Statistik ADF dihitung dengan: ADF =
ρ*
(3.5)
SE (ρ*)
Data akan dikatakan menolak Ho artinya tidak mengandung akar unit atau sudah stasioner jika nilai statistik uji Augmented Dickey-Fuller (ADF) lebih besar negatif dari nilai kritis tabel Mackinnon atau nilai probability ADF-nya lebih kecil dari nilai α = 0,05 pada tingkat kepercayaan 95 persen. Jika pengujian akar unit pada level belum stasioner maka dilanjutkan pada pengujian pembeda ke-1 (1st differencing) yaitu meregresikan bentuk pembeda untuk setiap variabel dimana asumsi model dimodifikasi dengan nilai lag dependen variabel ∆Y. Yt = ψ1 Yt-1 + ψ2 Yt-2 + ... + ψp Yt-p + μt
(3.6)
39
atau ∆Yt = ψ* Yt-1 + ψ1 ∆Yt-1 + ψ2 ∆Yt-2 + ... + ψp-1 ∆Yt-p + μt
(3.7)
dimana : ψ* = ψ1+ ψ2+ ... + ψp-1
= nilai koefesien
Penentuan besarnya k berdasarkan perkiraan banyaknya lag yang diperlukan untuk membuat μt tidak berkorelasi satu sama lain atau sampai data sudah stasioner. Hipotesis untuk pengujian pembeda adalah: Ho : ψ* = 0
(data mengandung akar unit/tidak stasioner)
Ha : ψ* < 0
(data tidak mengandung akar unit/stasioner)
Data akan dikatakan menolak Ho artinya tidak mengandung akar unit atau sudah stasioner jika nilai statistik uji Augmented Dickey-Fuller (ADF) lebih besar negatif dari nilai kritis tabel Mackinnon atau nilai probability ADF-nya lebih kecil dari nilai α = 0,05 pada tingkat kepercayaan 95 persen. 3.2.4 Pengujian Asumsi Klasik Suatu model regresi dapat dikatakan sebagai model regresi terbaik apabila memenuhi asumsi-asumsi regresi berikut: 3.2.4.1. Normalitas Analisis regresi linier klasik mengasumsikan bahwa setiap error berdistribusi normal. Pengujian dilakukan dengan hipotesis, sebagai berikut : H0 : Error terdistribusi normal H1 : Error tidak terdistribusi normal Pengujian asumsi normalitas ini dilakukan dengan melihat nilai Jarque-
40
Berra-nya yang dibandingkan dengan nilai tabel Chi-Square
2
( χ ) dengan
besarnya “v” adalah sesuai dengan jumlah lag-nya. Jika nilai Jarque Berra-nya lebih kecil dari nilai kritis tabelnya atau nilai probability lebih besar dari nilai α yang ditetapkan, maka kesimpulan diperoleh adalah terima H0, yang artinya data terdistribusi normal. 3.2.4.2 Nonmultikolinieritas Multikolinieritas adalah kondisi adanya hubungan linier antar variabel independen. Kondisi multikolinieritas ditunjukkan dengan berbagai informasi, sebagai berikut: 1. Nilai R2 tinggi, tetapi variabel independen banyak yang tidak signifikan. 2. Dengan menghitung koefisien korelasi antar variabel independen. Apabila koefisiennya rendah, maka tidak terdapat multikolinieritas. 3. Dengan
melakukan
regresi
auxiliary.
Regresi
ini
dilakukan
dengan
memperlakukan masing-masing variabel independen sebagai variabel dependen. Apabila model kita memiliki multikolinieritas, akan memunculkan akibatakibat berikut ini: 1.
Estimator masih bersifat BLUE (Best Linier Unbiased Estimator), tetapi memiliki varian dan kovarian yang besar, sehingga sulit dipakai sebagai alat estimasi.
2.
Interval estimasi cenderung lebar dan nilai statistik uji t akan kecil, sehingga menyebabkan variabel independen tidak signifikan secara statistik dalam mempengaruhi variabel indepen. Uji multikolinieritas adalah pengujian bahwa tidak ada hubungan yang
41
eksak/linier antar variabel independen. Metode yang digunakan untuk mendeteksi multikolinieritas adalah dengan melihat nilai R2 otokorelasi (AC) tidak melebihi 0,5 baik + atau -. 3.2.4.3 Asumsi Homoskedastisitas Salah satu asumsi regresi linier yang harus dipenuhi adalah homogenitas variansi dari error. Homoskedastisitas berarti bahwa variansi dari erro bersifat konstan, kebalikannya adalah kasus heteroskedastisitas, yaitu jika kondisi variansi errornya tidak konstan. Heteroskedastisitas sering muncul pada data keuangan yang bersifat runtut waktu. -
Pada kondisi homoskedastisitas Var (Yi) = Var (εi) = σ2 ; i = 1,2,……,n
-
(3.8)
Pada kondisi heteroskedastisitas Var (Yi) = Var (εi) = σ2i ; i = 1,2,……,n
(3.9)
Pada model regresi kuadrat terkecil, jika asumsi homoskedastisitas tidak terpenuhi, akibatnya adalah : 1.
Estimator metode kuadrat terkecil tidak memiliki varian yang minimum (tidak lagi best), sehingga hanya memenuhi karakteristik LUE (linier unbiased estimator). Meskipun demikian, estimator metode kuadrat terkecil masih bersifat linier dan tidak bias.
2.
Perhitungan standard error tidak dapat lagi dipercaya kebenarannya, karena varian tidak minimum. Varian yang tidak minimum mengakibatkan estimasi regresi tidak efisien.
3.
Uji hipotesis yang didasarkan pada uji t dan uji F tidak dapat lagi dipercaya.
42
Pada penelitian ini pengujian kondisi heteroskedastisitas dideteksi dengan Uji White Heteroscedasticity. Hipotesis yang diujikan adalah : H0
: Residu bersifat homoskedastis
Ha
: Residu tidak bersifat homoskedastis
Hasil yang diperhatikan dari uji ini adalah nilai Obs*R-squared dan nilai Obs*R-squared lebih kecil dari χ2 atau jika nilai
probabilitasnya. Jika nilai
probabilitasnya lebih besar dari α = 0,05, maka terima H0 atau tidak terjadi heteroskedastisitas. Demikian pula sebaliknya. 3.2.4.4 Asumsi Nonotokorelasi Otokorelasi dalam konsep regresi linier berarti komponen error berkorelasi berdasarkan urutan waktu atau korelasi pada dirinya sendiri. Model regresi linier klasik mengasumsikan bahwa otokorelasi tidak boleh terjadi, artinya covarian antara εi dan εj sama dengan nol, atau secara matematis dapat dituliskan sebagai berikut: Cov (εi εj) = E{[ εi – E(εi)][ εj – E(εj)]} = E(εi εj) = 0
(3.10)
;i≠0
Dengan asumsi bahwa E(εi) = E(εj) = 0 Artinya, komponen error εi yang berkaitan dengan data pengamatan ke-i tidak dipengaruhi oleh εj yang berkaitan dengan pengamatan ke-j. dengan kata lain, regresi klasik mensyaratkan bahwa pengamatan sang satu (yi) dengan pengamatan yang lain (yj) saling bebas (independen). Uji otokorelasi dapat diketahui dari nilai Durbin-Watson (DW). Jika nilai DW hitung lebih besar dari nilai dU pada tabel DW, maka dapat disimpulkan tidak terjadi otokorelasi. Hipotesis yang diuji adalah H0 = “Tidak terdapat otokorelasi
43
dalam model”. Daerah penolakan H0 dapat dijelaskan sebagai berikut : I
II
III
IV
V
Tolak H0, Otokorelasi Positif
Tidak dapat diputuskan
Terima H0, tidak ada otokorelasi
Tidak dapat diputuskan
Tolak H0, Otokorelasi negatif
0
dl
du
4-du
4-dl
4
-
Apabila nilai DW hitung terletak di daerah III, maka tidak ada otokorelasi.
-
Bila DW hitung terletak di daerah I, artinya ada otokorelasi positif.
-
Bila DW hitung terletak di daerah V, maka ada otokorelasi negatif.
-
Bila DW hitung terletak di daerah II dan IV, artinya tidak dapat diputuskan (daerah ragu-ragu)
3.2.5
Pengujian Kelayakan Model
3.2.5.1 Pengujian Nilai Koefesien Determinasi ( R2 ) Koefesien determinasi adalah rasio dari jumlah kuadrat regresi dengan jumlah kuadrat total. Kelayakan suatu model regresi dapat dilihat dari koefesien determinasi (R2) yang menunjukkan proporsi variasi dalam variabel dependen yang dijelaskan oleh variabel-variabel independen secara bersam-sama. R2 sangat dipengaruhi
oleh
penambahan
jumlah
variabel
penjelas,
maka
untuk
menyesuaikannya digunakan adjusted R2 (R2adj), yang dirumuskan sebagai berikut: (3.11) atau (3.12) (3.13) dimana :
44
0 < R2, R2adj < 1 2
Residual Sum of Square = RSS = ∑ei = ∑( ŷi Explained Sum of Square = ESS = ∑( yi Total Sum of Square = TSS = ∑ yi
– ў)2
– ŷi)2
2
3.2.5.2 Pengujian Koefesien Regresi Secara Simultan Pengujian
koefesien
regresi
secara
simultan
dilakukan
dengan
menggunakan tabel ANOVA atau tabel Estimate Equation pada Eviews dengan hipotesis sebagai berikut : Ho : bi = 0, untuk semua i Ha : sekurang-kurangnya satu bi ≠ 0 , i = banyak parameter Statistiki uji F yang digunakan dalam pengujian koefesien regresi secara simultan adalah :
(3.14)
Ho ditolak jika Fobs > Fα;(p-1)(n-p) yang berarti ada pengaruh dari variabel independen terhadap variabel dependen yaitu indeks harga saham gabungan. 3.2.5.3 Pengujian Koefesien Regresi Secara Parsial Pengujian koefesien regresi secara parsial menggunakan statistik uji t, dengan hipotesis sebagai berikut: Ho : bi = 0, (tidak ada pengaruh variabel X terhadap variabel Y) Ha : bi ≠ 0, (ada pengaruh variabel X terhadap variabel Y)
45
Statistik uji : (3.15) Ho ditolak jika tobs > tα/2;(n-p) yang berarti ada pengaruh dari variabel independen terhadap variabel dependen yaitu indeks harga saham gabungan