BAB III METODE PENELITIAN
3.1.
Jenis dan Sumber Data Sumber data yang digunakan dalam penelitian ini adalah data sekunder
bersumber dari Badan Pusat Statistik (BPS) dan Bank Indonesia (BI). Data yang digunakan dalam analisis statistik regresi linier berganda adalah data time series triwulanan. Adapun data yang digunakan adalah: 1. Data pengeluaran rumahtangga yang diperoleh dari data PDRB penggunaan atas harga konstan tahun 2000 selama periode tahun 2000 – 2010. 2. Data pendapatan nasional yang diperoleh dari data PDB penggunaan atas harga konstan tahun 2000 selama periode tahun 2000 – 2010. pendapatan nasional diperoleh dari nilai Produk Domestik Bruto (PDB) dikurangi dengan pendapatan faktor produksi netto dari luar negeri, pajak tidak langsung netto, dan penyusutan. 3. Data suku bunga tabungan selama periode tahun 2000 – 2010 yang meliputi semua jenis bank. 4. Data laju inflasi yang diperoleh dari perubahan Indeks Harga Konsumen (IHK) yang telah diolah dengan tahun dasar 2000 selama periode tahun 2000 – 2010. 5. Data pertumbuhan investasi selama periode tahun 2000 – 2010.
40
3.2.
Metode Analisis Data
3.2.1. Analisis Statistik Deskriptif Analisis statistik diskriptif digunakan untuk memberikan gambaran umum secara sederhana dinamika variabel ekonomi yang digunakan dalam analisis regresi dari tahun 2000-2010 dan variabel nonekonomi lainnya. Beberapa variabel ekonomi
yang
akan
dijelaskan
meliputi
PDB,
pengeluaran
konsumsi
rumahtangga, pendapatan nasional, jumlah dan suku bunga tabungan, inflasi, dan pertumbuhan investasi. Sedangkan variabel nonekonomi yang akan dijelaskan meliputi penduduk, kemiskinan dan ketenagakerjaan. Semua variabel yang dianalisis ditunjukan melalui bantuan tabel dan grafik untuk mempermudah interpretasi dan gambaran baik kondisi ekonomi maupun nonekonomi Indonesia. 3.2.2. Analisis Regresi Linier Berganda Regresi merupakan suatu metode yang digunakan untuk menganalisis hubungan antara variabel tak bebas (dependent variable) dan variabel bebas (independent variable). Model yang diperoleh disebut model regresi linear berganda jika variabel bebas yang digunakan lebih dari satu. Dalam penelitian ini, regresi linear berganda digunakan untuk melihat pengaruh variabel independen terhadap variabel dependen. Model yang dihasilkan akan mampu menggambarkan seberapa besar pengaruh masing-masing variabel independen melalui koefisien parameternya. Persamaan regresi linier berganda adalah : Y = β0 + β1X1 + β2X2 + β3X3 + ..... + βnXn + εt Keterangan :
41
Y
= Variabel tidak bebas (dependen)
β0
= Konstanta (intercep)
β1,…, βn
= Koefisien regresi
X1,…, Xn
= Variabel bebas (independen)
εt
= Error (kesalahan pengganggu) pada waktu t Variabel-variabel yang digunakan dalam model regresi linier berganda
dari fungsi konsumsi rumahtangga pada penelitian ini adalah sebagai berikut: 1) Variabel tidak bebas Variabel tidak bebas yang digunakan adalah nilai pengeluaran konsumsi rumahtangga yang diperoleh dari PDB penggunaan selama tahun 2000 – 2010 dalam satuan triliun rupiah. 2) Variabel bebas Ada lima variabel bebas yang dimasukkan dalam model fungsi konsumsi rumahtangga.
Pertama adalah nilai pendapatan nasional dihitung dalam
satuan triliun rupiah, kedua adalah tingkat suku bunga tabungan dalam satuan persen, ketiga adalah tingkat inflasi dalam satuan persen, keempat adalah pertumbuhan investasi dalam satuan persen, dan kelima adalah variabel dummy kenaikan BBM. Model analisis yang digunakan dalam penelitian untuk menguji permasalahan terkait faktor-faktor yang memengaruhi konsumsi rumahtangga, digunakan persamaan regresi linier berganda sebagai berikut:
42
HC = β0 + β1NI + β2SIR + β3INF + β4INV + β5DUM + ε Dimana: HC
= Pengeluaran konsumsi rumahtangga (triliun)
NI
= Pendapatan nasional (triliun)
SIR
= Suku bunga tabungan (persen)
INF
= Laju inflasi (persen)
INV
= Pertumbuhan investasi (persen)
DUM
= Dummy kenaikan BBM(DUM=0, tidak ada kenaikan BBM, DUM=1, ada kenaikan BBM)
β0
= Konstanta
β1, β2, β3, β4, β5
= Koefisien regresi masing-masing variabel
3.2.2.1.
Asumsi Regresi Linier Berganda
Ada empat asumsi yang harus dipenuhi untuk membentuk sebuah model persamaan regresi linier berganda, yaitu: a.
Asumsi Normalitas atau i ~ N (0, 2 ) Maksudnya adalah setiap sisaan (i,
i=1,2,3,..,n)
distribusikan secara normal
dengan rata-rata nol dan varians sama dengan 2. b.
Asumsi Autokorelasi Autokorelasi mengandung arti ada korelasi atau hubungan yang berurutan antara sisaan dari suatu observasi dengan sisaan observasi yang lain. tidak ada hubungan yang berurutan antar sisaan
Jika
dikatakan tidak ada
43
autokorelasi. Misalkan i dan j menyatakan residual dari variabel sisaan i dan j, maka: cov(μi, μj | XiXj) = E[(μi – E(μi)|Xi)][(μj – E(μj)|Xj)] cov(μi, μj | XiXj) = E[(μi|Xi).E(μj|Xj) = 0, untuk tiap i ≠ j c.
Asumsi Heteroskedastisitas Secara teknis homoskedastisitas atau penyebaran sama adalah asumsi yang menyatakan bahwa sisaan dari observasi memiliki varians yang sama. var(μi | Xi) = E[μi – E(μi|Xi)]2 = E(μi2)|Xi) = σ2. Maksudnya adalah varian dari kesalahan pengganggu merupakan suatu konstanta positif yang sama dengan σ2. Jika var(μi | Xi) ≠ σ2 maka dapat disimpulkan terjadi heteroskedastisitas antar sisaan dalam model.
d.
Asumsi Multikolinearitas Artinya adalah tidak terdapat hubungan linier yang pasti antara variabelvariabel bebas yang menjelaskan.
Metode kuadrat terkecil akan menghasilkan estimator yang mempunyai sifat linier, tidak bias dan mempunyai varian yang minimum atau biasa disebut Best Linier Unbiased Estimator (BLUE) jika memenuhi keempat asumsi tersebut. 3.2.2.2.
Pemeriksaan dan Pengujian Asumsi Model
Pemeriksaan dan pengujian asumsi dilakukan untuk melihat ada atau tidaknya pelanggaran terhadap keempat asumsi dalam model regresi linier berganda dengan metode OLS. Tiga asumsi yang pertama, yakni kenormalan, autokorelasi dan heteroskedastisitas berkaitan dengan sisaan dalam model, sehingga jika salah satu tidak terpenuhi maka estimator menjadi kurang valid atau
44
tidak efisien dan tidak bersifat BLUE. Sedangkan asumsi multikolinieritas berkaitan dengan hubungan yang kuat antarvariabel bebas. Jika asumsi multikolinieritas tidak terpenuhi, estimator masih bersifat BLUE namun memiliki varian dan kovarian yang besar sehingga sulit dipakai sebagai alat estimasi. a. Uji Kenormalan Pemeriksaan asumsi ini bertujuan untuk mengetahui apakah distribusi dari residual menyebar normal dengan rata-rata nol dan varian σ2. Salah satu metode yang banyak digunakan untuk menguji normalitas adalah Jarque-Bera test. Uji ini mengukur perbedaan skewness dan kurtosis data dan dibandingkan dengan apabila datanya bersifat normal. Hipotesis yang digunakan adalah : H0
: Error berdistribusi normal.
H1
: Error tidak berdistribusi normal. Uji statistik ini dapat dihitung dengan rumus berikut :
JB
n 2 1 2 S K 3 6 4
dimana: n
= jumlah sampel (degrees of freedom)
S
= skewness
K
= kurtosis
45
Jarque-Bera test mempunyai distribusi chi square (χ2) dengan derajat bebas dua. Jika hasil Jarque-Bera test lebih besar dari nilai chi square pada α = 5 persen, maka tolak hipotesis nol yang berarti error tidak berdistribusi normal. Jika hasil Jarque-Bera test lebih kecil dari nilai chi square pada α = 5 persen, maka terima hipotesis nol yang berarti error berdistribusi normal. b. Uji Autokorelasi Autokorelasi
menggambarkan
terdapatnya
hubungan
antar
error. Adanya autokorelasi ini menyebabkan parameter yang akan diestimasi menjadi tidak efisien. Untuk menguji ada tidaknya autokorelasi menggunakan Breusch-Godfrey Serial Correlation LM Test. Hipotesis uji ini adalah : H0
: Tidak ada masalah otokorelasi
H1
: Ada masalah otokorelasi Jika nilai Obs* R-squared > nilai kritis maka H0 ditolak yang berarti
terdapat autokorelasi atau P-value < α maka H0 ditolak yang berarti terdapat autokorelasi. Beberapa cara untuk mengatasi autokorelasi antara lain : 1.
Menambahkan variabel Auto Regressive.
2.
Menambahkan lag variabel independen atau lag variabel dependen.
3.
Dengan melakukan differencing atau melalukan regresi nilai turunan.
c. Uji Heteroskedastisitas Ada beberapa metode yang dapat digunakan untuk mendeteksi ada tidaknya masalah heteroskedastisitas antara lain uji Breusch-Pagan-Godfrey
46
test dan White test.
White test merupakan generalisasi dari Breusch-Pagan-
Godfrey test yang juga memasukkan nilai residual yang dikuadratkan, tetapi mengeluarkan unsur-unsur yang
memiliki
order
yang
lebih
tinggi.
Konsekuensinya White test digunakan untuk mendeteksi bentuk-bentuk yang lebih umum dari heteroksedastisitas dibandingkan dengan Breusch-Pagan test. Hal ini menyebabkan para peneliti lebih banyak menggunakan Breusch-PaganGodfrey test untuk mendeteksi ada tidaknya masalah heteroskedatisitas. Breusch-Pagan heteroskedastisitas.
test
Metode
merupakan ini
lagrange
multiplier
merupakan perhitungan
yang
test
untuk
sederhana
menggunakan R square (R2) dari beberapa persamaan yang diregresikan. Rumus Breusch-Pagan-Godfrey test dinyatakan sebagai berikut:
dimana: h = unsur yang tidak diketahui, yaitu fungsi yang diturunkan secara kontinu (tidak tergantung pada i) sehingga h(.) > 0 dan h(0) = 1. s = varian z = variabel yang memengaruhi distrubance terms variance.
Hipotesisnya adalah: H : Tidak terdapat heteroskedastistas 0
47
H : Terdapat heteroskedastisitas 1
Rumus
paling
sederhana
dari
Breusch-Pagan-Godfrey
test dapat
dihitung sebagai hasil kali antara jumlah observasi (N) dan R2. Secara matematika dirumuskan sebagai berikut:
Breusch-Pagan test mempunyai distribusi chi square dengan derajat bebas satu. Apabila chi square hitung lebih besar dari chi square tabel pada α = 5 persen, maka tolak hipotesis nol yang berarti terjadi heteroskedastisitas. Apabila chi square hitung lebih kecil dari chi square tabel pada
α=5
persen, maka terima hipotesis nol yang berarti tidak ada heteroskedastisitas. d. Uji Multikolinieritas Asumsi terakhir yang harus dipenuhi dalam melakukan analisis regresi linier berganda adalah tidak adanya multikolinieritas atau hubungan linier diantara variabel-variabel bebasnya.
Ada beberapa metode untuk mendeteksi adanya
multokolinieritas dalam sebuah model. Cara yang pertama adalah dengan melihat nilai R2 dari model serta korelasi (R) antarvariabel bebas. Jika terdapat korelasi yang tinggi atar 2 variabel bebas (R>0,85) maka diindikasikan terjadi masalah multikolinearitas
dalam
persamaan
tersebut
(Widarjono,
2009).
Multikolinearitas ini terbagi menjadi 2 yakni multikolinearity sempurna apabila r = 1 dan multikolinearity tidak sempurna apabila r <1. Cara yang kedua adalah dengan metode deteksi Klien, yakni dengan membandingkan antara koefisien determinasi dari regresi auxilary dengan
48
koefisien determinasi dari model regresi aslinya. Rule of thumb dari metode deteksi Klien adalah jika nilai koefisien determinasi dari regresi auxilary lebih besar dari koefisien determinasi dari model regresi aslinya maka pada model tersebut terjadi multikolinieritas. Sebaliknya, jika nilai koefisien determinasi dari regresi auxilary lebih kecil dari koefisien determinasi dari model regresi aslinya maka pada model tersebut tidak terjadi multikolinieritas. Terdapat beberapa pilihan untuk mengatasi masalah multikolinieritas. Pilihan pertama adalah membiarkan model tetap mengandung multikolinieritas karena model tetap menghasilkan estimator yang BLUE. Multikolinieritas hanya menyebabkan kesulitan dalam memperoleh estimator yang memiliki standard error yang kecil. Pilihan kedua adalah dengan memperbaiki model (Gujarati, 1995). Pada pilihan kedua ini terdapat tiga cara yaitu menghilangkan variabel bebas yang mempunyai hubungan linier yang kuat dengan variabel bebas lainnya, melakukan transformasi variabel dan melakukan proses penambahan data . 3.2.2.3.
Pengujian Parameter Model
Tahapan yang dilakukan setelah model fungsi produksi didapatkan adalah dengan melakukan pengujian hipotesis secara statistik terhadap semua parameter dalam model. Tujuannya adalah untuk menguji kelayakan model dan menguji apakah koefisien yang diestimasi telah sesuai dengan teori atau hipotesis. Beberapa pengujian secara statistik yang dilakukan terhadap paremeter model adalah uji koefisien determinasi (R2), uji koefisien regresi parsial (uji t) dan uji koefisien regresi secara menyeluruh (F-test/uji F).
49
3.2.2.3.1. Uji Koefisien Determinasi (R2) Uji kesesuaian (goodness of fit) dilakukan dengan melihat nilai koefisien determinasi (R2) yang dihasilkan oleh model. Nilai R2 menunjukkan seberapa besar variabel bebas secara bersama-sama mampu menjelaskan proporsi keragaman variabel tidak bebasnya, atau berapa persen tingkat output dapat dijelaskan oleh faktor-faktor produksi yang digunakan. Koefisien determinasi merupakan nilai korelasi yang dikuadradkan, sehingga nilainya selalu positif dan berkisar antara nol sampai satu. Nilai R2 yang semakin mendekati nol menyatakan hubungan antara variabel tidak bebas dan variabel bebas tidak kuat atau dengan kata lain perubahan pada variabel tidak bebas lebih banyak dijelaskan oleh faktor lain di luar model. Sebaliknya, Nilai R2 yang mendekati satu memiliki arti hubungan antara variabel tidak bebas dan variabel bebas sangat kuat atau dengan kata lain perubahan pada variabel tidak bebas lebih banyak dijelaskan oleh variabel dari dalam model atau model yang dibuat sudah mendekati sempurna. Koefisien determinasi (R2) dapat dihitung menggunakan persamaan sebagai berikut: 2 ˆ 2 xi2 SSR SSE yˆ i R 1 SSE SST y i2 yi2 2
Keterangan: R2
: Koefisien Determinasi
SSR
: Jumlah Kuadrat Regresi (Sum Square Residual)
SSE
: Jumlah Kuadrat Error (Sum Square Error)
50
SST
: Jumlah Kuadrat Total (Sum Square Total)
3.2.2.3.2. Uji Koefisien Regresi Secara Menyeluruh (F-test/uji F) Tingkat kekuatan hubungan antara variabel tidak bebas dengan semua variabel bebas yang menjelaskan secara menyeluruh dalam sebuah persamaan regresi dapat diketahui dengan menggunakan uji statistik F. Prosedur pengujian dengan uji F adalah sebagai berikut: 1) Menyusun hipotesis H0: β0= β1= …= βk = 0 atau tidak ada pengaruh dari variabel bebas Xi terhadap variabel tidak bebas Y. H1: minimal ada satu i 0 artinya minimal ada satu variabel bebas Xi yang memengaruhi Y (i=1,2,3,…,k). 2) Mencari nilai F hitung yang dinyatakan dalam bentuk matematis sebagai berikut : 2 SSR /( k 1) yˆ i (k 1) MSR R 2 /( k 1) Fobs SSE /( n k ) ei2 (n k ) MSE 1 R 2 /( n k )
dimana: SSR = jumlah kuadrat regresi
MSR = rata-rata kuadrat regresi
SSE = jumlah kuadrat sisaan
MSE = rata-rata kuadrat sisaan
k
n
= jumlah parameter
= jumlah sampel
3) Pengambilan keputusan untuk menerima atau menolak H0 adalah dengan membandingkan nilai F hitung dengan F fabel atau dengan melihat nilai signifikansi (probabilitas) dalam output hasil pengolahan.
51
Jika Fobs > Ftabel (α;k-1,n-k) atau probabilitas F kurang dari =0,05 maka H0 ditolak dan H1 diterima. Artinya secara bersama-sama variabel-variabel bebas mempunyai pengaruh yang signifikan terhadap variabel tidak bebas. Jika Fobs < Ftabel
(α;k-1,n-k)
atau probabilitas F lebih dari =0,05 maka H0
diterima dan H1 ditolak. Artinya varibel bebas secara bersama-sama tidak mempunyai pengaruh yang signifikan terhadap variabel tidak bebas. 3.2.2.3.3. Uji Koefisien Regresi Parsial (uji t) Uji koefisien regresi secara parsial (uji t) digunakan untuk menguji tingkat signifikansi masing-masing koefisien variabel bebas secara individu terhadap variabel tidak bebas. Beberapa langkah dalam pengujian koefisien regresi secara parsial (uji t) adalah sebagai berikut : 1) Menyusun hipotesis untuk masing-masing koefisien regresi H0 : βi = 0
artinya tidak ada pengaruh variabel bebas X i terhadap variabel tidak bebas Y.
H1 : βi ≠ 0
artinya ada pengaruh variabel bebas X i terhadap variabel tidak bebas Y, i = 0,1,2, ... k
2) Mencari nilai t hitung untuk masing-masing koefisien regresi dan mencari nilai t tabel. Nilai t hitung dapat dihitung dengan rumus sebagai berikut.
t obs
ˆ i i*
se ˆ i
ˆ i se( ˆ i )
dimana i* adalah nilai pada H0.
52
3) Membandingkan nilai t hitung dengan t tabel atau dengan melihat nilai signifikansi (probabilitas) untuk membuat keputusan menolak atau menerima H0. Alternatif keputusannya adalah: jika t obs t / 2;( n k ) atau probabilitas t kurang dari =0,05, maka H0 ditolak atau H1 diterima. H0 ditolak berarti bahwa variabel bebas ke-i berpengaruh secara signifikan terhadap variabel tidak bebas yang diteliti. Jika nilai t obs t / 2;( n k ) atau probabilitas t lebih dari =0,05, maka H0 diterima atau H1 ditolak. H0 diterima berarti bahwa variabel bebas ke-i tidak berpengaruh secara signifikan terhadap variabel tidak bebas yang diteliti. Berdasarkan hasil pengujian secara parsial dengan uji-t, dapat diketahui variabel bebas yang berpengaruh secara signifikan maupun yang tidak berpengaruh secara signifikan terhadap model estimasi. 3.3.
Software Analisis Data Penggunaan alat bantu penghitungan dalam analisis diskriptif maupun
dalam analisis statistik sangat diperlukan dalam penelitian ini. Dalam mengolah data dan menyelesaikan penelitian ini, penulis menggunakan bantuan beberapa software. Software tersebut adalah sebagai berikut :
53
1. Microsoft Excel 2003 Microsoft Excel merupakan perangkat lunak buatan Microsoft Corp. Software ini digunakan dalam pembuatan tabel dan grafik serta beberapa pengolahan data. 2. EViews 6.0 Eviews merupakan program komputer yang digunakan untuk mengolah data statistik dan data ekonometri. Program EViews dibuat oleh QMS (Quantitative Micro Software). Software ini digunakan dalam mengolah persamaan model regresi.