BAB III METODOLOGI PENELITIAN
3.1.
Jenis dan Sumber Data Jenis data yang digunakan dalam penelitian ini adalah data sekunder (time
series) yang diperoleh dari beberapa lembaga dan instansi pemerintah, antara lain berasal dari Badan Pusat Statistik (BPS) Provinsi Jawa Timur, Badan Koordinasi Penanaman Modal Provinsi Jawa Timur dan Bank Indonesia serta beberapa situs website yang mendukung dan berhubungan dengan penelitian ini. Data-data yang digunakan adalah data penanaman modal asing yang disetujui pemerintah Provinsi Jawa Timur, PDRB Provinsi Jawa Timur atas dasar harga berlaku, keterbukaan ekonomi, inflasi dan upah minimum provinsi. Tabel 3.1. Variabel-Variabel yang Digunakan dalam Penelitian Variabel
Satuan
Penanaman Modal Asing yang disetujui
000 USD
Produk Domestik Regional Bruto (PDRB) Provinsi Jawa Timur atas dasar harga berlaku
Sumber
Simbol
Badan Koordinasi Penanaman Modal (BKPM) Provinsi Jawa Timur
PMA
Juta Rp
Badan Pusat Statistik (BPS) Provinsi Jawa Timur
PDRB
Keterbukaan ekonomi dengan proxy rasio jumlah ekspor dan impor terhadap PDRB
persen
Badan Pusat Statistik (BPS) Provinsi Jawa Timur
OPEN
Inflasi
persen
Badan Pusat Statistik (BPS) Provinsi Jawa Timur
INF
Upah Minimum Provinsi
Rupiah
Badan Pusat Statistik (BPS) Provinsi Jawa Timur
UMP
29
Data yang digunakan dalam penelitian ini merupakan data tahunan periode 1996 sampai dengan periode 2010. Tabel 3.1 menjelaskan tentang variabelvariabel yang digunakan dalam penelitian ini beserta satuan, sumber dan simbolnya.
3.2.
Metode Analisis Data Penelitian ini dilakukan untuk mengidentifikasi faktor-faktor yang
mempengaruhi Penanaman Modal Asing (PMA) di Provinsi Jawa Timur. Memberikan gambaran tentang perkembangan penanaman modal asing periode 1996-2010 kepada Pemerintah Provinsi Jawa Timur sehingga dapat dijadikan sebagai acuan pengambilan kebijakan untuk mendorong peningkatan Penanaman Modal Asing (PMA) sebagai salah satu modal dalam melaksanakan pembangunan yang selanjutnya diharapkan dapat meningkatkan laju pertumbuhan ekonomi. Analisis kuantitatif dilakukan dengan menggunakan regresi linier berganda. Metode analisis data yang digunakan adalah Ordinary Least Square (OLS). Untuk memudahkan dalam melakukan pengolahan data yang digunakan dalam penelitian ini, maka data tersebut dimasukkan ke dalam Microsoft Exel dan diolah dengan menggunakan Eviews 6.0.
3.2.1. Analisis Deskriptif Analisis deskriptif merupakan analisis penggambaran dari apa yang akan dibicarakan lebih jauh. Adapun penyajiannya digunakan uraian dan grafik.
30
Analisis ini digunakan untuk menggambarkan keberadaan penanaman modal asing di Provinsi Jawa Timur. Dalam penelitian ini, analisis deskriptif yang digunakan menekankan pada aspek perkembangan aliran penanaman modal asing serta aliran penanaman modal asing per sektor.
3.2.2. Metode Regresi Linier Berganda Analisis regresi merupakan suatu alat analisis untuk mengetahui pengaruh variabel bebas terhadap variabel tak bebas yang dinyatakan dalam koefisien regresi. Variabel bebas adalah variabel yang nilainya dapat ditentukan dan bersifat menerangkan variabel tak bebas yang nilainya tergantung kepada variabel bebas. Dalam analisis regresi diketahui dua bentuk model yaitu model persamaan tunggal dan model persamaan simultan. Pada model persamaan tunggal ada satu variabel tak bebas Y yang diterangkan oleh satu atau beberapa variabel X. Sementara dalam persamaan simultan suatu variabel Y tidak hanya ditentukan oleh variabel X tetapi beberapa variabel X juga ditentukan oleh variabel Y atau ada dua variabel Y1 dan Y2 yang dipengaruhi secara bersama-sama oleh suatu variabel X. Adapun dalam penelitian ini menggunakan analisis regresi dengan model persamaan tunggal yaitu analisis regresi linier berganda. Ordinary Least Square (OLS) merupakan salah satu metode yang sering digunakan karena kemudahannya dalam mengolah data. Gujarati (1993) menyatakan bahwa ada beberapa asumsi yang harus dipenuhi dalam model ini diantaranya adalah :
31
1.
Semua penaksir tak bias linier atau penaksir OLS mempunyai varians minimum.
2.
Varians tiap unsur disturbance ei tergantung (conditional) pada nilai yang dipilih dari variabel yang menjelaskan adalah suatu angka konstan yang sama dengan
yang merupakan asumsi homoskedastisitas yaitu varians
yang sama. 3.
Tidak ada autokorelasi artinya tidak ada korelasi antara anggota serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau seperti dalam data cross sectional.
4.
Variabel yang menjelaskan adalah non stokastik yaitu terdiri dari angkaangka yang tetap (fixed) dan ei didistribusikan secara normal.
5.
Tidak ada multikolinearitas antara variabel yang menjelaskan X. Jika asumsi ini terpenuhi maka penaksiran OLS koefisien regresi menjadi
BLUE (Best Linier Unbiassed Estimator). Salah satu regresi dalam OLS adalah regresi berganda. Analisis regresi linier berganda menunjukkan hubungan sebab akibat antara variabel X (variable eksogen) yang merupakan penyebab dari variabel Y (variable endogen) yang merupakan akibat. Analisis regresi linier berganda digunakan untuk menguraikan pengaruh varibel-variabel yang menjelaskan (eksogen) yang mempengaruhi varibel bebasnya (endogen). Regresi linier berganda tidak hanya melihat keterkaitan antar variabel-variabel namun juga mengukur besarnya hubungan kausalitasnya.
32
3.2.3. Model Umum Analisis Regresi Linier Berganda Gujarati (1993), model umum analisis regresi linier berganda dapat dituliskan sebagai berikut : (3.1.) Dimana : Y
: Variabel endogen atau variabel tak bebas
i
: Periode : Intersep atau nilai Y saat X = 0 : Variabel eksogen atau variabel bebas : Parameter dari : Error term atau derajat kesalahan
3.2.4. Model Analisis Penelitian Dalam penelitian ini variabel yang digunakan dalam menganalisis faktorfaktor yang mempengaruhi PMA di Provinsi Jawa Timur adalah PDRB dan nilai tukar rupiah terhadap dolar Amerika. PDRB digunakan karena PDRB menggambarkan besarnya pangsa pasar, nilai tukar menggambarkan kestabilan moneter suatu Negara/wilayah. Sehingga model analisis regresi linier berganda dalam penelitian ini adalah sebagai berikut : (3.2) Dimana : PMA
: Penanaman Modal Asing (000 USD)
PDRB
: Produk Domestik Regional Bruto (Juta Rupiah)
33
OPEN
: Keterbukaan ekonomi (persen)
INF
: Inflasi (persen)
UMP
: Upah minimum provinsi (Rupiah) : Error term atau derajat kesalahan
3.3.
Pengujian Kriteria Ekonomi dan Statistik Pengujian dapat dilakukan dengan kriteria ekonomi dan statistik.
Pengujian kriteria ekonomi dilakukan untuk melihat besaran dan tanda parameter yang akan diestimasi, apakah sesuai dengan teori atau tidak. Sedangkan pengujian statistik dimaksudkan untuk mengetahui apakah model yang digunakan merupakan model yang tepat untuk menggambarkan hubungan antar variabel. Selain itu untuk mengetahui apakah ada hubungan yang signifikan diantara variabel-variabel dependen dengan variabel independen.
3.3.1. Uji t Uji t digunakan untuk melihat apakah masing-masing variabel bebas (variable eksogen) secara parsial berpengaruh pada variabel tak bebasnya (variable endogen). Selain itu juga untuk melihat keabsahan dari hipotesis dan membuktikan bahwa koefisien regresi dalam model secara statistik signifikan atau tidak. Hipotesis :
:
=0
:
≠ 0,I = 1,2,3,…,n.
34
Statistik uji yang dilakukan dalam uji t adalah sebagai berikut : (3.4) Hasil t-hitung dibandingkan dengan t-tabel
.
Dimana : b
: Koefisien regresi parsial sampel
B
: Koefisien regresi parsial populasi
Sb
: Simpangan baku koefisien dugaan
Kriteria uji yang digunakan dalam melakukan uji-t adalah sebagai berikut : 1.
Apabila nilai t-hitung lebih besar dari nilai
, maka tolak H0. Hal
ini berarti bahwa variabel yang digunakan berpengaruh nyata terhadap variabel tak bebas (variable endogen). 2.
Apabila nilai t-hitung lebih kecil dari nilai
, maka terima H0. Hal
ini berarti variabel yang digunakan tidak berpengaruh nyata terhadap variabel tak bebas (variabel eksogen).
3.3.2. Uji F Uji F dilakukan untuk melihat apakah variabel-variabel bebas (variable eksogen) secara serempak berpengaruh nyata pada variabel terikatnya (variable endogen). Apabila uji F lebih kecil dari taraf nyata
artinya H0 diterima, hal ini
menandakan bahwa ada minimal satu variabel yang berpengaruh secara signifikan atau berpengaruh nyata pada keragaman variabel terikatnya. Mekanisme untuk menguji hipotesis dari parameter dugaan secara serentak (uji F-statistik) adalah sebagai berikut :
35
:
Hipotesis :
: minimal ada satu Untuk
i = 1, 2, 3, …, k = dugaan parameter
Statistik uji yang dilakukan dalam uji-F adalah sebagai berikut : ⁄
(3.5)
⁄
Keterangan : , dimana :
Hasil dari F-hitung dibandingkan dengan F-tabel (F-tabel = R2
= Koefisien determinasi
n
= Banyaknya data
K
= Jumlah koefisien regresi dugaan Kriteria uji yang digunakan dalam pengujian model penduga adalah
sebagai berikut : 1.
Apabila nilai F-hitung lebih besar dari
, maka tolak H0.
Maksudnya adalah terdapat minimal parameter dugaan yang tidak nol dan berpengaruh nyata terhadap keragaman variabel tak bebas. 2.
Apabila nilai F-hitung lebih kecil dari
, maka terima H0. Hal ini
berarti secara bersamaan variabel yang digunakan tidak bisa menjelaskan secara nyata keragamaan dari variabel tak bebas.
3.3.3. Uji Koefisien Determinasi (R2) Uji koefisien determinasi R2 (R2 adjusted) digunakan untuk melihat sejauh mana variabel bebas mampu menerangkan keragaman variabel terikatnya. Nilai
36
R2 mengukur tingkat keberhasilan model regresi yang digunakan dalam memprediksi nilai variabel terikatnya. Menurut Gujarati (1993) terdapat dua sifat R2 yaitu : 1.
Merupakan besaran non negatif.
2.
Batasnya adalah antara 0 dan 1. Jika R2 bernilai 1 berarti suatu kecocokan sempurna, sedangkan jika R2 bernilai 0 berarti tidak ada hubungan antara variabel terikat dengan variabel bebasnya.
R2
=
= 1= 1–
∑ ∑
a atau
=1-
(3.6)
(3.7)
Dimana : ESS
= Jumlah kuadrat yang dijelaskan (explained sum square)
TSS
= Jumlah kuadrat total (total sum square) = Varians residual = Varians sampel dari Y Salah satu masalah jika menggunakan ukuran R-squared untuk menilai
baik buruknya suatu model adalah mendapatkan nilai yang terus naik seiring dengan pertambahan variabel bebas ke dalam model sehingga adjusted R-squared secara umum memberikan penalty atau hukuman terhadap penambahan variabel bebas yang tidak mampu menambah daya prediksi suatu model. Nilai adjusted R-
37
squared tidak akan pernah melebihi nilai R-squared bahkan bisa turun jika ditambahkan variabel bebas yang tidak perlu. Bahkan model yang memiliki kecocokan rendah (goodness of fit), adjusted R-squared dapat memiliki nilai negative. Nilai Adjusted R-squared dapat dihitung sebagai berikut : (3.8) k adalah banyaknya parameter dalam model termasuk faktor intersep.
3.3.4.
Uji Kriteria Ekonometrika
1.
Uji Normalitas Kenormalan sisaan diperlukan agar dihasilkan nilai estimasi parameter
yang tidak bias, efisien dan konsisten. Selain itu, pengujian parameter dalam analisis regresi menggunakan nilai kritis distribusi t dan F yang keduanya berasal dari distribusi normal. Pemeriksaan kenormalan sisaan dapat dlakukan melalui Plot Persentil-Persentil (P-P Plot), jika nilai sisaan membentuk garis lurus maka sisaan berdistribusi normal. Pengujian asumsi kenormalan secara formal dapat dilakukan dengan uji Kolmogorov-Smirnov yang merupakan suatu uji mengenai tingkat kesesuaian antara distribusi serangkaian nilai sisaan dengan distribusi normal. Hipotesis yang digunakan adalah : H0 : distribusi sisaan mengikuti distribusi normal H1 : distribusi sisaan tidak mengikuti distribusi normal
38
Statistik uji : D = maksimum F0(Xi) – Sn(Xi) dengan i = 1, 2, 3, …, n. F0(X) merupakan distribusi frekuensi kumulatif teoritis mengikuti distribusi normal, sedangkan Sn(X) merupakan distribusi frekuensi kumulatif sisaan yang diamati sesuai jumlah sampel. Pada pengujian dengan tingkat kepercayaan sebesar (1-α) persen dapat diambil keputusan menerima H0 jika D < Dtabel dan menolak H0 jika D ≥ Dtabel. Dtabel merupakan nilai kritis dari tabel Kolmogorov-Smirnov. Selain itu pengambilan keputusan dapat didasarkan pada nilai p-value yaitu jika p-value ≥ α maka H0 diterima, sedangkan jika p-value < α maka H0 ditolak.
2.
Autokorelasi Secara harfiah autokorelasi berarti adanya korelasi antara anggota
observasi dengan observasi lain yang berlainan waktu atau disebut juga serial correlation. Menurut Gujarati (1993), dalam model regresi akan terjadi autokorelasi apabila terjadi bentuk fungsi yang tidak tepat, peubah penting dihilangkan dari model, terjadi interpolasi data. Untuk mendeteksi ada tidaknya autokorelasi first degree dapat digunakan nilai Durbin-Watson (DW) dari hasil regresi, namun untuk melihat autokorelasi pada tingkat yang lebih tinggi digunakan Uji Breuch Godfrey Serrial Corelation Lagrange LM Test. Autokorelasi akan menyebabkan diantaranya sebagai berikut : a.
Dugaan parameter tidak bias.
b.
Nilai galat baku mengalami autokorelasi, sehingga ramalan tidak efisien.
39
c.
Ragam galat tidak jelas.
d.
Terjadi pendugaan kurang tepat pada ragam galat (standar error underestimated), sehingga Sb underestimated. Oleh karena itu, t overestimate cenderung lebih besar dari yang sebenarnya. H0 = β = 0 (tidak terdapat serial autokorelasi) H1 = β ≠ 0 (terdapat serial autokorelasi)
Kriteria uji yang digunakan untuk melihat adanya autokorelasi adalah sebagai berikut : 1.
Apabila nilai obs*R-squared lebih besar dari taraf nyata yang digunakan, maka model persamaan yang digunakan tidak mengalami masalah autokorelasi.
2.
Apabila nilai obs*R-squared lebih kecil dari taraf nyata yang digunakan, maka model persamaan yang digunakan mengalami masalah autokorelasi.
Solusi dari masalah autokorelasi yaitu dengan menghilangkan variabel yang sebenarnya tidak berpengaruh terhadap variabel bebas. Jika terjadi kesalahan dalam spesifikasi model, hal ini dapat diatasi dengan mentransformasi model, misalnya dari model linier menjadi non linier atau sebaliknya.
3.
Heterokedastisitas Seringkali pada data yang dianalisis ditemukan masalah varians residual
yang bervariasi (heterokedastisitas), sementara itu analisis regresi menghendaki asumsi
bahwa
residual
memiliki
varians
konstan
(homokedastisitas).
Heterokedastisitas terjadi apabila ada pelanggaran pada asumsi regresi. Hal
40
tersebut ditandai dengan varians tidak tetap. Heterokedastisitas tidak merusak sifat ketidakstabilan dan konsistensi dari penaksir OLS, tetapi penaksir dihasilkan tidak lagi mempunyai varians minimum (efisien). Menurut Gujarati (1993), jika terjadi heterokedastisitas maka akan berakibat sebagai berikut : 1.
Estimasi dengan menggunakan OLS tidak akan memiliki varians yang minimum atau estimator tidak efisien.
2.
Prediksi (nilai Y untuk X tertentu) dengan estimator dari data yang sebenarnya akan mempunyai varians yang tinggi, sehingga prediksi tidak efisien.
3.
Tidak akan ditetapkannya uji nyata koefisien atau selang kepercayaan dengan menggunakan formula yang berkaitan dengan varians.
Secara umum ada beberapa cara atau teknik yang dapat digunakan untuk mendeteksi adanya heterokedastisitas, yaitu : 1.
Uji Park.
2.
Uji Breusch Pagan Godfrey.
3.
Uji White (White General Heterokedastisity Test). Dalam penelitian ini untuk menguji ada tidaknya heterokedastisitas dengan
menggunakan Breusch Pagan Godfrey dan White General Heteroskedastisity Test. Kriteria uji yang digunakan untuk melihat adanya heterokedastisitas adalah jika nilai probability obs*R-squared lebih besar dari taraf nyata yang digunakan, maka
model
persamaan
yang
digunakan
tidak
mengalami
masalah
heterokedastisitas. Sebaliknya jika nilai probability obs*R-squared lebih kecil dari
41
taraf nyata yang digunakan, maka persamaan tersebut mengalami masalah heterokedastisitas. Untuk mengatasi masalah heterokedastisitas ada beberapa teknik, diantaranya : a. Metode Generalized Least Square (GLS). b. Transformasi dengan logaritma.
4.
Uji Multikolinearitas Pada regresi linier berganda digunakan lebih dari satu variabel bebas untuk
menjelaskan variabel tak bebas. Asumsi yang harus dipenuhi adalah bahwa antar variabel bebas ini tidak terdapat korelasi sehingga estimasi parameter koefisien regresi
dari
masing-masing
variabel
bebas
benar-benar
mencerminkan
pengaruhnya terhadap variabel tak bebas. Multikolinearitas terjadi apabila pada regresi linier berganda terjadi hubungan antar variabel bebas atau terjadi karena adanya korelasi yang nyata antar peubah bebas. Pelanggaran asumsi ini akan menyebabkan kesulitan untuk menduga yang diinginkan. Menurut Gujarati (1993), untuk mendeteksi ada tidaknya multikolinieritas adalah dengan memperlihatkan hasil probabilitas t-statistik hasil regresi. Jika banyak koefisien parameter yang diduga menunjukkan hasil yang tidak signifikan, maka hal ini mengindikasikan adanya multikolinieritas. Salah satu cara yang paling mudah untuk mengatasi pelanggaran ini adalah dengan menghilangkan salah satu variabel yang tidak signifikan tersebut. Hal ini sering tidak dilakukan karena dapat menyebabkan bias parameter spesifikasi pada model. Kemudian cara
42
lain adalah dengan mencari variabel instrumental yang berkorelasi dengan variabel terikat tetapi tidak berkorelasi dengan variabel bebas lainnya. Hal ini agak sulit dilakukan mengingat tidak adanya informasi tentang tipe variabel tersebut. Ada beberapa cara untuk mendeteksi ada tidaknya multikolinieritas, salah satunya yaitu melalui correlation matric, dimana batas terjadinya korelasi antar sesama variabel bebas adalah tidak lebih dari │0,80│. Selain correlation matric dapat juga menggunakan Uji Klien, apabila terdapat nilai korelasi yang lebih tinggi dari │0,80│, maka menurut Uji Klien multikolinieritas dapat diabaikan selama nilai korelasi tersebut tidak melebihi Adjusted R-squared. Jika tetap menggunakan OLS dalam menghitung estimasi parameter model regresi linier berganda yang mengandung multikolinieritas maka kita harus menghadapi konsekuensi sebagai berikut : 1.
Estimator yang dihasilkan masih merupakan BLUE (Best Linear Unbiased Estimator) tetapi memiliki varians dan kovarians yang besar sehingga sulit mendapatkan estimasi yang tepat.
2.
Interval estimasi akan cenderung melebar, sehingga nilai statistik hitung t akan kecil akibatnya variabel bebas tidak signifikan secara individual meskipun secara simultan signifikan.
3.
Nilai korelasi simultan R-square tinggi tetapi korelasi parsial rendah.
3.4.
Beberapa Kelemahan Metode Ordinary Least Square (OLS) Ketika menggunakan data runtun waktu (time series), seringkali muncul
kesulitan-kesulitan yang sama sekali tidak dijumpai pada saat menggunakan data
43
seksi silang (cross section). Sebagian besar kesulitan tersebut berkaitan dengan urutan pengamatan. Ada hal yang menjadi kelemahan metode Ordinary Least Square (OLS) dengan menggunakan data time series (Gujarati, 1993) antara lain : 1.
Suatu kondisi dimana satu variabel time series berubah secara konsisten dan terprediksi sebelum variabel lain yang ditentukan demikian. Jika suatu variabel mendahului variabel yang lain, tidak dapat dipastikan bahwa variabel pertama tersebut menyebabkan variabel lain berubah.
2.
Variabel-variabel independen Nampak lebih signifikan dari sebenarnya, yaitu apabila variabel-variabel itu memiliki trend menarik yang sama dengan variabel dependennya dalam kurun waktu periode sampel.
3.
Terkadang variabel time series tidak stasioner. Maksudnya rata-rata dan variannya tidak konstan sepanjang waktu dan nilai kovarian antara dua periode waktu tergantung dari jarak atau lag antara kedua periode dari waktu sesungguhnya dimana kovarian itu dihitung dan bukan dari periode pada waktu.
4.
Variabel time series terkadang tidak mempunyai kointegrasi yaitu dalam jangka waktu tertentu tidak terdapat keseimbangan.
5.
Sulit untuk menentukan kapan sebuah variabel tersebut penting sebagaimana dijelaskan dalam teori atau sebaliknya teorinya kurang jelas, maka akan muncul dilema.