BAB II KAJIAN PUSTAKA
2.1
Konsep Dasar Runtun Waktu Data runtun waktu (time series) merupakan data yang dikumpulkan,
dicatat, atau diobservasi sepanjang waktu secara berurutan. Periode waktu dapat berupa tahunan, bulanan, mingguan, kuartalan, serta pada beberapa kasus periode waktu dapat berupa hari atau jam. Dalam kasus ekonomi, analisis runtun waktu digunakan untuk menemukan pola variasi masa lalu yang dapat digunakan untuk : a.
Meramalkan nilai masa depan dan membantu dalam manajemen operasi bisnis.
b.
Membuat perencanaan bahan baku, fasilitas produksi, dan jumlah staf guna memenuhi permintaan di masa mendatang.
Ada dua jenis runtun waktu yaitu : a.
Deterministik yaitu apabila berdasarkan pengalaman masa lalu, keadaan yang akan datang dari suatu runtun waktu dapat ditentukan dengan pasti.
b.
Stokastik yaitu apabila berdasarkan pengalaman yang lalu hanya dapat ditentukan struktur probabilistik keadaan yang akan datang.
2.1.1
Plot data Langkah awal yang baik untuk menganalisis data runtun waktu adalah
memplot data tersebut secara grafis. Hal ini untuk mengetahui adanya trend atau pengaruh musiman pada data.
8
9
Analisis runtun waktu seperti pendekatan Box-Jenkins maupun Error Correction Model, mendasarkan analisis pada data runtun waktu yang stasioner. Suatu data runtun waktu dikatakan stasioner apabila tidak terdapat perubahan yang sistematis dalam rata-rata dan varians dari data runtun waktu tersebut. Untuk data yang stasioner apabila di plot data tersebut terhadap waktu maka akan sering melewati sebuah garis yang sejajar dengan sumbu horizotal, dan autokorelasinya akan menurun dengan teratur untuk lag yang cukup besar. Sebaliknya, untuk data yang “tidak stasioner”, varians menjadi semakin besar apabila jumlah data runtun waktu diperluas, dan tidak sering melewati sebuah garis yang sejajar dengan sumbu horizontal, serta autokorelasinya cenderung tidak menurun.
Misalnya , , … , adalah suatu runtun waktu yang stasioner, maka berlaku :
a.
b. c.
( ) = , untuk ∈ 1, 2, … ,
( ) = = , untuk sebarang
( , ) = ( − )( − ) = ∀ , dengan dan adalah
konstan untuk setiap !.
2.1.2
Fungsi Autokorelasi (Fak) Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual antar
pengamatan dalam suatu deret waktu. Autokovariansi adalah variansi bersama dari peubah yang sama yaitu dari data runtun waktu itu sendiri. Pada runtun waktu stasioner, kovariansi antara dan dirumuskan sebagai berikut :
( , ) = #$ % , % &' =
(2.1)
10
dengan menyatakan autokovariansi lag ke-(, sedangkan , ( = 0,1,2, … disebut fungsi autokovariansi. Korelasi antara dan didefinisikan sebagai berikut :
* =
( , )
+,( )( )-
=
dengan = ( ) = ( ), selanjutnya * disebut autokorelasi lag ke-(,
sedangkan * , ( = 0,1,2 … disebut fungsi autokorelasi (Fak), dengan * = 1. Pada prakteknya, * ditaksir oleh (autokorelasi sampel), dengan nilai : =
./ .0
=
2/ 1 10
(2.2)
dengan 8
1 3 = = 5(6 − 6̅)(6 − 6̅) 4 8
1 6̅ = 5 6 4
9
9
Fak ini berperan dalam mengidentifikasi model runtun waktu yang cocok,
yaitu dengan melakukan pemeriksaan terhadap nilai untuk mengetahui apakah nilainya secara efektif menuju nol setelah lag tertentu.
2.1.3
Fungsi Autokorelasi Parsial (Fakp)
Fungsi autokorelasi parsial digunakan untuk mengukur korelasi antara
dan . Fakp yaitu himpunan autokorelasi parsial untuk berbagai lag-(, didefinisikan sebagai berikut :
: =
|
, ( = 1, 2, …
(2.3)
11
dengan |> | adalah determinan matriks autokorelasi ( × ( yaitu 1 B * A |> | = A * A ⋮ @*
* 1 * ⋮ *
… * * … *C * H … *E *C GG ⋮ ⋮ G … * 1 F
dan |> ∗ | adalah determinan matriks autokorelasi ( × ( dengan kolom terakhir
* * diganti dengan I ⋮ J * 2.2
Analisis Regresi Analisis regresi merupakan suatu metode yang digunakan untuk
menganalisis hubungan antarpeubah. Hubungan tersebut dapat diekspresikan dalam bentuk persamaan yang menghubungkan peubah terikat (dependent variable) Y dengan satu atau lebih peubah bebas (independent variable) K , K … K . Terdapat dua jenis regresi yaitu regresi linier dan regresi tidak linier,
yang menjadi fokus tugas akhir ini adalah regresi linier. Apabila hanya terdapat
satu peubah bebas, maka model yang diperoleh dinamakan model regresi linear sederhana; sedangkan apabila peubah bebas yang digunakan lebih dari satu, model yang diperoleh dinamakan model regresi linear ganda.
2.2.1
Regresi Linear Sederhana Regresi linier sederhana merupakan hubungan antara peubah terikat Y
dan satu peubah bebas X. Bentuk umum regresi linier sederhana : LM = N + N KM + PM ; R = 1,2, … 4
(2.4)
12
dengan :
N = Konstanta (intercept)
N = Koefisien regresi untuk X N = Banyak observasi.
PM = Error
Adapun langkah-langkah yang harus dilakukan dalam mengestimasi parameter regresi linier sederhana sebagai berikut :
2.2.1.1 Penaksiran Parameter Dalam kenyataannya, semua observasi yang dilakukan tidak selalu berada tepat pada garis regresi. Melihat kenyataan tersebut, upaya terbaik yang harus dilakukan adalah dengan menentukan N dan N sedemikian sehingga nilai error
(PM ) yang ada pada persamaan (2.4) dapat diminimalkan.
Metode yang digunakan untuk mencapai penyimpangan atau error yang
minimum adalah metode kuadrat terkecil (Ordinary Least Square /OLS). Secara matematis, meminimalkan nilai error dengan metode OLS dapat dilakukan melalui langkah-langkah berikut :
PM = LM − N − N KM
PM = (LM − N − N KM )
5 PM = 5(LM − N − NKM ) M9
13
∑ PM akan minimum bila :
T 5 P = 0 ⇔ −2 5(LM − N − N KM ) = 0 TN M9
M9
M9
M9
T 5 P = 0 ⇔ −2 5 KM (LM − N − N KM ) = 0 TN Jika persamaan tersebut disusun kembali maka diperoleh apa yang disebut persamaan normal kuadrat terkecil sebagai berikut :
NV + NV 5 KM = 5 WM
M9
M9
NV 5 KM + NV 5 KM = 5 KM LM M9
M9
M9
Jika X adalah penaksir untuk N dan X adalah penaksir untuk N maka
diperoleh :
X = NV =
dengan :
∑M9 YM WM − (∑M9 YM )(∑M WM ) ∑M9 YM − (∑M9 YM )
X = NV = LZ − NV KZ KZ = LZ =
1 5 KM 4
1 5 LM 4
sehingga taksiran untuk persaman regresi di atas dapat ditulis sebagai W = X + X Y
(2.5)
Penaksir X dan X pada persamaan (2.5) belum tentu merupakan penaksir
tebaik untuk N dan N. Oleh karena itu, untuk mengetahui apakah X dan X
14
merupakan penaksir terbaik untuk N dan N akan dilakukan pemeriksaan model
(Herrhyanto, 2003) dengan sifat-sifat taksiran sebagai berikut : a)
Tak bias
Bila b adalah taksiran yang baik dari N , maka b dikatakan taksiran tak bias jika : (X) = N
b) Variansi minimum
Misalkan ada dua penaksir tak bias NV dan NV untuk N. Jika NV mempunyai
variansi yang lebih kecil dibandingkan dengan NV, maka NV dikatakan penaksir tak bias bervariansi minimum. Sebuah penaksir tak bias akan mencapai variansi
minimum diantara semua penaksir tak bias lainnya, apabila variansi dari penaksir itu minimal sama dengan batas bawah Cramer-Rao. Perumusan dari batas bawah Cramer-Rao untuk variansi dari NV adalah sebagai berikut: [ ≥
c)
Konsisten
∙^
1
_ ln b(Y; N)c _N
=
− ∙ ^
1
_
_N
ln b(Y; N)c
Untuk membuktikan bahwa sebuah penaksir adalah konsisten bagi parameternya dapat menggunakan ketidaksamaaan Chebyshev’s dengan perumusan: d(|K − e | < () ≥ 1 −
1 (
Jika lim→j k = 0, maka dikatakan penaksir adalah konsisten bagi
parameternya.
15
d) Statistik Cukup
Statistik l = l(K , K , ⋯ , K ) dikatakn cukup untuk parameter N ∈ Β, jika fungsi kepadatan peluang bersyarat:
d,K = Y , K = Y , ⋯ , K = Y |l = l(K , K , ⋯ , K ) = -
tidak bergantung pada N.
2.2.1.2 Uji t Uji t bertujuan untuk mengetahui besarnya pengaruh masing-masing peubah bebas terhadap peubah terikat. Sebelum melakukan pengujian terlebih dahulu dibuat hipotesis yang berbentuk : Hipotesis : H0 : N = 0 artinya peubah bebas tidak mempunyai pengaruh yang signifikan terhadap peubah terikat H1 : N ≠ 0 artinya peubah bebas mempunyai pengaruh signifikan terhadap peubah terikat Statistik uji :
=
NV p(NV )
Kriteria pengujian : Tolak H0 jika | | > r/ Terima H0 jika | | < r/ dimana nilai r/ diperoleh dari tabel t dengan t = 0,05 dan derajat kebebasan n – k -1 (n adalah banyaknya observasi dan k adalah banyaknya peubah bebas).
16
2.2.1.3 Ukuran Goodness of Fit (R2) Ukuran goodness of fit sering juga disebut dengan uji koefisien determinasi majemuk (R2). Ukuran ini perlu untuk memeriksa apakah model regresi yang terestimasi cukup baik atau tidak. Untuk mengetahui hal tersebut, harus dilakukan suatu cara untuk mengukur seberapa dekat garis regresi yang terestimasi dengan data. Ukuran ini mencerminkan seberapa besar variasi dari Y yang dapat diterangkan oleh X. Bila R2 = 0, artinya variasi dari Y tidak dapat diterangkan oleh X sama sekali, tetapi jika R2 = 1, artinya variasi dari Y, 100% dapat diterangkan oleh X. Dengan demikian ukuran goodness of fit dari suatu model ditentukan oleh R2 yang nilainya antara 0 dan 1.
2.2.2
Regresi linier ganda Regresi linier ganda adalah hubungan antara peubah terikat Y dengan dua
atau lebih peubah bebas X1, X2, ..., Xn. Bentuk umum regresi linier ganda :
LM = N + N KM + N KM + ⋯ + N KM + PM
dimana R = 1, 2, 3, … , 4 (XW(W XwxwR)
dengan :
N = intercept
N = koefisien regresi untuk X1
N = koefisien regresi untuk X2
N = koefisien regresi untuk Xk
(2.6)
17
PM = koefisien pengganggu (error)
Penaksiran parameter pada regresi linier ganda dapat dilakukan dengan a 0 = Y − a 1 Xa 2 X 2
menggunakan metode kuadrat terkecil. Adapun rumus untuk menaksir koefisien regresi adalah sebagai berikut :
NV = (K y K) K y L
dengan : X
= matriks data peubah bebas
XT
= bentuk transpose matriks data peubah bebas
(XTX)-1
= invers perkalian matriks XT dan X
Y
= Vektor data peubah terikat
Bukti :
(2.7)
L = KN + !
! = L − KN
! z ! = (L − KN )z (L − KN)
= L z L − N z K z L − L z KN + N z K z KN = L z L − 2N z K z L + N z K z KN
Catatan: N z K z L adalah matriks (1 × 1) atau suatu scalar dan nilai transposenya
(N z K z L)z = L z NK adalah skalar yang sama. Dalam OLS harus dipenuhi:
Sehingga diperoleh
T! z ! |NV = −2 K z L + 2K z KNV = 0 TN K z KNV = K z L NV = (K z K) K z L
18
2.2.2.1 Asumsi-Asumsi Dalam Regresi Linier Ganda Prinsip-prinsip yang mendasari regresi linier berganda tidak berbeda dengan regresi linier sederhana. Akan tetapi, dalam regresi linear berganda terdapat beberapa asumsi yang harus dipenuhi agar terhindar dari permasalahan yang dapat mengganggu model, bahkan dapat menyesatkan kesimpulan yang diambil dari persamaan yang dibentuk. 1.
Asumsi normalitas data Uji normalitas data untuk mengetahui distribusi data pada tiap-tiap
peubah. Dalam analisis regresi linier, data yang harus berdistribusi normal adalah data yang berasal dari peubah terikatnya. Hipotesis :
H0 : t ≥ t = Data berasal dari populasi yang berdistribusi normal
H1 : t < t = Data berasal dari populasi yang tidak berdistribusi normal
Statistik uji :
Menggunakan uji Kolmogorov-Smirnov Kriteria pengujian :
2.
Uji linieritas
Hipotesis :
Terima H0 jika nilai signifikan ≥ t
Tolak H0 jika nilai signifikan < t
H0 : t ≥ t = Persamaan regresi linier
H1 : t < t = Persamaan regresi tidak linier
19
Kriteria pengujian :
Tolak H0 jika nilai Fhitung > Ftabel atau nilai signifikan < t
Terima H0 jika nilai Fhitung ≤ Ftabel atau nilai signifikan ≥ t
dengan Ftabel diperoleh dari |(r)()() dimana k adalah banyak peubah dan n
adalah banyaknya observasi. 3.
Uji Multikolinieritas Multikoliniearitas adalah suatu kondisi dimana satu atau lebih peubah bebas berkorelasi dengan peubah bebas lainnya, atau dengan kata lain suatu peubah bebas merupakan fungsi linier dari peubah bebas lainnya. Teknik untuk mendeteksi multikolinieritas adalah Variance Inflation Factor (VIF) dengan rumus sebagai berikut :
[}|~ =
k
; = 1, 2, … , (
(2.8)
dengan : k = banyaknya peubah bebas
~ = koefisien determinasi antara peubah bebas ke-j dengan peubah bebas lainnya.
Berdasarkan rumus (2.8) jika ~ = 0 artinya antar peubah bebas tidak
berkorelasi, maka nilai VIF = 1. Jika ~ ≠ 0 artinya ada korelasi antar peubah
bebas, maka nilai VIF > 1. Sumber lain menyebutkan kolinieritas dianggap ada jika VIF > 5 artinya model dianggap tidak mempunyai kolinieritas jika korelasi antar peubah bebas hanya mencapai 0,8 (Nachrowi, 2006). Oleh karena itu, kolinieritas tidak ada jika nilai VIF mendekati angka 5.
20
Cara mengatasi kolinieritas : a. Melihat informasi sejenis yang ada b. Tidak mengikutsertakan salah satu peubah yang kolinier c. Menstransformasikan peubah dengan melakukan pembedaan (difference) d. Mencari data tambahan. 4.
Heteroskedastisitas Uji Heteroskedastisitas digunakan untuk menguji apakah dalam model
regresi liner kesalahan pengganggu (e) mempunyai varians yang sama atau tidak dari satu pengamatan ke pengamatan yang lain. Untuk mendeteksi ada tidaknya heteroskedastisitas dengan melihat scatterplots regresi. Jika titik-titik menyebar dengan pola yang tidak jelas di atas dan di bawah angka nol pada sumbu Y maka tidak terjadi masalah heteroskedastisitas. Adapun cara untuk mengatasi heterekoskedastisitas yaitu dengan metode Generalized Least Squares (GLS). 5.
Autokorelasi Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual
untuk pengamatan yang satu dengan pengamatan lain yang disusun menurut urutan waktu.. Untuk mengetahui ada tidaknya autokorelasi dapat digunakan uji Durbin-Watson/uji d (Nachrowi,2006). Hipotesis
H0 : * = 0 (tidak terjadi autokorelasi)
H1 : * ≠ 0 (terjadi autokorelasi)
21
Statistik uji
= 2 1 − dimana : *= Kriteria pengujian • •
∑ 2 2 ∙ k ∑ 2
= 2(1 − *)
∑ P3 ∙ P3 ∑ P3
Terima H0 jika DW = 2 (* = 0)
Tolak H0 jika DW = 0 (* = 1) artinya ada autokrelasi positif, dan
DW = 4 (* = −1) artinya ada autokorelasi negatif
Selain dengan melihat nilai *, autokorelasi dapat dideteksi dengan menggunakan nilai dL dan dU, dengan prosedur sebagai berikut : a.
Menentukan hipotesis nol dan hipotesis alternatif
b.
Menentukan nilai DW (Durbin-Watson)
c.
Menentukan nilai dL dan dU Nilai dL dan dU dapat dilihat pada tabel Durbin-Watson pada signifikan 0, 05
d.
Pengambilan keputusan •
dU < DW < 4-dU maka H0 diterima (tidak terjadi autokorelasi)
•
DW < dL maka H0 ditolak (terjadi autokorelasi)
•
4-dU < DW < 4-dL maka tidak ada kesimpulan.