LECTURE NOTES #13&14 BASIC TIME SERIES I.
Pendahuluan Sebagian besar pembahasan regresi linier yang telah dilakukan mengasumsikan bahwa data yang digunakan adalah bersifat cross section. Meskipun regresi linier juga dapat digunakan pada data time series, namun karena karakteristik tertentu dari data semacam ini maka perlu diperhatikan beberapa implikasi. Kita dapat memandang suatu time series sebagai suatu proses yang random. Realisasi pada saat t tidak akan pernah diketahui secara pasti pada saat t-1. Dengan demikian serangkaian data time series: xt-h, xt-h+1, …, xt-1, xt adalah suatu proses random yang dikenal dengan istilah stochastic proses. Salah satu karakteristik yang banyak ditemui pada data time series dan ia berdampak penting bagi estimasi dengan OLS adalah keberadaan non stasionaritas. Dalam artian luas, sifat ini berarti adanya keterkaitan erat antara nilai data pada suatu titik waktu dengan titik waktu lainnya. Jelas sifat ini merupakan pelanggaran bagi salah satu asumsi Gauss-Markov dan estimator yang diperoleh dapat menjadi bias. Dengan demikian dalam penelitian empiris yang mempergunakan data time series, perlu diperhatikan implikasi karakteristik ini. Penerapan OLS tanpa melakukan perlakuan yang memadai terhadap non staionaritas berpotensi membawa peneliti kepada hasil yang salah.
II.
Karakteristik Data Time Series Sebagian besar asumsi Gauss Markov memiliki isu yang sama dengan data cross sectional, yakni linear in parameter, zero conditional mean, no perfect colinearity, homosedasticity dan no serial correlation. Jika asumsi-asumsi ini dipenuhi maka estimator OLS adalah BLUE. Khususnya pada data time series, salah satu asumsi yang memperoleh perhatian khusus adalah zero conditional mean, atau
E (ut Xt ) = 0
………………………1)
Ketika asumsi ini terpenuhi maka kita mengatakan bahwa x adalah contemporaneously exogenous dan jika ia juga terpenuhi untuk indeks waktu yang berbeda maka x disbeut dengan strictly exogenous. Asumsi ini memiliki implikasi penting terhadap analisa time series. Hal ini disebabkan karena berbeda dengan data cross section, dimana terpenuhinya asumsi adalah sangat masuk akal. Dengan data cross section, adalah sangat mungkin untuk mengatakan bahwa nilai residual observasi ke i adalah tidak
1
tergantung pada nilai variabel bebas pada observasi ke j (dimana i≠ j). Kita membicarakan dua individu berbeda. Sedangkan pada time series sangat mungkin bahwa data pada suatu titik waktu memiliki implikasi terhadap data pada titik waktu yang lain. Fenomena ini dikenal sebagai sifat non stationarity atau persistensi pada time series. Salah satu contoh yang populer adalah keberadaan trending variabel, yakni variabel yang (secara rata-rata) adalah meningkat/menurun dari waktu ke waktu. Namun demikian terdapat juga data time series yang bersifat stationary. Sebagai lawan dari non stationarity, stasioneritas berarti bahwa data pada suatu titik waktu tidak berkorelasi dengan data pada titik waktu lain. Secara formal suatu proses stochastic disebut sebagai stationary jika mean dan varians (disebut juga sebagai momen pertama dan kedua dari data) diantara dua periode hanya tergantung jarak antara kedua periode dan bukan posisi waktu. Dengan kata lain rata-rata dan varians yang dihitung dari data (xt1, xt2, … xtm) adalah sama dengan yang dihitung dari data (xt1+h, xt2+h, … xtm+h). Terdapat banyak konsep terkait stasioneritas misalnya kondisi yang lebih longgar seperti covariance stationary process dan weakly dependent. Kita tidak akan membahasnya disini, Wooldrige (2005) memberikan uraian yang lebih ekstensif. Data yang bersifat stasioner sering juga disebut sebagai identically and independently distributed (iid). Jika data memiliki sifat stasioner maka teknik OLS dapat diimplementasikan secara langsung seperti halnya data cross section. Jika asumsi Gauss-Markov terpenuhi maka estimator yang diperoleh adalah BLUE. Sedangkan jika data bersifat non stationary (sering disebut juga sebagai random walk atau proses dengan unit root) suatu perlakuan khusus perlu dilakukan sebelum menarik kesimpulan dari sampling data. Sifat perlakuan akan tergantung dengan karakteristik non stasionaritas yang ada pada data. Beberapa model proses stochastic non stasioner yang umum adalah 1. Pure Random Walk
yt = yt −1 + ut ; ut
IID (0, σ 2 )
………………………2)
2. Random Walk With Drift
yt = δ + yt −1 + ut ; ut
IID (0, σ 2 )
………………………3)
2
3. Random Walk With Drift and Deterministic Trend
yt = δ 0 + δ1t + yt −1 + ut ; ut
IID (0, σ 2 )
……………3)
4. Trend Stationary Process
yt = δ 0 + δ1t + ut ; ut
IID (0, σ 2 )
……………4)
5. Stationary Around Deterministic Trend
yt = δ 0 + δ1t + ρ yt −1 + ut
……………5)
ρ <1 ut
IID (0, σ 2 )
Data dengan sifat non stationary memiliki salah satu momen (rata-rata atau varians) yang tidak konstan antara satu periode dengan periode lainnya. Kita akan menguraikan dua dari contoh proses non stationary diatas yakni Pure Random Walk dan Random Walk With A Drift. Untuk pure random walk dapat ditunjukkan dengan substitusi berulang dan nilai awal yo tertentu maka nilai yt adalah jumlah dari yo dan residual, atau
yT = y0 + u1 + ... + uT
………………………6)
T
= y0 + ∑ ut 1
dengan demikian rata-rata dan variansnya adalah
E ( yT ) = E ( y0 ) + E (u1 ) + ... + E (uT ) = y0 T
Var ( yT ) = var( y0 + ∑ ut ) =tσ 2
………………………7)
t =1
Dapat dilihat disini bahwa varians dari nilai yt adalah fungsi yang linier dari waktu. Semakin jauh kedepan maka dispersi nilai y adalah semakin besar. Grafik 1 menunjukkan suatu proses Random Walk dengan y0=0, t=50 dan residual yang terdistribusi normal standar (0,1).
3
Grafik 1. Proses Pure Random Walk t=50, y0=0 dan ut~N(0,1) Sedangkan bagi proses Random Walk dengan drift dapat ditunjukkan bahwa T
yT = tδ + y0 + ∑ ut
………………………8)
1
Sehingga rata-rata dan variansnya dapat diberikan sebagai
E ( yT ) = y0 + tδ
………………………9)
Var ( yT ) = tσ 2 Disini tidak hanya varians yang merupakan fungsi linier dari waktu tetapi juga rata-ratanya. Secara grafis proses seperti ini dapat ditunjukkan oleh grafik 2 untuk y0=0, δ=2, t=50, dan ut~N(0,1).
Grafik 2. Random Walk With A Drift
4
Dampak dari regresi atas variabel-variabel non stasioner adalah Spurious regression atau regresi palsu. Ketika kita meregresi variabel y terhadap x (yang keduanya non stasioner) maka kita akan mendapatkan test statistik yang signifikan, padahal sebenarnya keduanya tidak ada hubungan. Sebagai ilustrasi misalnya kita membuat suatu series hipotetis y dan x yang disusun sebagai
yt = α + yt −1 + et ; et
NIID(0,1)
xt = α + xt −1 + ut ; ut
NIID(0,1)
………………………9)
Terlihat jelas bahwa kedua variabel ini adalah tidak ada hubungan. Keduanya adalah series sintetis sebagai model Random Walk dengan drift. Jika kita membuat data (t) hingga 1000 maka secara grafis kedua series tersebut dapat digambarkan sebagai 50 40 30 20 10 0 -1 0 -2 0 -3 0 -4 0 250
5 00 Y
750
1000
X
Grafik 3. Spurious Regression Regresi diantara kedua variabel tersebut, dimana y adalah regresan dan x adalah regresor diperoleh hasil sbb: Dependent Variable: Y Method: Least Squares Date: 07/03/08 Time: 08:50 Sample: 2 1000 Included observations: 999 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C X
-0.336553 -0.458689
0.734595 0.028001
-0.458148 -16.38119
0.6469 0.0000
5
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.212072 0.211281 8.761888 76540.36 -3584.760 0.015893
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
-11.48036 9.865898 7.180700 7.190523 268.3435 0.000000
Tabel 1. Print Out Spurious Regression Dapat dilihat disini koefisien variabel x adalah signifikan sehingga mendorong pengambilan kesimpulan bahwa x berkorelasi terhadap y (variasi x berdampak terhadap variasi y). Kesimpulan ini jelas salah, karena seperti yang diuraikan diatas kedua variabel ini hanyalah variabel sintetis. Dengan demikian dapat diambil kesimpulan bahwa ketika kita memiliki data bersifat time series, maka suatu perlakuan khusus perlu dilakukan untuk memastikan bahwa data bersifat stasioner. III. Pengujian Non Stationaritas Terdapat banyak metoda untuk mengidentifikasikan sifat non stasionaritas pada data. Disini akan dibahas sifat non stasionaritas yang masuk pada kelas random walk model (disebut juga unit root process). Sedangkan non stasionaritas yang disebabkan time trend process dan stationary process around trend akan dibahas pada bagian selanjutnya. Cara paling sederhana adalah visualisasi. Suatu series diduga sebagai non stasionary jika tidak terdapat gambaran bahwa ia berfluktuasi secara random disekitar suatu rata-rata tertentu. Pergerakan seperti yang diberikan oleh grafik 1, 2 dan 3 menunjukkan bahwa ia mungkin bersifat non stationary. Salah satu cara sederhana untuk mengidentifikasi sifat non stasionaritas data adalah dengan memahami proses auto regressive orde1, yang dapat diberikan sebagai
yt = ρ yt −1 + et ; et
NIID(0,1)
…………………….10)
Model ini disebut dengan Autoregresive orde 1 (AR(1)). Jika yt adalah stasioner maka nilai ρ<1 dan sebaliknya jika ia non stasioner maka ρ=1. Kita mengabaikan kasus ρ>1, karena series ini bersifat eksplosif (meningkat/menurun secara eksponensial) dan tidak memiliki relevansi pada variabel ekonomi pada umumnya. Secara intuitif jika ρ<1, maka varians dari error term akan konvergen ke satu nilai. Hal ini dapat dilihat dengan motoda yang digunakan pada 6
persamaan 6 dan 7 dimana dengan substitusi berulang pada fungsi autoregressive orde 1 (persamaan 10), maka variansnya adalah T
Var ( yT ) = var(∑ ρ t ut ) = t =1
1 σu2 1− ρ
…………………….11)
Suatu nilai tertentu dengan syarat homokedastisitas. Sedangkan apabila ρ=1, maka varians akan menjadi fungsi dari posisi waktu (persamaan 7). Dengan demikian salah satu cara untuk menguji apakah nilai ρ=1 atau tidak. ρ sendiri dapat diestimasi melalui sample dengan cara T
ρˆ =
∑(y
− y )( yt −1 − y )
t
t =1
…………………….12)
T
∑ ( yt − y )2 t =1
Persamaan 12 adalah koefisien autokorelasi antara nilai variabel pada saat t dengan satu variabel dibelakangnya (t-1) (first order autocorrelation function). Formula ini dapat digeneralisir untuk meliputi autokorelasi terhadap k periode dibelakang (disebut lag) untuk melihat apakah nilai variabel saat ini dipengaruhi nilai variabel itu sendiri k periode yang lalu, atau T
ρˆ k =
∑(y
t
t =1
− y )( yt − k − y )
T
∑(y t =1
t
− y)
…………………….13) 2
Untuk melihat apakah terdapat sifat non stasioner, beberapa econometricians menyarankan angka 0.8-0.9 sebagai batas (Wooldridge, 2005, hal 364). Cara lain untuk menggunakan koefisien autokorelasi sebagai alat uji non stasionaritas adalah dengan melihat tingkat signifikansi statistiknya. Hal ini dilakukan dengan menguji hipotesis null bahwa koefisien autokorelasi hingga lag tertentu (disebut m) adalah tidak berbeda secara statistik dengan nol. Statistik uji yang umum digunakan adalah Q Statistic (Box and Pierce, 1970) dan LB- Statistic (Ljung –Box, 1978). Adapun formula statistik uji dapat diberikan sbb: m
Q = T ∑ ρˆ k
…………………….14)
k =1
m
LB = T (T + 2)∑
ρˆ k
k =1 n − k
…………………….15) 7
Nilai kritis bagi kedua statistik uji ini mengikuti distribusi χ2 dengan df=m. Software ekonometrika umumnya menghitung kedua statistik uji diatas beserta confidence intervalnya. Hasil perhitungan biasa direpresentasikan dalam bentuk grafik (disebut dengan correlogram). Yang dilakukan peneliti adalah melihat apakah koefisien autokorelasi berada didalam range penerimaan hipotesis null atau tidak. Jika koefisien dimaksud berada diluar confidence interval, maka dapat disimpulkan bahwa terdapat autokorelasi pada lag terkait. Contoh 1. File NYSE.raw memberikan data mingguan (penutupan hari rabu) indeks NYSE periode 1976-1990. Kita akan melihat melalui correlogram apakah series indeks mingguan adalah stasioner atau tidak. Dengan mengklik series yang relevan kemudian mengklik view graph/line maka diperoleh hasil sbb: 200 180 160 140 120 100 80 60 40 1976
1978
1980
1982
1984
1986
1988
PRICE
Grafik 4. Plot Time Series Indeks NYSE Dari cara sederhana ini dapat diduga bahwa series indeks NYSE adalah non stasionary. Selanjutnya dengan mengklik view/correlogram dan isikan opsi level serta lag=20 maka diperoleh hasil Date: 07/03/08 Time: 10:06 Sample: 1/01/1976 1/04/1990 Included observations: 690 Autocorrelation .|******** .|******** .|********
Partial Correlation .|******** .|. | .|. |
AC
PAC
Q-Stat
Prob
1 0.995 0.995 685.65 0.000 2 0.989 -0.030 1364.6 0.000 3 0.983 -0.018 2036.5 0.000
8
.|******** .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******| .|*******|
.|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|. .|.
| | | | | | | | | | | | | | | | |
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0.978 0.973 0.967 0.962 0.955 0.949 0.944 0.939 0.934 0.929 0.924 0.920 0.916 0.911 0.907 0.903 0.899
0.012 0.049 -0.024 -0.049 -0.050 0.043 0.019 0.031 0.031 0.020 -0.004 -0.002 0.028 -0.032 0.013 0.047 0.021
2701.8 3361.1 4014.2 4660.5 5299.3 5931.2 6556.5 7175.9 7789.9 8398.8 9002.5 9600.9 10195. 10783. 11367. 11947. 12523.
0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
Tabel 2. Correlogram Contoh 1 Dapat dilihat pada correlogram, bahwa Autocorrelation Function (ACF) adalah signifikan hingga lag ke 20. Dengan demikian data adalah non stasioner. Hal ini juga dapat dilihat melalui nilai statistik LB (Eviews menyebutnya Q) yang memiliki p value=0 hingga lag ke 20. Suatu teknik yang lebih modern didalam mendeteksi stasionaritas adalah melalui uji unit root. Salah satu uji unit root yang sering digunakan adalah uji Dickey Fuller. Premis dasar uji Dickey Fuller adalah jika terdapat unit root didalam data maka
yt = ρ yt −1 + et ; et
NIID (0,1)
Δyt = ( ρ − 1) yt −1 + et = δ yt −1 + et
…………………….16)
Dengan perkataan lain, pendugaan non stasionaritas adalah melihat apakah koefisien δ adalah berbeda secara statistik dari nol (null hipotesis adalah terdapat unit root). Dickey-Fuller (1976) menemukan bahwa dalam kondisi non stationaritas statistik uji koefisien δ adalah tidak mengikuti distribusi normal. Dengan demikian inferensi yang biasa dilakukan adalah tidak valid. Melalui simulasi Monte Carlo mereka telah menemukan distribusi yang sesuai untuk statistik uji koefisien δ. Dengan demikian kerangka kerja yang digunakan adalah membandingkan apakah statistik uji yang diperoleh lebih besar (secara absolut) dari nilai kritis dari tabel.
9
Dickey dan Fuller selanjutnya mengembangkan pola pengujian dengan cara memasukkan kemungkinan orde autoregresiv yang tinggi, serta keberadaan drift dan time trend (disebut uji Augmented Dickey Fuller test/ADF). Dengan demikian model umum dari pengujian Dickey Fuller menjadi p
Δ y t = a 0 + γ y t − 1 + a 2 t + ∑ β iΔ y t − i + 1 + ε t i=2
……………………………17)
dimana p ⎛ ⎞ γ = − ⎜⎜ 1 − ∑ ai ⎟⎟ i =1 ⎝ ⎠
βi =
……………………………19)
p
∑ aj j =1
Jika γ=0, maka persamaan 17 diatas hanya akan berupa first difference dan berarti terdapat suatu proses unit root. Nilai kritis γ tidak mengikuti test yang standar (dalam hal ini nilai statistik t). Dalam eksperimen Monte Carlonya Dickey-Fuller (1979) menunjukkan nilai kritis dari koefisien ini tergantung pada bentuk model regresi (dalam hal ini apakah pure random walk, with drift, atau dengan time trend). Statistik ini disebut dengan statistik Dickey Fuller, selanjutnya dinotasikan dengan τ (model pure random walk), τu (random walk dengan drift) dan τt(random walk dengan linear time trend), nilai kritisnya dapat dilihat pada tabel DickeyFuller(1979). Suatu pengujian unit root (sering disebut juga sebagai data berorde integrasi 1: I(1)) yang komprehensif adalah permasalahan yang kompleks dan diluar scope dari catatan kuliah ini. Pembaca dapat merujuk pada Enders (1995) serta Mahadeva dan Robinson (2004). Contoh 2. Masih menggunakan File NYSE.raw, kali ini kita akan menggunakan pengujian ADF untuk melihat non stasionaritas pada data. Dengan mengasumsikan bahwa didalam series terdapat dampak trend dan drift serta AR berorde 19, maka hasil diberikan sbb: Null Hypothesis: PRICE has a unit root Exogenous: Constant, Linear Trend Lag Length: 18 (Automatic based on AIC, MAXLAG=19)
Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level
t-Statistic
Prob.*
-2.176850 -3.971789 -3.416529
0.5012
10
10% level
-3.130590
*MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(PRICE) Method: Least Squares Date: 07/03/08 Time: 10:27 Sample (adjusted): 5/13/1976 3/16/1989 Included observations: 671 after adjustments Variable
Coefficient
Std. Error
t-Statistic
Prob.
PRICE(-1) D(PRICE(-1)) D(PRICE(-2)) D(PRICE(-3)) D(PRICE(-4)) D(PRICE(-5)) D(PRICE(-6)) D(PRICE(-7)) D(PRICE(-8)) D(PRICE(-9)) D(PRICE(-10)) D(PRICE(-11)) D(PRICE(-12)) D(PRICE(-13)) D(PRICE(-14)) D(PRICE(-15)) D(PRICE(-16)) D(PRICE(-17)) D(PRICE(-18)) C @TREND(1/01/1976)
-0.014551 0.116761 -0.015230 0.015377 -0.088802 0.037267 0.096337 0.062189 -0.113050 0.054720 -0.086373 -0.038408 -0.027383 0.025042 0.019957 -0.088962 0.050791 0.028298 -0.107674 0.421562 0.003098
0.006684 0.038961 0.039312 0.039281 0.039144 0.039302 0.039339 0.039525 0.039562 0.039706 0.039731 0.039574 0.039540 0.039404 0.039404 0.039217 0.039383 0.039433 0.039255 0.261630 0.001278
-2.176850 2.996851 -0.387420 0.391471 -2.268582 0.948221 2.448910 1.573406 -2.857565 1.378115 -2.173921 -0.970524 -0.692548 0.635504 0.506465 -2.268475 1.289667 0.717622 -2.742964 1.611290 2.423708
0.0299 0.0028 0.6986 0.6956 0.0236 0.3434 0.0146 0.1161 0.0044 0.1686 0.0301 0.3321 0.4888 0.5253 0.6127 0.0236 0.1976 0.4732 0.0063 0.1076 0.0156
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.087956 0.059894 2.267415 3341.762 -1490.748 2.004415
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
0.164441 2.338528 4.505954 4.647064 3.134262 0.000006
Tabel 2. Augmented Dickey Fuller Unit Root Test Uji unit root dapat diakses pada Eviews dengan mengklik series yang ingin diuji, pilih menu view/ unit root test. Parameter yang perlu dimasukkan adalah Test Type: ADF, Test for unit root: Level, Include in Test Eq.: Trend-
11
Intercept, Lag Length=18 dan Automatic Selection: Akaike Information Criteria. Hasil pengujian menunjukkan bahwa hipotesis null adanya unit root tidak adapat ditolak. Hal ini dapat dilihat baik dari nilai p value maupun statistik uji yang berada dibawah nilai kritis. IV. Pemodelan Time Series Jika pengujian non stationarity menunjukkan hasil yang positif, dalam artian terdapat proses unit root. Maka suatu perlakuan khusus perlu dilakukan didalam pemodelan. Penerapan OLS secara naif akan berpotensi memberikan hasil yang menyesatkan. Terdapat tiga pendekatan yang umum digunakan didalam mengatasi masalah non stasionaritas. Pendekatan pertama adalah dengan melakukan first differencing terhadap data. Dengan demikian daripada menggunakan data pada level, model regresi yang diestimasi adalah
Δy = β 0 + β1Δx1 + β 2 Δx2 + ... + β k Δxk + u
…………………18)
Perhatikan bahwa dengan melakukan first differencing jika data yang dimiliki adalah memiliki unit root maka komponen data yang tersisa adalah et yang bersifat stasioner (sesuai dengan asumsi). Namun demikian jika data telah stasioner maka penerapan first differencing akan menimbulkan masalah autokorelasi dalam bentuk baru, dengan kata lain
Δyt = ( ρ − 1) yt −1 + et = δ yt −1 + et
…………………19)
Jika ini terjadi maka regresi yang dilakukan akan berpotensi bias. Untuk itu sangatlah kritikal untuk memastikan bahwa keseluruhan variabel yang digunakan pada model adalah pada derajat integrasi yang sama. First differencing dilakukan hanya pada data yang bersifat I(1). Pemodelan kedua dilakukan dengan menggunakan teknik error correction model (Engle dan Granger, 1987). Pemodelan ini tidak memerlukan first differencing pada data. Teknik first differencing banyak diduga oleh econometricians menyebabkan hilangnya informasi berharga pada data sehingga termasuk metoda dengan biaya yang tinggi. Namun demikian metoda ini terhitung kompleks sehingga akan dibahas pada bagian tersendiri. Pemodelan ketiga dilakukan jika sifat non stasioneritas data adalah trend stasionary (persamaan 4 dan 5). Jika data bersifat seperti ini maka pengujian unit root ADF dengan kondisi lengkap mungkin akan menolak hipotesis null (data bersifat stasioner). Namun demikian implementasi OLS
12
secara langsung dapat menghasilkan estimator yang bias. Perlakukan bagi data semacam ini akan dibahas pada bagian berikutnya. Contoh 3. Dengan menggunakan data dari Earns.raw kita akan mengestimasi hubungan antara upah perjam dengan output per jam. Dari data tahunan periode 1947-1987, kita mengetahui bahwa kedua series tersebut mengalami masalah unit root (hasil pengujian tidak disertakan). Regresi pada level log upah perjam dengan log output per jam memberikan hasil sbb: Dependent Variable: LHRWAGE Method: Least Squares Date: 07/03/08 Time: 21:08 Sample: 1 41 Included observations: 41 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C LOUTPHR
-1.534398 0.689101
0.171663 0.039016
-8.938415 17.66201
0.0000 0.0000
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.888872 0.886023 0.055359 0.119522 61.49900 0.093161
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
1.493673 0.163977 -2.902390 -2.818802 311.9465 0.000000
Tabel 3. OLS pada Level Contoh 3 Sedangkan jika kita menerapkan OLS pada first difference data maka diperoleh hasil Dependent Variable: D(LHRWAGE) Method: Least Squares Date: 07/03/08 Time: 21:07 Sample (adjusted): 2 41 Included observations: 40 after adjustments Variable
Coefficient
Std. Error
t-Statistic
Prob.
C D(LOUTPHR)
-0.003662 0.809315
0.004220 0.173454
-0.867802 4.665879
0.3910 0.0000
R-squared Adjusted R-squared
0.364234 0.347503
Mean dependent var S.D. dependent var
0.011547 0.020984
13
S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.016950 0.010918 107.3669 1.526380
Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
-5.268344 -5.183900 21.77043 0.000037
Tabel 4. OLS pada First Difference Contoh 3 Dapat dilihat disini R2 menurun drastic dari 0.89 menjadi 0.36, namun demikian koefisien produktivitas meningkat dari 0.69 menjadi 0.81. Karena kita mengetahui bahwa data mengalami unit root maka estimator dari tabel 4 adalah lebih valid. V.
Trend dan Seasonality Salah satu karakteristik data time series adalah keberadaan trend dan pola musiman (seasonality). Trend adalah kecenderungan nilai data untuk meningkat dari waktu ke waktu. Data yang memiliki karakteristik ini misalnya adalah indeks harga (CPI atau PPI), Output Nasional (GDP), Tingkat Upah Nominal, dsb. Sedangkan sifat musiman terjadi ketika data memiliki pola berulang pada frekuensi atau titik waktu yang tetap/dapat diprediksi. Sebagai contoh kita dapat mengharapkan bahwa penjualan bahan kebutuhan pokok untuk meningkat disetiap periode perayaan hari besar (Puasa dan Hari Raya). Demikian pula kita dapat memprediksi peningkatan tajam pada jumlah penumpang pesawat disetiap liburan sekolah. Jika kita mencoba membuat model yang menghubungkan antara dua variabel dimana kedua variabel tersebut memiliki karakteristik trend dan/atau musiman yang sama, maka sangat mungkin sekali kita berkesimpulan adanya hubungan yang sebenarnya mungkin tidak ada (common trend problem). Dengan demikian perlu diperhatikan karakteristik time series semacam ini serta perlakuan yang diperlukan. Terdapat beberapa pola trend yang umum, yakni 1. Linear Time Trend
yt = δ 0 + δ1t + ut
…………………20)
2. Eksponential Time Trend
log( yt ) = α 0 + α1t + et
…………………21)
3. Quadratic Time Trend
yt = β 0 + β1t + β1t 2 + vt
…………………22)
14
Linear time trend adalah bentuk yang paling sederhana dan umum digunakan. Model eksponensial digunakan untuk menunjukkan kondisi pertumbuhan tetap. Sedangkan kuadratik digunakan untuk memodelkan kondisi diminishing effect (contoh produktivitas marginal). Suatu trend dapat dideteksi dari data yang dimiliki dengan meregresikan nilai variabel terhadap nilai trend (t, t=1,2,…,T). Jika koefisien trend adalah signifikan pada uji dua arah maka data dimaksud adalah memilki karakteristik trend. Variabel-variabel yang memiliki karakteristik semacam ini harus dilakukan detrending terlebih dahulu sebelum digunakan dalam model regresi linier. Detrending dapat dilakukan dengan memasukkan secara eksplisit koefisien time trend dalam model regresi, sebagai contoh
yt = β 0 + β1 x1t + β 2 x2t + β3t + ut
…………………23)
Detrending juga dapat dilakukan dengan mengurangi nilai variabel semula dengan fitted value dari regresi trend (misalnya persamaan 20). Sebagai contoh kita dapat menotasikan variabel baru sbb
&& yt = yt − αˆ 0 − αˆ1t && x = x − βˆ − βˆ t 1t
1t
0
…………………24)
1
&& x2t = x2t − γˆ0 − γˆ1t x1t , && x2t Regresi &y&t terhadap && akan memberikan hasil yang sama dengan persamaan 23. Prosedur semacam ini dapat dilakukan terlepas dari karakteristik trend (misalnya eksponensial dan kuadratik). Suatu penyesuaian perlu dilakukan didalam menghitung koefisien determinasi, R2, (Wooldridge, 2005, hal 239). Pertama kita menghitung terlebih dahulu nilai &y&t seperti yang telah diberikan diatas. Selanjutnya kita meregresikan nilai &y&t terhadap x1t, x2t dan t dan peroleh nilai Sum Square Regression (SSR) nya. R2 untuk model time trend kemudian dapat dihitung dengan formula
R2 =1−
SSR T
∑
t =1
…………………25)
&& y t2
15
Contoh 4. Dengan menggunakan data Hseinv.raw, kita mencoba mengstimasi hubungan antara investasi sektor perumahan perkapita terhadap tingkat harga rumah. Grafik dan regresi time trend menunjukkan bahwa variabel investasi perumahan dan harga rumah memiliki pola trend (hasil tidak dicantumkan). Regresi OLS langsung memberikan hasil sbb: Dependent Variable: LOG(INVPC) Method: Least Squares Date: 07/03/08 Time: 21:18 Sample: 1 42 Included observations: 42 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C LOG(PRICE)
-0.550235 1.240943
0.043027 0.382419
-12.78824 3.244981
0.0000 0.0024
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.208390 0.188599 0.155423 0.966256 19.61651 0.814165
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
-0.666155 0.172543 -0.838881 -0.756135 10.52990 0.002376
Tabel 4. OLS Basic Regression Contoh 4 Sedangkan jika kita melakukan detrending dengan memasukkan time trend pada persamaan regresi, maka diperoleh hasil sbb: Dependent Variable: LOG(INVPC) Method: Least Squares Date: 07/03/08 Time: 21:21 Sample: 1 42 Included observations: 42 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C LOG(PRICE) T
-0.913060 -0.380961 0.009829
0.135613 0.678835 0.003512
-6.732814 -0.561198 2.798444
0.0000 0.5779 0.0079
R-squared Adjusted R-squared S.E. of regression
0.340765 0.306958 0.143641
Mean dependent var S.D. dependent var Akaike info criterion
-0.666155 0.172543 -0.974252
16
Sum squared resid Log likelihood Durbin-Watson stat
0.804675 23.45930 1.048727
Schwarz criterion F-statistic Prob(F-statistic)
-0.850133 10.07976 0.000296
Tabel 5. OLS Detrended Regression Contoh 4 Perhatikan bahwa koefisien t adalah signifikan dengan demikian didalam data terdapat karaketeristik trending. Berbeda dengan implementasi OLS langsung disini tampaknya variabel indeks harga rumah tidak memiliki dampak terhadap investasi perumahan. Dengan demikian diduga hasil yang semula positif ini bersifat spurious. Penanganan data yang bersifat musiman dilakukan dengan perantara model dummy variabel. Disini digunakan dummy variabel S (season) yang bernilai 1 jika observasi bersangkutan adalah masuk dalam kategori musim dan 0 jika lainnya. Sebagai contoh misalnya kita memiliki suatu set variabel yang terdiri dari regresan (y) dan regresor (x1, s/d xk). Data ini memiliki frekuensi bulanan dan kita menduga bahwa ada pola musiman didalam series. Pemodelan musim dapat dilakukan sbb (januari sebagai benchmark):
yt = β 0 + δ1 febt + ... + δ11dect + β1 x1t + ... + β k xkt + ut Efek musiman bisa diverifikasi dengan menggunakan Joint Hypothesis Testing (Wald test) dengan hipotesis null δ1 s/d δ11 =0. Jika hipotesis null ditolak maka dapat diambil kesimpulan terdapat pola musiman didalam data. Selanjutnya untuk data yang memiliki sifat musiman dapat dilakukan hal berikut: 1. Regresikan setiap y, x1 dan xk terhadap suatu konstanta dan dummy variabel bulanan. Hitung residual untuk semua t=1,2,…,T disebut sebagai deseasonalized variabel . Sebagai contoh
&& yt = yt − δˆ0 − δˆ1 febt − ... − δˆ11dect 2. Lakukan regresi dengan menggunakan deseasonalized data.
&& yt = β 0 + β1&& x1t + ... + β k && xkt + ut Contoh 5. Dengan menggunakan data Barium.raw akan diestimasi hubungan antara impor barium dari Cina dengan berbagai variabel:chempi, gas, rtwex dan 3
17
variabel dummy: befile6, affile6 dan afdec6. Regresi pada bentuk log memberikan hasil sbb: Dependent Variable: LOG(CHNIMP) Method: Least Squares Date: 07/04/08 Time: 08:01 Sample: 1 131 Included observations: 131 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C LOG(CHEMPI) LOG(GAS) LOG(RTWEX) BEFILE6 AFFILE6 AFDEC6
-17.80277 3.117194 0.196340 0.983016 0.059574 -0.032406 -0.565245
21.04537 0.479202 0.906617 0.400154 0.260970 0.264297 0.285835
-0.845923 6.504968 0.216564 2.456596 0.228281 -0.122613 -1.977520
0.3992 0.0000 0.8289 0.0154 0.8198 0.9026 0.0502
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.304862 0.271226 0.597354 44.24709 -114.7867 1.458414
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
6.174599 0.699738 1.859340 2.012976 9.063646 0.000000
Tabel 6. OLS Basic Regression Contoh 5 Data yang dimiliki diduga memiliki pola musim bulanan. Dengan demikian mengikuti prosedur yang telah diuraikan diatas maka Dependent Variable: LOG(CHNIMP) Method: Least Squares Date: 07/04/08 Time: 08:07 Sample: 1 131 Included observations: 131 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C LOG(CHEMPI) LOG(GAS) LOG(RTWEX) BEFILE6 AFFILE6 AFDEC6
16.77923 3.265062 -1.278141 0.663045 0.139703 0.012632 -0.521300
32.42865 0.492930 1.389008 0.471304 0.266807 0.278687 0.301950
0.517420 6.623783 -0.920182 1.406832 0.523609 0.045328 -1.726446
0.6059 0.0000 0.3594 0.1622 0.6016 0.9639 0.0870
18
FEB MAR APR MAY JUN JUL AUG SEP OCT NOV DEC R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
-0.417711 0.059052 -0.451483 0.033309 -0.206331 0.003837 -0.157064 -0.134160 0.051693 -0.246260 0.132838 0.358328 0.261793 0.601207 40.84389 -109.5446 1.325306
0.304444 0.264731 0.268386 0.269242 0.269252 0.278767 0.277993 0.267656 0.266851 0.262827 0.271423
-1.372044 0.223065 -1.682212 0.123714 -0.766315 0.013763 -0.564995 -0.501243 0.193713 -0.936965 0.489411
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
0.1728 0.8239 0.0953 0.9018 0.4451 0.9890 0.5732 0.6172 0.8467 0.3508 0.6255 6.174599 0.699738 1.947246 2.342311 3.711902 0.000013
Tabel 6. OLS Deseasonalized Regression Contoh 5 Sekilas dari tabel 6 terlihat bahwa tidak ada satupun dari variabel dummy yang signifikan. Namun demikian kesimpulan yang lebih kuat masih harus dilakukan dengan Wald Test. Dengan restriksi c(8)=…=C(18)=0, pengujian Wald Test memberikan hasil sbb: Wald Test: Equation: EQ01 Test Statistic F-statistic Chi-square
Value 0.855946 9.415406
df
Probability
(11, 113) 11
0.5852 0.5836
Value
Std. Err.
Null Hypothesis Summary: Normalized Restriction (= 0) C(8) C(9) C(10) C(11) C(12) C(13) C(14) C(15) C(16)
-0.417711 0.059052 -0.451483 0.033309 -0.206331 0.003837 -0.157064 -0.134160 0.051693
0.304444 0.264731 0.268386 0.269242 0.269252 0.278767 0.277993 0.267656 0.266851
19
C(17) C(18)
-0.246260 0.132838
0.262827 0.271423
Restrictions are linear in coefficients.
Tabel 7. Wald Test Seasonal Dummies Dapat dilihat dari tabel 7 bahwa kita tidak dapat menolak hipotesis null, sehingga dapat diambil kesimpulan dugaan adanya pola musiman tidak didukung oleh data.
20