BAB II
LANDASAN TEORI
2.1
Aljabar Matriks
2.1.1 Definisi
Matriks
Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda “[ ]” atau “( )”. Sebuah matriks dinotasikan dengan simbol huruf besar seperti A, X, atau Z dan sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis sebagai berikut :
Atau juga dapat ditulis : A=[
] i = 1, 2,…, m ; j = 1, 2,…, n
Universitas Sumatera Utara
Determinan Matriks Determinan adalah semua hasil perkalian elementer yang bertanda dari suatu matriks A dan dinyatakan dengan det (A). Misalkan A = [
] adalah matriks nxn. Fungsi
determinan dari A ditulis dengan det (A) atau |A|. Secara matematiknya ditulis :
merupakan himpunan S = {1, 2, …, n}.
Dengan Teorema Jika A = [
] adalah matriks nxn yang mengandung sebaris bilangan nol, maka det(A)
= 0. Teorema Jika A adalah matriks segitiga nxn, maka det(A) adalah hasil kali elemen – elemen pada diagonal utama, yaitu Teorema Jika A adalah sebarang matriks kuadrat, maka
.
Invers Matriks Misalkan A matriks nxn disebut non singular (invertible) jika terdapat matriks B maka AB = BA = I Matriks B disebut invers dari A jika tidak terdapat matriks B maka matriks A disebut singular (non-invertible). Secara umum invers matriks A adalah :
Universitas Sumatera Utara
Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan
adalah kofaktor elemen-elemen
Sehingga dapat ditulis dalam bentuk matriks sebagai berikut :
dengan :
Sifat – sifat invers : a. Jika A adalah matriks non singular, maka
adalah non singular dan
b. Jika A dan B adalah matriks non singular, maka AB adalah non singular dan
2.2
Regresi Linier Berganda
Dalam menentukan nilai variabel tidak bebas (Y), perlu diperhatikan variabel – variabel bebas (X) yang mempengaruhinya terlebih dahulu, dengan demikian harus diketahui hubungan antara satu variabel tidak bebas (Dependent Variable) dengan beberapa variabel lain yang bebas (Independent Variable). Untuk meramalkan Y, apabila semua variabel bebas diketahui, maka dapat dipergunakan model persamaan regresi linier berganda sebagai berikut: Y 0 1 X 1i 2 X 2i 3 X 3i ... k X ki i
(2.1)
dimana: Y = variabel tidak bebas X 1i , X 2i ,..., X ki = variabel bebas
Universitas Sumatera Utara
1 , 2 ,..., k
= parameter koefisien regresi variabel bebas
0 = intersep yaitu titik potong antara regresi dengan sumbu tegak y bila x= 0 k = Jumlah variabel bebas pada observasi ke-i i = Banyak pengamatan
i = Variabel kesalahan ke-i Apabila dinyatakan dalam bentuk matriks
Y1 1 Y 2 1 Y3 1 ... ... Yn 1
X 11 X 12 X 13 ... X 1n
X 21 X 22 X 23 X 2n
X 31 ... X k1 0 1 X 32 ... X k 2 1 2 X 33 ... X k 3 2 3 ... ... ... X 3n ... X kn k n
Dengan k < n yang berarti banyak observasi harus lebih banyak dari pada banyak variabel bebas, akan diperoleh: (2.2) atau
Salah satu metode estimasi parameter untuk regresi linier berganda adalah Ordinary Least Square (OLS). Konsep dari metode OLS adalah menaksir parameter regresi
dengan meminimumkan jumlah kuadrat dari error. Tujuan OLS adalah
meminimumkan jumlah kuadrat error yaitu: n
S
= i2 i 1
= 12 22 ... n2
Universitas Sumatera Utara
12 2 2 2 2 2 = 1 2 ... n ... n2
= T = y X y X T
= y T ( X )T y X = y T T X T y X = yT y yT X T X T y T X T X Karena y T X adalah scalar, maka matriks transpose –nya adalah
y
X
T XT y
(2.3)
= y T y 2 T X T y T X T X
(2.4)
T
T
Jadi S
Untuk mengestimasi parameter regresi ( ) maka jumlah kuadrat error harus diminimumkan (Supranto, 2009: 241 -242), hal tersebut bisa diperoleh dengan melakukan turunan pertama terhadap ( ) , dengan aturan penurunan skalar berikut: Misalkan z dan w adalah vektor vektor berordo mx1, sehingga y =zTw adalah skalar, maka,
dy dy dy dy w , T wT , z ,dan zT dz dz dw dwT
Sehingga didapatkan hasil turunan jumlah kuadrat error sebagai berikut:
S = 0 2 X T y X T X ( T X T X )T = 2 X T y X T X X T X = 2 X T y 2 X T X
(2.5)
dan hasil estimasi parameter didapatkan dengan menyamakan hasil turunan jumlah kuadrat error dengan nol, sehingga pada saat hasil turunan jumlah kuadrat error disamakan dengan nol parameter menjadi ˆ , dan diperoleh:
2 X T y 2 X T Xˆ 0 2 X T Xˆ 2 X T y
Universitas Sumatera Utara
ˆ = ( X T X ) 1 X T y
(2.6)
Akan ditunjukan bahwa ˆ adalah estimasi linier tak bias dari
E ˆ E X T X
1
XT y
X T E y
X T X
XTX XTX
1
1
dari sini terbukti bahwa ˆ adalah estimasi linier tak bias dari . Dengan mensubtitusi persamaan (2.2) ke dalam persamaan (2.5) didapat:
ˆ
= ( X T X ) 1 X T y ( X T X ) 1 X T X ( X T X ) 1 X T X ( X T X ) 1 X T ( X T X ) 1 X T
(2.7)
Untuk dapat menunjukkan bahwa ˆ adalah penaksir OLS yang paling baik (Best Estimator) dalam arti taksiran variansi parameter (Var( ˆ )) adalah yang terendah, maka bisa diperlihatkan sebagai berikut:
Cov ˆ E ˆ E ˆ ˆ E ˆ
T
E ( ˆ1 1 ) E ( ˆ 2 2 ) E ( ˆ1 1 ) E ( ˆ k k )
E ( ˆ 2 2 ) E ( ˆ k k )
Universitas Sumatera Utara
E ( ˆ1 1 ) 2 E ( ˆ1 1 ) E ( ˆ2 2 ) ˆ E ( 1 1 ) E ( ˆ2 2 ) E ( ˆ2 2 ) 2 ˆ ˆ ˆ E ( 1 1 ) E ( k k ) E ( 2 2 ) E ( ˆk k ) Var ( ˆ1 ) Cov( ˆ1 , ˆ2 ) Cov( ˆ1 , ˆ2 ) Var ( ˆ2 ) ˆ ˆ ˆ ˆ Cov( 1 , k ) Cov( 2 , k )
E ( ˆ1 1 ) E ( ˆk k ) E ( ˆ2 2 ) E ( ˆk k ) E ( ˆk k ) 2
Cov( ˆ1 , ˆk ) Cov( ˆ2 , ˆk ) Var ( ˆk )
Jelas terlihat bahwa variansi adalah anggota dari diagonal utama, sedangkan kovarian adalah unsur –unsur diluar diagonal utama. Kovariansi tersebut bisa dituliskan dalam notasi matriks sebagai berikut:
ˆ Eˆ
E ˆ
ˆ
Cov ˆ E ˆ E ˆ
T
T
E X T X
1
X T
X
X
X T
X T T X X T X
E X T X E XTX
1
1
T
X
1
X T E T X X T X
X T V X X T X
XTX
Dengan
1
1
V adalah
matriks
1
T X T
X
T X T
XTX
T
1
1
1
diagonal.
(2.8) Pada
saat
variansi
error
bersifat
homoskedastisitas, maka bisa ditulis V 2 I dengan asumsi tersebut persamaan menjadi:
Var ˆ X T X
1
X T 2 IX X T X
1
Universitas Sumatera Utara
2 XTX
XTX XTX
2 XTX
I
2 XTX
1
1
1
I
1
(2.9)
Apabila variansi error tidak diketahui, maka harus didapat taksirannya, dan untuk taksiran variansi error dilakukan dengan menaksir konstanta variansi error (ˆ 2 ) sebagai berikut: n
ˆ 2
i 1
2 i
(2.10)
nk
dengan variansi taksiran ini diperoleh variansi parameter regresi sebagai berikut:
Var ˆ ˆ 2 X T X
1
(2.11)
Dalam regresi linier berganda, ada beberapa asumsi yang harus dipenuhi agar tahap estimasi yang diperoleh benar dan efektif, bila memenuhi teorema Gauss Markov sebagai berikut (Nachrowi, 2002:123): 1. Rata –rata (harapan) variabel bernilai nol atau E( )=0 2. Tidak terdapat korelasi serial atau autokorelasi antar variabel error untuk setiap observasi atau Cov( i , j )=0 ; i j. 3. Memiliki error yang bersifat homoskedastisitas atau Var ( i X i ) 2 . 4. Nilai variabel (X) tetap atau nilainya independen terhadap factor error ( ) atau Cov(X, )=0 5. Model regresi dispesifikasi secara benar, dan 6. Tidak ada hubungan linier (kolinieritas) antar variabel –variabel bebas.
Ada beberapa penyimpangan asumsi dalam regresi linier berganda, yakni: 1. Multikolinieritas
Universitas Sumatera Utara
Istilah ini diciptakan oleh Ragner Frish, yang berarti ada hubungan linier yang sempurna atau eksak diantara variabel-variabel bebas dalam model regresi 2. Heteroskedastisitas Salah satu asumsi dasar yang harus dipenuhi adalah varians error harus konstan (Var ( i X i ) 2 ), jika tidak konstan, maka terdapat unsur heteroskedastisitas.
Data
cross-section
cenderung
memuat
unsur
heteroskedastisitas karena pengamatan dilakukan pada individu yang berbeda pada saat yang sama. 3. Autokorelasi Autokorelasi merupakan gangguan pada fungsi yang berupa korelasi diantara variabel error, ini berarti tidak terpenuhinya asumsi yang menyatakan bahwa nila-nilai variabel tidak berkorelasi.
2.3
Heteroskedastisitas
Salah satu asumsi yang harus dipenuhi agar model bersifat BLUE (Best Linear Unbiased Estimator) adalah harus terdapat variansi yang sama dari setiap error-nya atau homoskedastisitas, secara simbolis E ( i2 ) 2 , i=1,2,…,n
apabila asumsi ini
tidak terpenuhi maka yang terjadi adalah sebaliknya, yakni heteroskedastisitas. Heteroskedastisitas berarti variansi error berbeda dari suatu observasi ke observasi lainnya. Sehingga setiap observasi mempunyai reliabilitas yang berbeda. Unsur heteroskedastisitas
menyebabkan hasil
dari
t-test
dan
F-test
menyesatkan, karena kedua uji tersebut menggunakan besaran variansi taksiran, lebih besarnya variansi taksiran dibanding variansi sebenarnya akan menyebabkan standar taksiran error juga lebih besar, sehingga interval kepercayaan sangat besar pula. (Nachrowi, 2002:133).
2.3.1
Teknik Mendeteksi Heteroskedastisitas
Metode pengujian yang bisa digunakan untuk menguji heteroskedastisitas adalah sebagai berikut:
Universitas Sumatera Utara
1. Melihat scatter plot (nilai prediksi dependen ZPRED dengan residual SRESID) Metode ini yaitu dengan cara melihat grafik scatterplot antara standardized predicted value (ZPRED) dengan studentized residual (SRESID). Ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi – Y sesungguhnya). Dasar pengambilan keputusan yaitu:
Jika ada pola tertentu, seperti titik –titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka terjadi heteroskedastisitas.
Jika tidak ada pola yang jelas, seperti titik –titik menyebar diatas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.
2. Uji Goldfeld – Quandt Adapun langkah –langkah pada metode ini adalah sebagai berikut: a. Urutkan data X berdasarkan nilainya b. Bagi data menjadi 2, satu bagian memiliki nilai yang tinggi, bagian lainnya memiliki nilai yang rendah, sisihkan data pada nilai tengah c. Lakukan regresi pada masing –masing data d. Buatlah rasio RSS(Residual Sum Square =error sum if square) dari regresi kedua terhadap regresi pertama (
Fhitung =
RSS 2 ), sehingga didapat RSS1
RSS 2 . RSS1
e. Lakukan uji Ftabel dengan menggunakan derajat kebebasan (degree of freedom) sebesar (n-d-2k)/2, dengan: n = banyaknya observasi d = banyaknya data atau nilai observasi yang hilang k =banyaknya parameter yang diperkirakan. Dan bila Fhitung ≥ Ftabel, maka ada heteroskedastisitas dalam hal lain tidak ada heteroskedastisitas.
Universitas Sumatera Utara
Pada Uji Goldfeld –Quant seandainya tidak ada data yang dibuang (d=0) tes masih berlaku tetapi kemampuan untuk mendeteksi adanya heteroskedastisitas agak berkurang.
3. Uji Park
Untuk pengujian heteroskedastisitas melalui pengujian hipotesis dapat dilakukan dengan uji park.R.E. Park pada tahun 1966 mengemukakan keyakinan bahwa terdapat suatu hubungan fungsional antara ragam galat, yang bersifat heteroskedastisitas dan variabel penjelas, X. Park merumuskan bentuk fungsional itu sebagai berikut:
Atau: ln di mana
adalah bentuk gangguan yang bersifat stokastik.
Karena
pada umumnya tidak diketahui, park mengunakan
sebagai variabel proxy, kemudian merumuskan model regesi sebagai berikut:
= Berdasarkan uji park, kita melakukan pengujian hipotesis tentang parameter
dalam model regresinya, apabila koefisien
besifat nyata dalam
statistik, maka menujukkan hetersokedastisitas dalam data, sebaliknya apabila uji terhadap koefisien
bersifat tidak nyata secara statistik, maka menujukan
bahwa asumsi homoskedastisitas dari model regresi dapat dipenuhi. Langkah-langkah pengujiannya adalah sebagai berikut:
Universitas Sumatera Utara
a.
Terapkan ordinary least square estimation (0LSE) untuk menaksir model:
b.
Menerapakan OLSE untuk menaksir ln
dengan menggunakan ln
.
4. Uji White Dalam implementasinya, model ini relative lebih mudah dibandingkan dengan uji –uji lainnya. Perhatikan persamaan berikut:
Y 0 1 x1i 2 x2i i Berdasarkan regresi yang mempunyai tiga variabel bebas diatas, dapat dilakukan uji white dengan beberapa tahapan prosedur, yaitu: a. Hasil estimasi dari model diatas akan menghasilkan nilai error, yaitu : ˆ i2 b. Buat persamaan regresi:
ˆ i2 0 1 x1i 2 x2i 3 x12i 4 x22i 5 x1i x2i vi Perhatikan model diatas, uji ini mengasumsikan bahwa varian error merupakan fungsi yang mempunyai hubungan dengan variabel bebas, kuadrat masing – masing variabel bebas, dan interaksi antar variabel bebas. c. Dengan hipotesis: H0
: Homoskedastisitas / tidak heteroskedastisitas
H1
: Heteroskedastisitas.
Sampel berukuran n dan koefisien determinasi R2 yang didapat dari regresi akan mengikuti distribusi Chi- Square dengan derajat bebas jumlah variabel bebas atau jumlah koefisien
regresi diluar intercept. Dengan demikian,
formulasi Uji White adalah sebagai berikut : nR 2 ~ 2
d. Kriteria uji white adalah jika nR2 > 2 tabel, maka tolak H0 . Sebaliknya jika nR2 < 2 tabel, maka terima H0.
Universitas Sumatera Utara
2.4
Metode Weight Least Square (WLS)
Apabila variansi error ( 2 ) diketahui atau dapat diperkirakan, cara yang paling mudah untuk mengatasi adanya heteroskedastisitas adalah dengan metode kuadrat terkecil terboboti (Weighted Least Square) yang memberikan hasil bersifat BLUE. (Gujarati, 2010: 493). Untuk menggambarkan metode ini, akan diberikan model sebagai berikut: Yi 0 1 X 1i 2 X 2i 3 X 3i ... k X ki i
Untuk mendapatkan taksiran variansi parameter regresi, diasumsikan untuk sementara bahwa variansi error sebenarnya ( 2 ) untuk setiap observasi diketahui, sehingga transformasi persamaan yang dihasilkan dari model regresi linier berganda adalah: Yi
0
1
1
X 1i
2
X 2i
...
i
Transformasi ini dilakukan dengan membagi baik sisi kiri maupun sisi kanan regresi dengan akar variansi error ( ). Sekarang anggaplah vi
i dan vi bisa disebut
faktor error yang ditransformasikan, apabila faktor error tersebut bersifat homoskedastisitas, maka bisa diketahui bahwa estimator OLS dari parameterparameter pada persamaan tersebut bersifat BLUE. Untuk melihat bahwa faktor error (vi) homoskedastisitas bisa dengan cara berikut:
i2 v 2 2 i
Sehingga
2 E( vi2 ) E i2
1 E vi2 2 E ( i2 )
Universitas Sumatera Utara