BAB II LANDASAN TEORI
2.1
Data Data merupakan bentuk jamak dari datum. Data merupakan sekumpulan
datum yang berisi fakta-fakta serta gambaran suatu fenomena yang dikumpulkan, dirangkum, dianalisis, dan selanjutnya diinterpretasikan. Berdasarkan waktu pengambilannya data dibedakan menjadi 2 yaitu : 1. Time series data Data berkala (time series data) adalah data yang dikumpulkan selama kurun waktu atau periode tertentu untuk memberikan gambaran perkembangan suatu hal. Contoh : data pergerakan nilai tukar rupiah dalam 1 bulan. 2. Cross section data Cross section data merupakan data dari beberapa lokasi yang dikumpulkan pada
waktu tertentu yang sama atau hampir sama untuk memberikan
gambaran keadaan atau kegiatan pada waktu itu. Contoh : jumlah peserta Ujian Nasional tahun 2010/2011 siswa SMA di Bandung.
7
2.2
Variansi Populasi Variansi populasi adalah jumlah kuadrat selisih data pengamatan dengan
rata-rata hitung dibagi dengan banyaknya data pengamatan. =
∑ −
(2.1)
Akar dari variansi populasi adalah simpangan baku populasi (σ).
2.3
Regresi Linear Regresi linear adalah regresi yang variabel bebasnya (X) berpangkat 1.
Regresi linear dibedakan menjadi dua yaitu : 1. Regresi Linear Sederhana Regresi linear sederhana adalah regresi linear yang hanya melibatkan dua variabel yaitu variabel bebas X dan variabel tak bebas Y (Hasan, 2005). Model regresi linear sederhana dari Y terhadap X ditulis dalam bentuk :
dimana
= + +
(2.2)
Y : variabel tak bebas X : variabel bebas α : konstanta β : koefisien regresi / slope ε : variabel randon error/galat/variabel pengganggu
8
2. Regresi Linear Berganda Regresi linear berganda adalah regresi yang variabel tak bebasnya (Y) dihubungkan dengan lebih dari satu variabel bebas (X1, X2, X3, ..., Xn) (Hasan, 2005). Bentuk umum model regresi linear berganda :
dimana
= + + + + ⋯ + +
(2.3)
Yi
: variabel tak bebas
β0
: konstanta
β1, β2, β3, ..., βn
: koefisien regresi
Xi1, Xi2, Xi3, ..., Xik
: variabel bebas
εi
: variabel randon error/galat/variabel pengganggu
Bentuk umum model regresi berganda tersebut dapat diuraikan menjadi :
= + + + + ⋯ + +
= + + + + ⋯ + + ⋮
= + + + + ⋯ + +
9
Apabila dituliskan dalam bentuk matriks menjadi : = + + ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ Secara ringkas dapat dituliskan : Y = XB + ε
2.4
(2.4)
Analisis Korelasi Analisis korelasi adalah analisis yang dilakukan untuk mengukur keeratan
hubungan antara dua variabel (Kustituanto, 1984). Ukuran statistik yang dapat menggambarkan hubungan antara suatu variabel dengan variabel lain adalah : 1. Koefisien Determinasi Koefisien determinasi digunakan untuk mengetahui ada tidaknya hubungan antara dua variabel. Besarnya koefisien determinasi dapat dihitung dengan rumus : =
(2.5)
dimana : r2 : koefisien determinasi Y : variabel tak bebas
: rata – rata hitung dari nilai Y
: Y dugaan dengan = + !
10
Rumus (2.5) digunakan untuk menghitung besarnya koefisien determinasi pada regresi linear sederhana. 2. Koefisien Korelasi Koefisien korelasi (r) dapat digunakan untuk : a. Mengetahui keeratan hubungan antara dua variabel Besarnya koefisien korelasi antara dua variabel adalah -1 ≤ r ≤ 1. Jika dua variabel mempunyai nilai r = 0 berarti tidak ada hubungan tetapi tidak ada hubungan antara dua variabel jika ada variabel mempunyai r = +1 atau r = -1 maka dua variabel tersebut mempunyai hubungan sempurna. b. Menentukan arah hubungan antara dua variabel Tanda (+) dan (-) yang terdapat pada koefisien korelasi menunjukkan arah hubungan antara dua variabel. Tanda (+) pada r menunjukkan hubungan antara yang searah atau positif. Tanda (-) pada r menunjukkan adanya hubungan berlawanan arah atau negatif. Besarnya koefisien korelasi dapat ditentukan dengan rumus : =
∑ "∑ " ∑
# ∑ " ∑ " # ∑ ∑
(2.6)
11
dimana r
: besarnya koefisien korelasi
X : variabel bebas Y : variabel tak bebas n
2.5
: banyaknya data
Metode Kuadrat Terkecil (Ordinary Least Square) Metode kudrat terkecil adalah metode yang digunakan untuk menaksir β
pada persamaan regresi. Prinsip dasar metode kuadrat terkecil adalah
meminimumkan jumlah kuadrat error yaitu meminimumkan ∑ (Suryanto, 1998). Secara matematis, meminimalkan nilai error dapat dilakukan melalui langkah-langkah berikut :
= − −
dapat bernilai positif (+), negatif (-), atau nol (0). Karena metode kuadrat
terkecil digunakan untuk mencari jumlah penyimpangan kuadrat ∑ , maka
diperlukan , sehingga :
= − −
∑ = ∑ − − ∑ = ∑ − −
Jika masing-masing kecil maka ∑ akan terkecil.
Pada prinsipnya metode kuadrat terkecil mengatakan bahwa penaksiran β0
dan β1 dilakukan sedemikian sehingga ∑ minimum. Artinya, akan dicari β0 dan 12
β1 sedemikian sehingga model regresi yang terestimasi dekat sekali dengan model regresi sesungguhnya. Secara matematis, β0 dan β1 dipilih sedemikian sehingga bentuk berikut terpenuhi :
∑ = ∑ − −
∑ akan minimum bila : %
%&' %
%&+
∑ = 0 → 2 ∑ − − = 0
∑ = 0 → 2 ∑ − − = 0
Setelah disederhanakan, β0 dan β1 yang memenuhi syarat adalah : ∑"- " - , = ! = " " -
dimana
, = ! = − ! = ∑ = ∑
Bila Xi dan Yi sudah terobservasi, maka b1 dan b2 dapat dicari dengan rumus-rumus yang tersedia, dan koefisien regresi (b1 dan b2) disebut Ordinary Least Square Estimator. Jika asumsi-asumsi berikut dipenuhi, maka taksiran yang diperoleh dengan metode kuadrat terkecil mempunyai sifat linear, tak bias, dan variansi minimum (efisien) atau biasa dikenal dengan sifat BLUE (Best Linear Unbiased Estimator).
13
Berikut sifat-sifat penaksir (estimator) dalam metode kuadrat terkecil adalah: 1. Linear
! = . .
= . . Xβ + ε
= . . + .
= 2 + . = + .
Jadi, ! merupakan fungsi linear dari β dan ε. 2. Unbiasedness
Bila ! adalah taksiran dari , maka ! dikatakan tak bias yaitu : bukti :
34! 5 =
34! 5 = 36 + . . 78 = 3 + 36 . . 8
= + . ′368
Karena E[ε] = 0 maka 34! 5 =
Jadi, ! merupakan penaksir tak bias. 3. Variansi minimum
Bila ! dan ! keduanya merupakan taksiran tak bias untuk β, maka !
dikatakan lebih efisien dari ! jika var (! ) ≤ var (!)
14
2.6
Standar Error dari Taksiran Least Square Sebagaimana telah dikemukakan sebelumnya bahwa metode yang
digunakan untuk menaksir model dilandasi pada prinsip meminimalkan error. Oleh karena itu, ketepatan dari taksiran ditentukan oleh standar error dari masingmasing taksiran. Adapun standar error dirumuskan sebagai berikut : :3, =
+
< ;∑" " = -
(2.7) +
:3, = ; ∑" " = ∑ "- -
(2.8)
Karena merupakan penyimpangan yang terjadi dalam populasi, yang
nilainya tidak diketahui, maka biasanya ditaksir berdasarkan data sampel.
Adapun taksirannya adalah sebagai berikut : >=?
A
+
∑ @-
= 4 − 5
2.7
(2.9)
(2.10)
Teorema Gauss-Markov Penaksir kuadrat terkecil biasa (OLS) dari koefisien regresi adalah
penaksir tak bias linear terbaik (BLUE) apabila memenuhi asumsi klasik sebagai berikut : 1.
Nilai rata-rata bersyarat dari unsur gangguan , tergantung kepada nilai
tertentu variabel yang menjelaskan (X) adalah nol, untuk i = 1,2,3,..., n
2. Varians bersyarat dari adalah konstan atau homoskedastik.
15
3. Tidak ada autokorelasi dalam gangguan. 4. Variabel yang menjelaskan adalah nonstokastik (yaitu, tetap dalam penyampelan berulang) atau jika stokastik didistribusikan secara independen dari gangguan .
5. Tidak ada multikolinieritas di antara variabel yang menjelaskan X.
6. didistribusikan secara normal dengan rata-rata dan varians yang diberikan oleh asumsi 1 dan 2.
2.8
Uji Normalitas Jarque-Bera Untuk mengetahui apakah asumsi normalitas dari error dipenuhi, maka
perlu dilakukan uji normalitas. Jarque-Bera adalah statistik uji untuk mengetahui apakah data berdistribusi normal atau tidak. Uji ini mengukur perbedaan kemiringan (skewness) dan kurtosis data. Statistik Jarque-Bera mengikuti distribusi Chi-Kuadrat dengan derajat kebebasan dua. Langkah-langkah dalam melakukan uji Jarque-Bera: 1. Perumusan hipotesis H0 : Data berdistribusi normal H1 : Data berdistribusi tidak normal 2. Besaran yang diperlukan
B − C F − 3 E: + I 6 4
dimana S adalah koefisien kemiringan, K adalah koefisien kurtosis, dan C adalah banyak koefisien yang digunakan dalam persamaan.
16
3. Statistik Uji
N − k 2 (K − 3) S + JB = 6 4
2
4. Kriteria Pengujian Dengan mengambil taraf nyata α, maka dari Tabel Distribusi Chi-Kuadrat diperoleh nilai χ (21−α ; 2 ) H0 ditolak jika JB > χ (21−α ; 2 ) atau jika Probabilitas (JB) < α 5. Kesimpulan Penafsiran dari H0 ditolak atau diterima.
2.9
Penyimpangan Asumsi Model Klasik Dalam regresi linier berganda akan dijumpai beberapa penyimpangan yang
dapat mengganggu model. Adapun penyimpangan dari asumsi dasar berikut meliputi : 1. Multikolinearitas Multikolinearitas berarti adanya hubungan linear yang sempurna atau pasti diantara beberapa atau semua variabel yang menjelaskan dari model regresi (Gujarati, 1991). 2. Heterokedastisitas Hetetokedastisitas berarti adanya kesalahan atau residual yang diamati tidak memiliki variansi yang konstan (Nachrowi, 2002). Kondisi heterokedastisitas sering terjadi pada data cross section, atau data yang diambil dari beberapa responden pada suatu waktu tertentu.
17
3. Autokorelasi Autokorelasi berarti adanya korelasi antara variabel itu sendiri, pada pengamatan yang berbeda waktu atau individu (Nachrowi, 2002). Salah satu langkah yang dapat dilakukan untuk mendeteksi autokorelasi adalah dengan melihat pola hubungan antara residual ( ) dan variabel bebas atau waktu (X).
18