BAB 2
LANDASAN TEORI
2.1 Analisis Regresi
Perubahan nilai suatu variabel tidak selalu tejadi dengan sendirinya, namun perubahan nilai variabel itu dapat pula disebabkan oleh berubahnya variabel lain yang berhubungan dengan variabel tersebut. Untuk mengetahui pola nilai suatu variabel yang disebabkan oleh variabel lain diperlukan alat analisis yang memungkinkan untuk membuat perkiraan nilai variabel tersebut pada nilai tertentu variabel yang mempengaruhinya.
Teknik yang umum digunakan untuk menganalisis hubungan antara dua atau lebih variabel dalam ilmu statistik adalah analisis regresi. Analisis regresi adalah teknik statistik yang berguna untuk memeriksa dan memodelkan hubungan diantara variabel-variabel. Analisis regresi berguna dalam menelaah hubungan dua variabel atau lebih dan terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna, sehingga dalam penerapannya lebih bersifat eksploratif.
Persamaan regresi yang digunakan untuk membuat taksiran mengenai nilai variabel terikat disebut persamaan regresi estimasi, yaitu suatu formula matematis yang menunjukkan hubungan keterkaitan antara satu atau beberapa variabel yang nilainya sudah diketahui dengan satu variabel yang nilainya belum diketahui. Sifat hubungan antar variabel dalam persamaan regresi merupakan hubungan sebab akibat.
Regresi yang berarti peramalan, penaksiran atau pendugaan pertama kali diperkenalkan pada tahun 1877 oleh Sir Francis Galton (1822 - 1911) sehubungan
Universitas Sumatera Utara
dengan penelitiannya terhadap manusia. Penelitian tersebut membandingkan antara tinggi anak laki-laki dan tinggi badan orang tuanya. Istilah regresi pada mulanya bertujuan untuk membuat perkiraan nilai suatu variabel (tinggi badan anak) terhadap suatu variabel yang lain (tinggi badan orang tua). Pada perkembangan selanjutnya, analisis regresi dapat digunakan sebagai alat untuk membuat perkiraan nilai suatu variabel dengan menggunakan beberapa variabel lain yang berhubungan dengan variabel tersebut.
2.1.1 Regresi Linier Sederhana
Regresi linier sederhana adalah analisis regresi yang melibatkan hubungan fungsional antara satu variabel terikat dengan satu variabel bebas. Variabel terikat merupakan variabel yang nilainya selalu bergantung dengan nilai variabel lain. Dalam hal ini variabel terikat yang nilainya selalu dipengaruhi oleh variabel bebas, sedangkan variabel bebas adalah variabel yang nilainya tidak bergantung pada nilai variabel lain. Dan biasanya variabel terikat dinotasikan dengan X. Hubungan-hubungan tersebut dinyatakan dalam model matematis yang memberikan persamaan-persamaan tertentu.
Bentuk umum persamaan regresi linier sederhana yang menunjukkan hubungan antara dua variabel, yaitu variabel X sebagai variabel bebas dan variabel Y sebagai variabel terikat adalah Yi = a + bX i
(2.1)
Keterangan:
Yi
= variabel terikat ke-i
Xi
= variabel bebas ke-i
a
= intersep (titik potong kurva terhadap simbu Y)
b
= kemiringan (slope) kurva linier
Universitas Sumatera Utara
Metode kuadrat terkecil adalah suatu metode untuk menghitung a dan b sebagai perkiraan A dan B, sedemikian rupa sehungga jumlah deviasi kuadrat ( SSD = ∑ ei ) memiliki niali terkecil. 2
Model sebenarnya
: Y = A + BX + ε
Model perkiraan
: Y = a + bX +e
a, b merupakan perkiraan / taksiran atas A, B. Jika X dikurangi rata-ratanya ( xi = X i − X ) akan diperoleh variabel baru x dengan
∑x
i
= 0 . Maka persamaannya menjadi:
Yi = a + bxi + ei ei = Yi − (a + bxi )
SSD = ∑ ei = ∑ [Yi − (a + bxi )]
2
2
(2.2)
Metode meminimumkan jumlah deviasi kuadrat (regresi kuadrat terkecil) yang didasarkan pada pemilihan a dan b, sehungga meminimalkan jumlah kuadrat deviasi titik-titik data dari garis yang dicocokkan.
Kemudian akan ditaksir a dan b sehingga jika taksiran ini disubstitusikan ke dalam persamaan (2.2), maka jumlah deviasi kuadrat menjadi minimum. Dengan mendifferensialkan persamaan (2.2) terhadap a dan b dengan menetapkan derivatif parsial yang dihasilkan sama dengan nol, diperoleh:
∂ ∑ ei2
=
⇒ aˆ =
∑Y
∂a
∂ (Yi − a − bxi ) 2 = ∑ Yi − na − b∑ xi = 0 → ∑ xi = 0 ∑ ∂a i
n
=Y
(2.3)
Universitas Sumatera Utara
∂ ∑ ei2 ∂b
⇒ bˆ =
=
∂ (Yi − a − bxi ) 2 = ∑ xi Yi − a ∑ xi − b∑ x 2 i = 0 → ∑ xi = 0 ∑ ∂b
∑xY ∑x
i i 2
(2.4)
i
Nilai aˆ dan bˆ yang diperoleh dan cara ini disebut taksiran kuadrat terkecil masing-masing dari a dan b. Dengan demikian, taksiran persamaan regresi dapat ditulis sebagai, Yˆ = aˆ + bˆX yang disebut persamaan prediksi.
Garis regresi berguna untuk menentukan hubungan pengaruh perubahan variabel yang satu dengan yang lainnya. Selanjutnya dari hubungan dua variabel ini dapat dikembangkan untuk analisa tiga variabel atau lebih.
2.1.2 Regresi Linier Berganda
Regresi Linier Berganda merupakan regresi linier yang melibakan hubungan fungsional antara sebuah variabel terikat dengan dua atau lebih vaiabel bebas. Semakin banyak variabel bebas yang terlibat dalam suatu persamaan regresi semakin rumit menentukan nilai statistik yang diperlukan hingga diperoleh persamaan regresi estimasi. Regresi linier berganda berguna untuk mendapatkan pegaruh dua variabel kiteriumnya atau untuk mencari hubungan fungsional dua variabel bebas atau lebih dengan variabel kriteriumnya, atau untuk meramalkan dua variabel bebas atau lebih terhadap variabel kriteriumnya.
Hubungan linier lebih dari dua variabel yang bila dinyatakan dalam bentuk persamaan matematis adalah: Y = β 0 + β1 X 1 + + β k X k + ε
(2.5)
Keterangan: Y
= variabel terikat
Universitas Sumatera Utara
X 1 ,..., X k
= variabel bebas pada variabel ke-1 sampai variabel ke-k
β 0, β1, ..., β k
= parameter regresi
ε
= nilai kesalahan (error)
Langkah-langkah dalam analisis regresi berganda:
1.
Membuat hpotesis Ha dan H0 dalam bentuk kalimat:
H0
: Terdapat hubungan fungsional yang signifikan antara variabel X 1 , X 2 , , X k dengan variabel Y.
Ha
:
Tidak terdapat hubungan fungsional yang signifikan antara variabel X 1 , X 2 , , X k dengan variabel Y.
2.
Kemudian mencari Rhitung dengan rumus:
R y2(1, 2,...,k ) =
3.
β1 ∑ x1 y + β 2 ∑ x 2 y + + β k ∑ x k y
∑y
Kemudian menghitung Fsign hitung dengan menggunakan rumus:
Freg =
R y2(1, 2,...,k ) (n − k − 1) k (1 − R y2(1, 2,...,k )
4.
Dengan menggunakan taraf α = 0,05
5.
Menghitung nilai Ftabel dengan mengunakan rumus: Ftabel = Fα ( k .n − k −1)
6.
(2.6)
2
(2.7)
(2.8)
Membuat kriteria pengujian, yaitu:
Universitas Sumatera Utara
Fhit > Ftabel : maka H0 ditolak signifikan Fhit ≤ Ftabel : maka H0 diterima. 7.
Membuat Kesimpulan
2.2 Estimasi
Estimasi adalah menaksir ciri-ciri tertentu dari populasi tertentu dari populasi atau memperkirakan nilai populasi (parameter) dengan memakai nilai sampel (statistik). Dengan statistika kita berusaha meyimpulkan populasi. Dalam kenyataannya, mengingat berbagai faktor untuk keperluan tersebut diambil sebuah sampel yang represntatif dan berdasarkan hasil analisis terhadap data sampel kesimpulan mengenai populasi dibuat. Cara pengambilan kesimpulan tentang parameter berhubugan dengan cara-cara menaksir harga parameter. Jadi, harga parameter sebenarnya yang tidak diketahui akan diestimasi berdasarkan statistik sampel yang diambil dari populasi yang bersangkutan.
Sifat atau ciri estimator yang baik yaitu tidak bias, efisien dan konsisten: 1. Estimator yang tidak bias Estimator dikatakan tidak bias apabila dapat menghasilkan estimasi yang mengandung nilai parameter yang diestimasikan. Misalkan, estimtor ϑˆ dikatakan estimator yang tidak bias jika rata-rata semua harga ϑˆ yang mungkin akan sama dengan ϑ . Dalam ekspektasinya dapat ditulis dengan E (θˆ) = θ .
2. Estimator yang efisien Estimator dikatakan efisien apabila hanya dengan rentang nilai estiasi yang kecil saja sudah cukup mengandung nlai parameter, estimator bervarians minimum ialah estimator dengan varians terkecil di antara semua estimator untuk parameter yang sama. Jika ϑˆ1 dan ϑˆ2 dua estimator untuk ϑ dimana
Universitas Sumatera Utara
varians untuk ϑˆ1 lebih kecil dari varians untuk ϑˆ2 , maka ϑˆ1 merupakan estimator bervarians minimum.
3. Estimator yang konsisten Estimator dikatakan konsisten apabila sampel yang diambil berapa pun besarnya, pada rentangnya tetap mengandung nilai parameter yang sedang diestimasi. Misalkan, ϑˆ estimator untuk θ yang dihitung berdasrakan sebuah sampek acak berukuran n. Jika ukuran sampel n makin besar mendeteksi ukuran populasi menyebabkan ϑˆ mendekati θ , maka ϑˆ disebut estimator konsisten.
Estimasi nilai parameter memiliki dua cara, yaitu estimasi titik (point estimation) dan estimasi selang (Interval estimation).
a. Estimasi titik (point estimation) Estimasi titik adalah estimasi dengan menyebut satu nilai atau untuk mengestimasi nilai parameter.
b. estimasi interval (Interval estimation) Estimasi Interval dengan menyebut daerah pembatasan dimana kita menentukan batas minimum dan maksimum suatu estimator. Metode ini memuat nilai-nilai estimator yang masih dianggap benar dalam tingkat kepercayaan tertentu (confidence interval)
2.2.1 Estimasi Maksimum Likelihood
Salah satu cara untuk mendapatkan estimator yang baik adalah dengan menggunakan metode maksimum likelihood yang diperkenalkan oleh R. A. Fisher. Maksimum Likelihood merupakan suatu cara mendapat estimator a untuk parameter b yang tidak diketahui dari populasi dengan memaksimumkan fungsi kemungkinan.
Universitas Sumatera Utara
Untuk data sampel x1 ,..., x n dari distribusi yang kontinu dengan fungsi padat f(x; α ) ditentukan fungsi likelihood sebagai L( x1 ,..., x n ; α ) = f ( x1 ; α )... f ( x n ; α ).
Unuk data sampel distribusi yang diskrit dengan nilai kemungkinan p( X = xi ) = pi (α ), i = 1,..., r
dan frekuensi
f1 ,...., f k ditentukan dengan fungsi
Likelihood sebagai berikut: L( x1 , , x n ; α ) = ( pi (α )) 1 ( p r (α )) r , f
f
n
∑f i =1
i
=n
Karena ln L merupakan transformasi yang monoton naik daripada L, maka ln L mencapai maksimumnya pada nilai α yang sama. Menurut hitung differensial persamaan menjadi
∂ ln L = 0 . Suatu akar persamaan ini αˆ = a(x1 ,..., x n ) yang ∂α
memaksimumkan L, disebut estimasi maksimum likelihood untuk α .
2.2.2 Maksimum Likelihood dalam Regresi Linier Berganda
Maksimum Likelihood adalah metode yang dapat digunakan umtuk mengestimasi suatu parameter dalam regresi.
Jika X dikurangi dengan rata-atanya, maka maka akan diperoleh variabel baru
(
)
x xi = X i − X dan selisih antara X i dan X merupakan perhitungan yang sederhana n karena jumlah dari nilai xi tersebut adalah sama dengan nol ∑ xi = 0 . Dan i =1 persamaan regresi linier berganda menjadi: Yi = β 0 + β1 X 1 + ... + β k X k + ε
(2.7)
Keterangan:
Universitas Sumatera Utara
Yi
= variabel terikat ke-i
x1i ,..., x ki
=
selisih antara variabel bebas X dengan nilai rata-ratanya pada pengamatan ke-i
β 0, β1 ,..., β k = parameter regresi
ε
=
nilai kesalahan(error)
Teknik estimasi maksimum likelihood mempertimbangkan berbagai populasi yang mungkin dengan perpindahan garis regresi dan regresi tersebut mengelilingi distribusi untuk semua posisi yang mungkin. Perbedaan posisi yang berhubungan dengan perbedaan nilai percobaan untuk β 0, β1 ,..., β k . Dalam hal ini, pengamatan likelihood dipilih hipotesis populasi yang maksimum dalam likelihood. Secara umum, andaikan kita mempunyai sampel berukuran n dan kita ingin mengetahui kemungkinan sampel yang diamati. Diperlihatkan fungsi nilai kemungkinan sampel untuk β 0, β1 ,..., β k : p(Yi , Y2 ,..., Yn / β 0 , β1 ,..., β k )
(2.8)
Mengingat kemungkinan nilai pertama Y adalah:
p(Yi ) =
1
σ 2π
Hal
e
di
Y − ( β 0 + β1 x1i +...+ β k xki ) −1 1 2 σ
atas
adalah
2
distribusi
(2.9)
normal
sederhana
dengan
rata-rata
β 0 + β1 x1i + ... + β k xki dan varians (σ 2 ) yang disubstitusi ke dalam: p(Yi ) =
1
σ 2π
e
1 x − µ − 2 σ
. Kemungkinan nilai kedua Y sama dengan (2.9), kecuali
angka satu diganti dengan dua dan deterusnya untuk semua nilai Y amatan lainnya.
Untuk nilai Y bebas dengan mengalikan semua kemungkinan bersama dalam (2.8), dimana:
Universitas Sumatera Utara
p(Yi , Y2 ,..., Yn / β 0 , β1 ,..., β k )
Y − ( β 0 + β1 x1i +...+ β k xki ) 1 −1 1 2 σ = e σ 2π
2
Y − ( β 0 + β1 x1i +...+ β k xki ) 1 −1 2 2 σ e σ 2π
Y − ( β 0 + β1 x1i +...+ β k xki ) 1 −1 i 2 σ e = ∏ i =1 σ 2π n
2
2
...
(2.10)
n
Dengan
∏ i =1
menyatakan hasil kali n kemungkinan bersama untuk nilai Yi
yang penggunaannya dik enal untuk eksponensial. Hasil (2.10) dapat diperlihatkan dengan penjumlahan ekspnen:
n (− 12 ) Yi −( β 0 + β1xσ1i +...+ β k xki ) 1 ∑ i =1 p(Y1 , Y2 ,..., Yn / β 0 , β1 ,..., β k ) = e σ 2π n
Mengingat Yi
2
(2.11)
amatan yang diberikan dipertimbangkan untuk berbagai nilai
β 0 , β1 ,..., β k . Sehingga persamaan (2.11) dinamakan fungsi likelihood:
L(β 0 , β1 ,..., β k ) =
(σ
1 2π
−1
)
n
e
Yi − β 0 − β1 x1i −...− β k xki σ i =1 n
2
∑
2
(2.12)
Keterangan: L(β 0 , β1 ,..., β k ) = fungsi maksimum likelihood pada parameter β 0 , β1 ,..., β k
σ
= parameter yang merupakan simpangan baku untuk distribusi
π
= nilai konstan ( π = 3,1416)
n
= banyak data sampel
e
= bilangan konstan (e = 2,7183)
Yi
= variabel terikat ke-i
Universitas Sumatera Utara
βi
= parameter regresi ke-i
Dari persamaan (2.12) diperoleh ln L(β 0 , β1 ,..., β k ) , yaitu: n 1 n Y − β 0 − β1 x1i − ... − β k x ki Λ = ln L(β 0 , β 1 ,..., β k ) = − ln(2π ) − n ln σ − ∑ i (2.13) 2 2 i =1 σ 2
Dengan mendiffrensialkan Λ terhadap setiap parameter β 0 , β1 ,..., β k dan menetapkan derivatif parsial yang dihasilkan sama dengan nol, diperoeh: ∂Λ 1 = 2 ∂β 0 σ
n
∑ (Y i =1
i
− β 0 − β1 x1i − ... − β k x ki ) = 0
n
n
n
n
n
i =1
i =1
i =1
i =1
i =1
= ∑ Yi − nβ 0 − β1 ∑ x1i − ... − β k ∑ x ki = 0 → ∑ x1i = ∑ x ki = 0 n
⇒ βˆ0 =
∑Y i =1
n
=Y
(2.14)
n ∂Λ 1 = 2 − x1i ∑ (Yi − β 0 − β1 x1i − ... − β k x ki ) = 0 ∂β1 σ i =1
n
n
n
i =1 n
i =1 n
i =1
n
n
i =1
i =1
= −∑ x1i Yi + β 0 ∑ x1i +β1 ∑ x12i − ... − β k ∑ x1i x ki = 0 → ∑ x1i = 0 n
⇒ −∑ x1i Yi + β1 ∑ x12i − ... − β k ∑ x1i x ki = 0 i =1
i =1
i =1
(2.15)
∂Λ 1 = 2 ∂β 2 σ
n
∑ − x (Y i =1
ki
i
− β 0 − β1 x1i − ... − β k x ki ) = 0
n
n
n
n
n
i =1
i =1
i =1
i =1
i =1
n
n
n
i =1
i =1
i =1
= −∑ x ki Yi − β 0 ∑ x ki +β1 ∑ x1i x ki − ... − β k ∑ x ki2 = 0 → ∑ x ki = 0 ⇒ −∑ x ki Yi + β1 ∑ x1i x ki − ... − β k ∑ x ki2 = 0
Universitas Sumatera Utara
Maka hasil yang diperoleh dari penurunan parsial di atas dapat dihitung nilai parameter βˆ0 , βˆ1 ,..., βˆ k .
Universitas Sumatera Utara