BAB III. REGRESI LINIER BERGANDA DUA VARIABEL BEBAS 3.1 Pendahuluan Dalam regresi linier sederhana telah dipelajari analisis regresi yang terdiri atas dua variabel. Dalam pembicaraan tersebut di mana analisisnya terdiri atas sebuah variabel bebas X (independent variable) sering disebut variabel X atau prediktor, dan sebuah variabel tak bebas Y (dependent variable) atau variabel Y atau variabel penjelaskan. Tentu dapat dengan mudah dimengerti bahwa, ada juga analisis regresi di mana terdapat lebih dari dua variabel, yaitu analisis regresi di mana terdapat satu variabel tergantung (variabel Y) yang diterangkan atau dijelaskan oleh lebih dari satu variabel lain yang menerangkan (variabel X) atau analisis regresi di mana terdapat lebih dari satu variabel yang tergantung (variabel Y) yang diterangkan atau dijelaskan oleh lebih dari satu variabel lain yang menerangkan (variabel X) yang disebut dengan analisis regresi berganda multivariat atau analisis ragam multi variat (multivariate multiple regression). Analisis regresi dengan satu variabel diterangkan atau variabel Y oleh lebih dari sebuah variabel yang lain atau variabel bebas X, maka analisis yang demikian ini dinamakan analisis regresi majemuk atau analisis regresi berganda atau analisis regresi darab. Sangatlah jelas bahwa dalam permasalahan ini, tidak cocok lagi memakai perkataan atau istilah garis regresi, karena fungsi linier yang terdiri dari tiga buah variabel, sudah tidak berbentuk grafik garis lagi, melainkan berbentuk bidang atau bentuk yang lain. Selanjutnya, jika variabel bebas lebih dari tiga buah, menyebabkan penggambaran grafiknya sangat sulit dan bukan berbentuk bidang atau ruang. Bentuknya dinamakan multi bidang atau berbidang banyak (hyper plane). Grafik suatu fungsi akan berbentuk garis jika di dalam fungsi itu hanya terdapat dua macam variabel, yang koordinatnya berdemensi dua atau bidang. Sehingga dalam penggambaran grafik dari tiga macam variabel dapat memakai istilah bidang regresi atau grafiknya berdemensi tiga atau berdemensi ruang. Tetapi istilah inipun tidak dapat dipertahankan lagi secara bebas jika telah dipergunakan fungsi regresi yang terdiri dari empat macam atau lebih variabel yang dipergunakan. Sebagaimana halnya dalam analisis regresi linier sederhana (lihat Tenaya et al., 1985), maka di dalam analisis regresi berganda ini juga dapat dikenal adanya: 1).
Analisis regresi linier berganda dan
2).
Analisis regresi berganda kurvilinier atau analisis regresi berganda non linier.
Perbedaan dari kedua analisis di atas antara analisis regresi linier berganda dengan analisis regresi berganda kurvilinier (non linier) didasarkan atas perbedaan pada variabelvariabel bebas (variabel X) yang menyusunnya; atau di mana variabel Y yang berbentuk fungsi pangkat atau berpangkat tidak sama dengan satu. Untuk mempertegas masalah perbedaan antara analisis regresi linier berganda dengan analisis regresi berganda non linier, diberikan batasan dan contoh fungsinya seperti berikut: 1).
Analisis regresi linier berganda didefinisikan adalah analisis regresi yang variabel tak bebas Y ditentukan oleh sekurang-kurangnya dua variabel bebas X dan setiap variabel X maupun variabel Y hanya berpangkat satu (linier).
42
PDF created with pdfFactory Pro trial version www.pdffactory.com
2). Analisis regresi berganda non linier didefinisikan adalah sebagai analisis regresi di mana variabel tak bebas Y ditentukan oleh sekurang-kurangnya dua variabel bebas X dan yang salah satu atau kedua macam variabel mempunyai pangkat tidak sama dengan satu. Atau regresi di mana variabel tak bebas Y dengan pangkat tidak sama dengan satu ditentukan oleh sekurang-kurangnya dua variabel bebas X.
3.2 Bentuk Umum Fungsi Persamaan Regresi Linier Berganda Bentuk persamaan yang paling sederhana dari regresi linier berganda adalah yang mempunyai dua variabel bebas X dan sebuah variabel tak bebas Y seperti pada persamaan berikut: [3.1].
Y = β0 + β1 X1 + β2 X2
Cara lain yang umum dipergunakan pada penulisan model regresi berganda untuk dua prediktor seperti yang dikembangkan oleh Yule dengan model persamaan di bawah ini. Persamaan regresi linier berganda model Yule seperti berikut. [3.2].
Yi = βY.12 + βY1.2 Xi1 + βY3.1 Xi2 + ei
Indeks (subscrift) dengan angka 1 pada variabel X adalah untuk variabel X1 dan angka 2 untuk variabel X2. Nilai koefisien regresi βY.12 dalam model [3.2] merupakan titik potong dengan sumbu tegak atau intercept, yang biasanya diartikan sebagai pengaruh ratarata (mean effect) tehadap variabel tak bebas Y di luar variabel bebas X yang ada dalam model atau nilai rata-rata Y jika X1 dan X2 sama dengan nol (= 0). Koefisien regresi βY1.2 adalah koefisien arah atau estimator regresi Y terhadap X1 dengan X2 dianggap konstan. Koefisien regresi βY3.1 adalah koefisien arah atau estimator regresi Y terhadap variabel X2 dengan X1 dianggap konstan. Interprestasi dari analisis regresi linier berganda ini adalah hampir serupa dengan interprestasi analisis regresi linier sederhana; artinya variabel bebas X1 bersama-sama dengan variabel bebas X2 berpengaruh terhadap variabel tak bebas Y, yang masing-masing variabel Xi bekerja secara linier dan bebas sesamanya. Apabila antara variabel bebas Xi tidak bersifat bebas sesamanya atau antara variabel bebas Xi, terdapat interaksi linier maka model persamaan [3.1] akan berubah bentuknya menjadi: [3.3].
Y = β0 + β1 X1 + β2 X2 + β12 X1 X2
Model persamaan [3.3] menunjukan adanya interaksi linier antara variabel bebas X1 dan variabel bebas X3. Bentuk grafik atau gambar dari persamaan [3.1] atau dari persamaan [3.2] atau persamaan [3.3] berupa bidang datar seperti Gambar 3.1 berikut. Selanjutnya, bila dari persaamaan [3.1] dimodifikasi yang terdiri atas p prediktor; di mana p lebih besar dari tiga (p > 3), maka model [3.1] tersebut sulit untuk digambar, karena penggambarannya terdiri atas banyak sumbu sehingga bentuknya tidak menentu. Berbeda halnya dengan regresi berganda non linier mempunyai bentuk gambar atau grafik yang berupa garis lengkung atau bidang lengkung dengan persamaan seperti berikut. [3.4].
2
2
Y = β0 + β1 X1 + β11 X1 + β2 X2 + β22 X2 + β12 X1 X2
Bentuk grafiknya berbentuk bidang lengkung seperti pada Gambar 3.2.
43
PDF created with pdfFactory Pro trial version www.pdffactory.com
Gambar 3.1. Bidang Datar Regresi Dua Prediktor (Regresor)
Y = 6.6355+52.714*x+0.192*y -106.989*x*x-0.0927*x*y -0.001*y *y
Gambar 3.2. Bidang Lengkung Dua Prediktor (Regresor) Sebagai tambahan bahwa pada regresi non linier dapat dibedakan menjadi: 1).
Regresi non linier sederhana, adalah analisis regresi yang mempunyai hanya sebuah variabel bebas X, di mana grafiknya adalah berbentuk garis lengkung (bukan lurus atau linier).
2).
Regresi non linier berganda, adalah analisis regresi, yang mempunyai sekurangkurangnya dua buah atau lebih variabel bebas X di mana grafiknya berbentuk bidang lengkung.
44
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.3
Beberapa Bentuk Fungsi Regresi Berganda Non Linier
3.3.1 Regresi fungsi polinomial [3.5].
Y = β0 + β1 X + β2 X2 + . . . + βp Xp
Βila pangkat tertinggi (p) sama dengan dua disebut dengan persamaan kuadratik; bila p = 3 disebut persamaan kubik; bila p = 4 disebut persamaan kuartik; bila p = 5 disebut persamaan kuinik, dan seterusnya. Modifikasi dari model polinomial di atas adalah: [3.6].
Y = β0 + β1
( X )1 + β ( X )
2
2
+ β2
( X)
3
+ . . . + βp
( X)
p
Untuk p = 2 maka modelnya menjadi: [3.7]. [3.8].
Y = β0 + β1
X + β2
( X)
2
Y = β0 + β1 X + β2 X
dalam bentuk lain juga dapat seperti
2
[3.9].
atau dapat ditulis dengan
½
1 1 + β2 X X
2
Y = β0 + β1
3.3.2 Regresi fungsi hiperbola (reciprocal) [3.10]. Y
β 0 + β1 X + β 2 X 2 + . . . + β p X p
=
atau dapat ditulis dengan: [3.11]. Y2
= β0 + β1 X + β2 X2 + . . . + βp Xp Βentuk-bentuk lain dari model di atas: -1
1
2
p
[3.12].
Y
= β0 + β1 X + β2 X + . . . + βp X
[4.13].
Y
=
1 e
β 0 + β1 X + β 2 X 2 + . . .+ β p X p
3.3.3 Regresi fungsi exponen [3.14]. Y = e
[3.15]. Y =
(β0 + β1 X1 + β2 X2)
dapat pula berupa persamaan
β 0 + β1 X + β 2 X 2 + . . . + β p X p
e
3.3.4 Regresi fungsi perkalian β1
[3.16]. Y = β0 X
X
β2
X
β3
...X
βp
Fungsi di atas ini lebih dikenal dengan nama model fungsi Cobb-Douglas.
3.3.5 Regresi fungsi geneometri [3.17]. Y = α0 + α 1 sin γX1 + β1 cos γX1 + α 2 sin 2γX2 + . . . + β2 cos 2γX2
45
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.3.6 Regresi fungsi gabungan [3.18]. Y = β0 Xβ1 eβ2X [3.19]. Y =
1 1+ e
β 0 + β1 X + β 2 X 2 + . . .+ β p X p
[3.20]. Y = β0 X1β1 eγ1X1 X2 β3. eγ2X2 Selain model-model tersebut di atas, masih banyak lagi bentuk-bentuk persamaan regresi yang lainnya. Sehingga, jelas sekali bahwa penyelesaian dari bentuk-bentuk regresi di atas sangat memerlukan pengetahuan matematika yang cukup, terutama pengetahuan mengenai matriks dan operasinya. Oleh karena itu, untuk dapat mengerjakan persamaan-persamaan tersebut di atas itu, maka sebelum pembicaraan langsung memgenai bentuk-bentuk persamaan itu, akan didahului dengan pengenalan matriks yang disajikan secara singkat. Jadi pengenalan matriks di sini bertujuan memberikan bekal bagi yang belum pernah mendapatkan pelajaran aljabar matriks dan bagi yang sudah sekedar mengingatkan kembali operasi operasi matriks yang akan dipergunakan pada analisis regresi. Dalam analisi regresi berganda, yaitu akan dibicarakan penyelesaian persamaan regresi berganda terutama dengan metode matriks, yang sebelumnya diterangkan dengan metode simultan. Jadi disini dibicarakan bagaimana menyelesaikan olahan data yang diperoleh dari sampel, kemudian diubah menjadi bentuk matriks, sampai mendapatkan nilai parameter atau koefisien regresi (bi) yang didapat dari olahan secara simultan dan olahan secara operasi matriks, serta uji-ujinya. Berdasarkan hal ini, peranan matriks dalam penyelesaian persamaan regresi sangat diperlukan.
3.4
Model Umum Persamaan Regresi Linier Berganda
Pada awal pembicaaan ini telah disinggung tentang macam-macam regresi berganda dengan bentuk-bentuk fungsinya. Apabila dalam persamaan regresi linier mencakup lebih dari dua prediktor atau variabel bebas X, sehingga terdapat minimal tiga variabel termasuk variabel tak bebas Y, maka regresi tersebut dinamakan regresi linier berganda (multiple linier regression). Dalam banyak buku, penulisan persamaan regresi linier berganda mempunyai pola yang berbeda-beda, tetapi pada prinsipnya sama. Penulisan itu didasarkan pada pandangan dan tujuan dari tulisan tersebut. Seperti halnya, apakah tulisan itu ditujukan untuk menunjukkan cara pengolahan data, ataukah tulisan itu ditujukan pada pembuktian dan penurunan persamaan-persamaan ataupun mempunyai tujuan lain. Yang jelas terdapat perbedaan penggunaan notasi yang dipakai dalam melambangkan variabel-variabel dan parameter, atau dalam pembuktian persamaan-persamaan. Model umum regresi linier berganda seperti yang di sebutkan pada persamaam [3.2] dinyatakan kembali pada model di bawah ini. [3.21]. Y = β0 + β1 X1 + β2 X2 + . . . + βp Xp + ε
46
PDF created with pdfFactory Pro trial version www.pdffactory.com
Βeberapa cara lain penulisan persamaan regresi linier berganda yang terdiri atas lebih dari dua variabel bebas adalah: [3.21a]. Yi [3.21b]. Yi [3.21c]. Yi [3.21d]. Yi
= = = =
β0 + A + β1 + β0 +
β1 X1i β1 X1i β2 X2i β1 Xi1
+ + + +
β2 X2i β2 X2i β3 X3i β2 Xi2
+ . . . + βp Xpi + . . . + βp Xpi + . . . + βp Xpi + . . . + βp Xip
+ + + +
εi εi εi εi
[3.21e]. Yi = β0 X0 + β1 Xi1 + β2 Xi2 + . . . + βp Xip + εi [3.21f]. Yi = β1.234 + β13.34 X2 + β13.24 X3 + . . . + β1p.23 Xp + εi [3.21g]. Yi = ∑βi Xi + εi [3.21h]. Yi [3.21i]. Yi [3.21j]. Yi [3.21k]. Yi
= = = =
a + b1 X1i + b2 X2i + . . . + bp Xpi + ei b1 + b2 X2i + b3 X3i + . . . + bp Xpi + ei b0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip + ei b0 X0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip + ei
model untuk populasi atau dapat ditulis
di mana i = 1, 2, 3, . . . .p
model untuk sampel
atau dapat ditulis l
[3.21l]. Yi = b1.23… + b13.34 X2 + b13.24 X3 + . . . + b1p.23 Xp + ei [3.21m]. Yi = ∑bi Xi + ei di mana
i = 1, 2, 3, . . . .p
ε, μ, dan e adalah variabel pengganggu
Dari macam-macam model di atas, angka-angka yang tercantum pada setiap koefisien disebut indeks atau subscript. Indeks huruf i pada setiap variabel menunnjukkan pengamatan ke-i dari sampel yang diamati. Selanjutnya, dalam uraian-uraian berikut akan menggunakan model (3.21) untuk keseragaman dalam analisis regresi. Hubungan yang sebenarnya antara yang hendak ditaksir dan variabel bebas X pada regresi linier berganda dapat ditulis: [3.22]. E(Yi) = B0 + B1 Xi1 + B2 Xi2 + . . . + Bp Xip Dari model persamaan [3.22] di mana Yi adalah variabel yang dijelaskan, X1, X2 , . . ., Xp adalah variabel-variabel bebas penjelaskan atau prediktor atau regresor. Yi nilai variabel Y pada pengamatan ke-i, Xi1 nilai variabel X1 pada pengamatan ke-i, dan Xip nilai variabel Xp pada pengamatan ke-i. Nilai-nilai B0, B1, B2, . . . , Bp adalah koefisien-koefisien regresi atau parameterparameter populasi yang akan ditaksir berdasarkan data sampel, dan p menunjukkan banyaknya variabel bebas X yang diduga berpengaruh terhadap variabel tak bebas Y Persamaan [3.22] dapat pula ditulis berdasarkan data sampel menjadi seperti berikut. [3.23]. Yi = b0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip + ei Dari persamaan [3.23] yang berhubungan dengan pengamatan ke-i, yang bermaksud untuk menaksir parameter-parameter atau koefisien regresi populasi B0, B1, B2, . . . , Bp dengan menggunakan penaksir koefisien-koefisien regresi yang berasal dari sampel atau data pengamatan yaitu: b0, b1, b2, . . . , bp. Koefisien-koefisien regresi sampel diberi simbul bi sebagai penaksir parameter populasi Bi. Sehingga penaksir bagi persamaan regresi yang sebenarnya, yaitu penaksir bagi persamaan [3.22] dan [3.23] dapat ditulis sebagai berikut: [3.24]. Ŷ = b0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip Persamaan [3.24] tersebut di atas yang akan dicari dengan menggunakan data berasal dari sampel. Jadi nilai Ŷ merupakan nilai dugaan atau perkiraan terhadap nilai Y.
47
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.5 Asumsi-asumsi pada Regresi Linier Berganda Agar dapat menyelesaikan suatu persamaan regresi linier berganda tanpa memperhatikan sifat-sifat variabel yang dapat mempengaruhi kesimpulan hasil analisis, maka diperlukan beberapa asumsi yang berkenaan dengan analisis regresi linier berganda, sebagai berikut: 1).
Rata-rata kesalahan penggangu pada setiap pengamatan sama dengan nol (0), dapat ditulis dengan: S(ei) = 0 untuk setiap nilai i. i = 1, 2, ..., n.
2).
Peragam (kovarians) dari pengamatan-pengamatan sama dengan nol (0), atau dengan istilahnya bahwa tidak ada korelasi antara kesalahan penggangu satu dengan kesalahan pengganggu yang lainnya, dapat ditulis dengan: Kov (ei ej ) = 0, untuk i ≠ j.
3).
Ragam (varians) kesalahan penggangu pada setiap pengamatan mempunyai 2 nilai yang sama, dapat ditulis dengan: Var (ei ) = σ , untuk setiap nilai i. di mana i = 1, 2, ..., n.
4).
Peragam (kovarians) dari pengamatan untuk setiap variabel bebas sama dengan nol (0), atau dengan lain istilahnya bahwa tidak ada korelasi antara kesalahan penggangu dari setiap variabel bebas yang satu dengan variabel bebas yang lainnya yang menysun persamaan regresi berganda tersebut, dapat ditulis dengan: Kov (ei,Xi) = 0.
5).
Tidak terdapat kolinieritas ganda (multicollinierity) yang berarti tidak terdapat hubungan linier yang kuat (eksak) antara variabel bebas X atau prediktor atau regresor yang berarti ada hubungan antara: k1 Xi1 + k2 Xi2 + . . . + kp Xip = 0, di mana k1 = k2 = . . . = kp = 0, yang berarti bahwa Xi & Xj adahah terjadi kolinieritas atau linier dependen. Dalam hal ini dikatakan bahwa X1 + X2 + . . . + Xp merupakan pasangan yang terpaut linier (linier dependent) satu sma lainnya untuk seluruh pengamatan.
Jika sebuah variabel bebas Xi tepaut linier lebih dengan sebuah variabel bebas lain, maka dalam analisis regresi linier berganda tersebut dikatakan terjadi kolinieritas ganda (multicollinierity).
3.6
Regresi Linier Berganda Dua Prediktor
Analisis regresi linier berganda yang paling sederhana dengan menggunakan hubungan linier yang terdiri atas dua buah variabel bebas X atau prediktor dengan sebuah variabel tak bebas Y atau regresor dengan bentuk fungsi atau model persamaan umum seperi pada persamaan [3.2] yang ditulis kembali pada persamaan [3.5] berikut ini. [3.5].
Y = b0 + b1 X1 + b2 X2 (bentuk paling sederhana dari regresi linier berganda).
Dalam regresi linier berganda seperti pada persamaan [3.2] atau [3.5] yang terdiri atas dua variabel bebas X, dapat diasosiasikan sebagai penjumlahan dari dua penyelesaian regresi linier sederhana yang secara bersamaan terhadap suatu permasalahan atau satu variabel tak bebas Y. Dalam uraian berikut ini akan ditunjukkan penyelesaian regresi linier berganda dua variabel bebas X secara simultan untuk menentukan nilai parameter atau koefisien regresi b0; b1; dan b3. Untuk mempermudah pengertian di atas, perhatikan contoh sederhana ini. Hasil tanaman bawang merah per hektar selain dipengaruhi oleh jumlah pupuk yang diberikan, juga dipengaruhi oleh berat atau banyaknya gulma yang tumbuh. Jika hasil bawang merah per hektar merupakan variabel tak bebas Y dan jumlah pupuk kandang yang diberikan sebagai variabel bebas X1 dan berat atau banyaknya gulma yang tumbuh sebagai variabel bebas X3.
48
PDF created with pdfFactory Pro trial version www.pdffactory.com
Maka dapat dikatakan bahwa Y dipengaruhi oleh X1 dan X2 secara bersama-sama. Apabila pengertian di atas diregresikan secara linier sederhana Y dengan setiap X1 atau dengan X2 yang mempengaruhi Y masing-masing secara terpisah, maka regresi antara Y dengan X1 dan antara Y dengan X2 dapat ditulis dengan persamaan:Yi = b01 + b1 Xi1 dan Y = b02 + b2 Xi3. Selanjutnya, apabila kedua persamaan di atas dijumlahkan secara penjumlahan garis yang ortogonal atau tegak lurus satu sama lainnya, maka didapatkan nilai b01 + b02 = b0 secara bersama, sehingga kedua persamaan di atas dapat ditulis menjadi: Yi = b01 + b1 Xi1 Yi = b02 + b2 Xi3. [3.26]. Yi = (b01 + b02) + b1 Xi1 + b2 Xi2
atau dapat diubah menjadi:
[3.27]. Yi = b0 + b1 Xi1 + b2 Xi2 seperti persamaan [3.2] atau [3.5] dengan p = 2. Jika dari persamaan [3.27] dipakai dasar untuk menduga koefisien regresi linier berganda bi untuk dua prediktor yaitu b0; b1; dan b2 maka modelnya dapat ditulis menjadi: [3.28]. Ŷ = b0 + b1 X1 + b2 X2
3.7 Pendugaan Nilai Parameter atau Koefisien Regresi βi Untuk menentukan nilai koefisien regresi parsial (bi) sebagai penduga dari nilai dari βi pada persamaan [3.28], yang berasal dari data sampel, maka diperlukan sekurangkurangnya p + 1 buah jumlah variabel pengamatan. Jika dari setiap pasangan nilainilai X1, X2, dan Y yang terdapat dalam setiap sampel dipandang sebagai sebuah titik, maka titik tersebut merupakan bagian dari koordinat ruang berdimensi tiga, sehingga terdapat n buah titik yang mewakili atau menggambarkan pengamatan- pengamatan yang terdapat dalam data sampel. Jika titik-titik tersebut betul-betul dilukiskan, maka gambaran yang diperoleh dengan cara demikian adalah merupakan diagram ruang bagi data sampel tersebut seperti pada Gambar 3.1. Dalam hal ini, didapatkan bentuk diagram yang sebarannya berdimensi tiga atau ruang. Gambar yang diperoleh merupakan bidang irisan dalam sebuah balok. Perhatikan Gambar 3.1. Analisis regresi yang akan dilakukan dalam hal yang serupa adalah bertujuan untuk menentukan bidang linier atau bidang rata atau bidang datar yang modelnya ditunjukkan seperti pada persamaan [3.28] dengan menduga nilai-nilai dari b0; b1; dan b3. Supaya dapat dipandang sebagai bidang regresi yang baik, maka bidang irisan tersebut haruslah dihapiri sedekatnya atau didekati oleh semua titik-titik pasangan pengamatan X1i, X2i, dan Yi. Oleh karena itu, dapatlah dikatakan bahwa titik-titik pengamatan yang ke-i atau Yi menyimpang dari bidang regresi yang merupakan pencerminan penyimpangan titik-titik pengamatan terhadap persamaan regresi linier berganda Ŷ = b0 + b1 X1 + b2 X2 yang akan dicari. Penyimpang tersebut disimbulkan dengan e. Penyimpangan ei antara titik-titik pengamatan Yi dengan bidang regresi Ŷ dapat dinyatakan dengan persamaan seperti: [3.29]. ei = Yi - Ŷ
atau
[3.30]. ei = Yi - b0 - b1 X1 - b2 X2 ei = penyimpangan titik pengamatan Yi terhadap nilai pengamatan Ŷ Nilai ei yang merupakan penyimpangan antara titik-titik pengamatan Yi dengan bidang regresi yang dicari atau Ŷ. Dengan nilai ei ini dapat dipakai untuk menduga nilai parameter bi atau koefisien regresi parsial b0; b1; dan b3.
49
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.8 Metode Kuadrat Terkecil dan Persamaan Normal Ada dua cara untuk memperkirakan koefisien regresi parsial bi (b0; b1; dan b2) yaitu dengan memakai methode kuadrat terkecil (Ordinary Least Squares = OLS atau Least Squares Method dan metode maksimum likelihood (Maximum Likelihood Method = MLM). Untuk selanjutnya akan diuraikan satu metode saja yaitu metode kuadrat terkecil. Dalam metode kuadrat terkecil biasa (OLS), menentukan perhitungan nilai parameter yang tidak diketahui. Dalam metode kuadrat terkecil (OLS) diusahakan sedemikian rupa sehingga didapatkan 2 jumlah kuadrat kesalahan pengganggu atau penimpangan terhadap bidang regresi = Σe haruslah mempunyai nilai sekecil-kecilnya atau minimum. Jika jumlah kuadrat kesalah penggangu (Σe2) dikodekan dengan G, sehingga didapatkan persamaan: 2
[3.31]. G = Σe
atau dapat ditulis menjadi:
[3.32]. G = Σ(Yi - b0 - b1 X1 - b2 X2)
2
dari persamaan [3.30].
Jadi, pada perhitungan nilai-nilai b0, b1, dan b2 yang dicari dengan meminimumkan nilai G pada persamaan [3.32] yang merupakan nilai-nilai penaksir atau penduga bagi parameter-parameter β0, β1, dan β2 untuk dua pubah X1 dan X3. Cara penyelesaian seperti ini juga berlaku bagi sejumlah p variabel bebas Xi yang dapat diduga dengan metode matriks yang akan dibahas kemudian. Syarat yang harus diperlukan dalam meminimali nilai G pada persamaan [3.32] adalah mengharuskan menyamakan fungsi-fungsi turunan pertama parsial dari jumlah 2 pangkat dua simpangan (ei) = Σei terhadap b0, b1, dan b2 yang disamakan dengan nol, 2 sehingga fungsi turunan Σei atau G terhadap setiap nilai b0, b1, dan b2 dapat ditulis sebagai berikut: 2
Turunan pertama dari Σei atau G terhadap b0 menjadi: [3.33]. δG/δb0 = 2 Σ(Yi - b0 - b1 X1 - b2 X2) (- 1) = 0 Turunan pertama dariΣe2 atau G terhadap b1 menjadi: [3.34]. δG/δb1 = 2 Σ(Yi - b0 - b1 X1 - b2 X2) (- X1) = 0 2
Turunan pertama dariΣe atau G terhadap b2 menjadi: [3.35]. δG/δb2 = 2 Σ(Yi - b0 - b1 X1 - b2 X2) (- X2) = 0 Perhatikan faktor pengali yang berada di kiri tanda sama dengan nol. Apabila dari persamaan-persamaan di atas [3.33], [3.34], dan [3.35] diselesaikan secara serantak dan diubah cara penyajiannya, maka diperoleh persamaan-persamaan seperti: [3.36]. ΣYi - Σb0 - b1 ΣX1 - b2 ΣX2 = 0 2
[3.37]. ΣYi X1 - b0 ΣX1 - b1 ΣX1 - b2 ΣX1X2 = 0 2
[3.38]. ΣYi X2 - b0 ΣX2 - b1 ΣX1 X2 - b2 ΣX2 = 0 Persamaan-persamaan [3.36], [3.37], dan [3.38] di atas disebut dengan persamaan normal. Perhatikan pengali dari setiap penaksir-penaksir yang berhubungan koefisien regresi seperti b0, b1, dan b3. Apabila syarat-syarat dalam meminimalkan G dipenuhi, maka sistem persamaan normal dari [3.36], [3.37], dan [3.38] dapat diselesaikan secara serentak untuk menentukan besarnya nilai-nilai b0, b1, dan b2 sebagai penaksir pangkat dua terkecil atau Least Squares Method (OLS = ordinary list squares) bagi parameterparameter B0, B1, dan B3.
50
PDF created with pdfFactory Pro trial version www.pdffactory.com
Biasanya, sistem persamaan-persamaan normal [3.36], [3.37], dan [3.38] dapat diselesaikan secara serentak untuk mendapatkan nilai- nilai b0, b1, dan b2; oleh karena jumlah sampel (n) diketahui dan jumlah-jumlah yang terdapat dalam sistem persamaan normal itu dapat dihitung dari data sampel. Dengan demikian koefisien-koefisien regresi b0, b1, dan b2, dalam analisis regresi linier berganda yang mengandung dua buah prediktor atau variabel bebas X dapat ditaksir atau dihitung.
3.9
Perhitungan Nilai Koefisien Regresi
Jika diperhatikan kembali sistem persaman normal dari persamaan-persamaan [3.36], [3.37], dan [3.38] dapat dilihat keteraturan dari cara-cara penyelesaianya. Sehingga setiap nilai bi dapat ditentukan dengan perhitungan seperti berikut. Dari persamaan [3.36] dapat ditentukan nilai b0 yaitu dengan membagi persamaan tersebut dengan jumlah pengamatan (= n) sehingga didapatkan persamaan dengan penyelesaian: ΣYi - nb0 - b1 ΣX1 - b2 ΣX2 = 0
sama-sama di bagi dengan n
ΣYi /n - nb0 /n - b1 ΣX1 /n - b2 ΣX2 /n = 0/n
Y - b0 - b1 X 1 - b2 X 2 = 0 [3.39].
atau sehingga akhirnya menjadi
b0 = Y - b1 X 1 - b2 X 2
Dari persamaan [3.37] dan [3.38] di atas dapat ditentukan besarnya nilai b1 dan b2 dengan memodifikasi persamaannya menjadi persamaan-persamaan dengan huruf kecil. Perhatikan dengan teliti notasi dari variabel bebas X dan variabel tak bebas Y yang ditulis dengan huruf kecil x dan y pada persamaan-persamaan berikut ini. Berikut ini diberikan hubungan antara X & Y dengan x & y: [3.40a]. x1 = (X1 - X 1 ),
disebut dengan deviasi X1
[3.40b]. x2 = (X2 - X 2 ), dan
disebut dengan deviasi X2, dan
[3.40b]. y = (Y - Y )
disebut dengan deviasi Y
2
2
2
[3.41a]. Σy = ΣY - (ΣY) /n [3.41b]. [3.41c].
Σx12 Σx22
= ΣX12 = ΣX22
disebut dengan JK Y
2
- (ΣX1) /n
disebut dengan JK X1
- (ΣX2)2/n
disebut dengan JK X2
[3.41d]. Σx1y = ΣX1Y - ΣX1 ΣY/n
disebut dengan JHK X1Y
[3.41e]. Σx2y = ΣX2Y - ΣX2 ΣY/n
disebut dengan JHK X2Y
[3.41f].
Σx1x2 = ΣX1X2 - ΣX1 ΣX2/n
disebut dengan JHK X1X2
Dengan menggunakan persamaan [3.41a] sampai dengan persamaan [3.41f] maka perhitungan nilai b1 dan b2 menjadi: [3.42a].
b1 =
∑ x22 ∑ x1 y − ∑ x2 y ∑ x1 x2 ` 2 ∑ x12 ∑ x22 − (∑ x1 x2 )
[3.42b].
b2 =
∑ x12 ∑ x2 y − ∑ x1 y ∑ x1x2 2 ∑ x12 ∑ x22 − (∑ x1 x2 )
51
PDF created with pdfFactory Pro trial version www.pdffactory.com
Atau dengan menggunakan notasi lain dari persamaan [3.41a] sampai dengan [3.41f] maka perhitungan nilai b1 dan b2 menjadi: [3.43a].
b1 =
[3.43b].
b2 =
JK X 2 JHKX1Y − JHKX2Y JHKX1 X2 JK X1 JK X 2 − (JHKX1 X2 )
2
JK X1 JHK X 2Y − JHK X1Y JHK X1 X 2 JK X1 JK X 2 − (JHK X1 X 2 )
2
Selanjutnya, dilakukan pengujian terhadap regresi linier berganda terutama pengujian terhadap nilai-nilai koefisien regresi berganda (bi) serta pengujian terhadap bidang regresi atau uji varians regresi atau uji F regresi.
3.10 Pengujian Regresi Linier Berganda Dalam pengujian regresi linier berganda terdapat tiga macam uji yaitu: 1). 2). 3).
Uji simultan atau uji F atau uji ragam regresi atau uji varians regrsi; Uji parsial koefisien regresi atau uji terhadap bi atau uji t koefisien regresi; dan Uji koefisien korelasi berganda atau uji R.
Ketiga macam uji-uji tersebut di atas menggunakan Ragam Galat Regresi atau Varians 3. 2 Residual Regresi yang disimbulkan dengan σ Karena nilai σ tidak pernah diketahui, 2 maka nilai σ didekati atau diduga dengan menggunakan nilai dugaan Galat Regresi penduga = SŶ2 atau Se3. 2
Nilai Se disebut dengan Kuadrat Simpangan Baku Regresi penduga atau lebih dikenal dengan sebutan Ragam Galat Regresi atau Ragam Residual Regresi atau Varians Residual Regresi atau Varians Sisa Regresi atau Varians Galat Regresi. Ragam Galat Regresi = Se2, yang perhitungannya didasarkan pada Jumlah Kuadrat Kesalahan Penggangu yang sering disebut dengan Jumlah Kuadrat Residual Regresi (JK Galat Regresi = JK Sisa Regresi = JK Residual yang disingkat dengan = JK Galat Regresi dengan simbul Σe i2) dibagi dengan Derajat Bebas Galat Regresi = DB Galat Regresi yang besarnya sama dengan n - p - 1. Dasar perhitungan dari KT Galat Regresi atau Varians Residual Regresi adalah menggunakan persamaan [3.30] yaitu nilai variabel pengganggu e yang ditulis kembali menjadi persamaan: [3.44].
ei = Yi - b0 - bi Xi1 - b2 Xi2
Dan jika ke dalam persamaan [3.44] disubstitusikan persamaan [3.39] yaitu pesamaan untuk perhitungan b0 maka didapatkan persamaan: [3.45a].
ei = Yi - ( Y - b1 X 1 - b2 X 2 ) - bi Xi1 - b2 Xi2 dengan membuka kurung maka menjadi:
[3.45b]. ei = (Yi - Y ) - b1 (Xi1 - X 1 ) - b2 (Xi2 - X 2 ) [3.45c]. ei = yi - b1 x1 - b2 x3.
52
PDF created with pdfFactory Pro trial version www.pdffactory.com
Dan dari persamaan [3.44] yaitu persamaan untuk nilai ei = Yi - b0 - bi Xi1 - b2 Xi2 sehingga dengan mengkuadrat jumlahkan nilai ei; selanjutnya didapatkan ∑ei2 atau disebut dengan JK Galat Regresi dengan kode G; dengan persamaannya menjadi: 2
[3.46a]. G = ∑ ei atau [3.46b]. G = ∑eiei. Ingat ei = yi - b1 x1 - b2 x3. Seperti persamaan [3.45c] sehingga: [3.46c]. G = ∑ei(yi - b1 x1 - b2 x2) [3.46d]. G = ∑eiyi - b1 ∑eI x1 - b2 ∑eI x2) [3.46e]. G = ∑eiyi sebab ∑eI x1 = ∑eI x2 = 0. [3.46f]. G = ∑yiei [246g]. G = ∑yi (yi - b1 ∑x1 - b2 ∑x2) [3.46h]. G = ∑yiyi - b1 yi ∑x1 - b2 ∑yi x2
atau sehingga menjadi:
sehingga menjadi:
2
Ingat : yiyi = ∑yi = JK Total = JK Y ∑yix1 = JHK YX1 = JHK X1Y Ingat persamaan [3.41a sd 3.17f]. ∑yix2 = JHK YX2 = JHK X2Y b1 ∑yix1 + b2 ∑yix2 disebut dengan JK Regresi Dari persamaan [3.46 h] didapatkan bahwa JK Galat Regresi atau JK Residual Regresi Linier berganda sama dengan JK Total dikurangi dengan JK Regresi. Di mana JK Total = JK Y. Hubungan antara komponen-komponen pada analisis keragaman (JK Total, JK Regresi, dan JK Galat Regresi) seperti berikut: [3.47].
JK Galat Regresi = JK Total - JK Regresi.
Untuk menyederhanakan penulisan dan pengertian di atas, maka selanjutnya JK Galat Regresi disingkat dengan JK Galat, JK Regresi dengn JK Reg (tanpa titik) dan JK Total dengan JK Tot atau JK Y (tanpa titik). Sehingga sesuai dengan persamaan [3.47], maka JK Regresi dua prediktor (dua variabel bebas X) mempunyai persamaan: [3.485a] JK Regresi = (b1 ∑yi x1 + b2 ∑yi x2) [3.48b]
atau dapat ditulis:
JK Regresi = (b1 JHK X1Y + b2 JHK X2Y)
Persamaan [248a,b] berlaku umum untuk p variabel bebas X sehingga persamaannya menjadi: [249a]
JK Regresi = b1 ∑yi x1 + b2 ∑yi x2 + . . . + bp ∑yi xp
[3.49b]
JK Regresi = (b1 JHK X1Y + b2 JHK X2Y + . . . + bp JHK XpY)
Setelah perhitung JK Total, JK Regresi, dan JK Galat Regresi didapat maka di lanjutkan dengan uji F atau Analisis Keragaman atau Analisis Varians Regresi seperti uraian berikut.
53
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.11 Uji F atau Analisis Keragaman atau Analisis Varians Regresi Dalam analisis keragaman yang merupakan uji F terhadap Ragam Regresi (KT Regresi atau Kuadrat Tengah Regresi) dengan memakai Ragam Galat (KT Galat = KT Residu). Dalam pengujian ini didasarkan pada pemecahan JK Total menjadi komponenkomponennya yaitu JK Regresi dan JK Galat Regresi, yang selanjutnya dijadikan Ragam Regresi dan Ragam Galat Regresi. Untuk memudahkan dalam uji F ini biasanya dibuatkan tabel Analisis Keragaman (Tabel Sidik Ragam Regresi atau Tabel Analisis Varians Regresi atau ANAVA Regresi atau ANOVA Regresi) yang komponenkomponennya seperti berikut. Komponen Penyusun Tabel Sidik Ragam Regresi adalah: 1). JK Regresi = =
b1 JHK X1Y + b2 JHK X2Y
(untuk 2 prediktor) atau
2). JK Total
=
b1 JHK X1Y + b2 JHK X2Y + . . . + bp JHK XpY (untuk p buah prediktor) 2 2 Jk Y = ΣY - (ΣY) /n
3). JK Galat
=
JK Total - JK Regresi
Selanjutnya dihitung nilai KT atau Varians seperti: 1).
KT Regresi = JK Regresi/(db Regresi). (DB Regresi = p.
2).
KT Galat = JK Galat/(db Galat)
p = jumlah variabel X)
(DB Galat = n-p-1
n = jumlah sampel)
Hasil perhitungan keragaman atau analisis varians di atas dibuatkan Tabel Sidik Ragam Regresi seperti pada Tabel 3.1. Tabel 3.1. Bagan Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (JK)
Derajat Bebas (DB)
Jumlah Kuadrat (JK)
Kuadrat Tengah (KT)
Regresi
p = 2
B1 yi x1 + b2 yi x2 atau [ (bi JHK XiY)]
JK Reg/p = KT Reg
Residual
n-p–1
JK Galat
JK Galat n − p −1
atau Galat Total
2
Σyi
n–1=
F hitung KT Regresi KT Galat
F tabel 5% 1% Lihat tabel F
= JK Tot = JK Y
n = jumlah sampel.
Berdasarkan pada asumsi sebaran normal untuk komponen pengganggu e, maka besarnya nilai F (F-hitung) dapat dihitung dengan rumus adalah: [3.50]
Fhit =
KT Re gresi KT Galat
F-hitung disimbulkan dengan Fhit yang digunakan dalam pengujian hipotesis akan dibuktikan dengan uji hipotesis. Hipotesis nol atau H0 : Fhit = 0 dan H1 : Fhit ≠ 0
54
PDF created with pdfFactory Pro trial version www.pdffactory.com
Kreteria pengujian nilai Fhit adalah: 1).
Jika Fhit > F(tabel α ) ini berarti bahwa terdapat hubungan bukan linier berganda pada pasangan pengamatan X1, X2, Y tersebut atau f = (X1, X2) adalah bukan linier pada taraf α.
2).
Jika Fhit ≤ F(tabel α ) ini berarti bahwa terdapat hubungan linier berganda antara pengaruh X1 dan X2 terhadap Y secara bersama atau simultan pada taraf α. Pengujian yang dilakukan dengan uji F seperti cara tersebut di atas, tidak dapat memberikan petunjuk apakah setiap variabel bebas Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y secara parsial.
Oleh karena itu, maka untuk menunjukkan hubungan atau pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan menguraikan analisis keragaman yaitu menguraikan JK Regresi menjadi JK Regresi parsial untuk setiap variabel bebas Xi seperti uraian berikut ini. JK Regresi berganda = b1 JHK X1Y + b2 JHK X2Y + . . . + bp JHK XpY (untuk p prediktor) yang dapat diuraikan menjadi seperti berikut: 1). 2).
p).
JK Regresi X1 = b1 JHK X1Y JK Regresi X2 = b2 JHK X2Y . . . . . . JK Regresi Xp = bp JHK XpY
Untuk dua variabel bebas X, maka JK regresi parsial variabel bebas X1 dan X2 adalah: JK Regresi = b1 JHK X1Y + b2 JHK X2Y (untuk 2 prediktor) dapat diuraikan menjadi: 1).
JK Regresi X1 = b1 JHK X1Y
2).
JK Regresi X2 = b2 JHK X2Y
Dengan demikian maka bentuk Tabel Sidik Ragam Regresi dari uraian di atas untuk dua variabel bebas X dapat ditulis seperti pada Tabel 3.2 di bawah ini. Tabel 3.3. Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (SK) Regresi
Derajat Bebas (DB) p
Regresi X1 Regresi X2/X1 Residual atau Galat Total Keterangan:
Jumlah Kuadrat (JK) JK Regresi
Kuadrat Tengah (KT) KT Regresi
1
JK Regresi X1
KT Regresi X1
1
JK Regresi X2
KT Regresi X2
n-p-1
JK Galat
KT Galat
n-1
JK Total
-
Jumlah sampel = n.
55
PDF created with pdfFactory Pro trial version www.pdffactory.com
F hitung (Fhit)
F tabel 5% 1%
Dari Sidik Ragam Tabel 3.3 di atas terlihat bahwa JK Regresi, dapat diuraikan mendi JK Regresi komponen-komponen setiap variabel bebas Xi dengan derajat bebas tiap komponen sama dengan satu yaitu JK Regresi X1 dan JK Regesi X2/X1 artinya JK Regresi dari X2 jika X1 dianggap konstan, atau variabel X2 merupakan tambahan terhadap variabel bebas X1 dalam mempengaruhi variabel tak bebas Y; demikian selanjutnya apabila jumlah variabel bebas bertambah samapai sebanyak p buah.
3.12 Uji Keberartian Koefisien Regresi (bi) Secara Parsial atau Uji t Koefisien Regresi Pengujian yang dilakukan dengan uji F seperti cara tersebut pada Tabel 3.3 di atas, dapat memberikan petunjuk apakah setiap variabel Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y secara parsial. Modifikasi dari pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan uji t atau uji koefisien regresi secara parsial. Secara umum uji t mempunyai persamaan seperti berikut:
W Sw
[3.51]. t-hitung W =
W nilai yang diuji, sehingga untuk pengujian koefisien regresi (bi), maka persamaananya menjadi: [3.52]. t-hitung b1 =
b1 ; S b1
t-hitung b2 =
b2 ; S b2
dan seterusnya Di mana Sbi = salah baku bi
Dari persamaan [3.52] dalam menyederhanakan penulisan Salah Baku Koefisien Regresi Bi biasa ditulis dengan σBi (Salah Baku = Standard Error Koefisien Regresi Bi ). Perhitungannya didasarkan pada Ragam Galat Regresi atau KT Galat Regresi. Karena 2 besarnya nilai σ e (Ragam Galat Regresi Populasi) tidak diketahui, maka dapat diduga 2 dengan nilai S e atau KT Galat Regresi penduga yang mempunyai persamaan yaitu: [3.53].
S2e = KT Galat Regresi = JK Galat Regresi/(n-p-1) (Perhatikan Tabel 3.2)
Selanjutnya, dalam Analisis Regresi dua prediktor, nilai Salah Baku bi yang ditulis (Sbi) mempunyai persamaan seperti: [3.54].
Sbi =
var bi
masing-masing untuk b1 dan b2 menjadi:
Untuk pengujian b1 nilai salah baku menjadi: [3.55a]. Sb1 =
=
var b1 JK X 2 KT Galat Re gresi JK X JK X − (JHK X X )2 1 2 1 2
56
PDF created with pdfFactory Pro trial version www.pdffactory.com
Untuk pengujian b2 nilai salah baku menjadi: [3.55b]. Sb2 =
=
var b 2 JK X 1 KT Galat Re gresi 2 JK X JK X − (JHK X X ) 1 2 1 2
Seperti dalam uji F, penulisan t-hitung dapat ditulis dengan notasi thitung (artinya uji t untuk pengujian hipotesis nol atau H0 : bi = 0 dan H1 : minimal satu dari bi ≠ 0). Berdasarkan hasil uji t ternyata bahwa kreteria pengujian nilai thitung adalah: 1). Jika thitung ≤ t(tabel 5%, db galat) ini berarti pada analisis regresi linier berganda, pengaruh X1 dan X2 terhadap Y menunjukkan bahwa baik X1 maupun X2 berpengaruh tidak nyata secara parsial terhadap Y. 2). Jika thitung > t(tabel 5%, db galat) maka nilai bi menunjukkan bahwa masing-masing baik X1 maupun X2 berpengaruh nyata terhadap variabel bebas Y secara individual dalam kebersamaan atau secara parsial. Dengan kata lain ini berarti bahwa koefisien arah bi yang berangkutan dapat dipakai sebagai penduga dan peramalan yang dapat dipercaya. Pengujian yang dilakukan dengan cara tersebut di atas, dapat memberikan petunjuk apakah setiap variabel bebas Xi memberikan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y. Perlu diingatkan di sini ialah bahwa dalam pengujian-pengujian di atas (baik uji F maupun uji t), didasarkan atas metode kuadrat terkecil (OLS). Selanjutnya, nilai Salah Baku Koefisien Regresi atau Sbi yang diperoleh selain untuk pengujian hipotesis juga dapat dipakai pada perkiraan nilai interval koefisien regresi parsial yang sering disebut dengan perkiraan nilai beta (β) populasi dengan persamaan sebagai berikut di bawah ini. [3.56].
3.13
p {bi - tα/2 Sbi < βi < bi + tα/2 Sbi} = 1- α
untuk setiap b1 dan b1 seperti:
[3.57a]. p {b1 - tα/2 Sb1 < β1 < b1 + tα/2 Sb1} = 1- α
untuk b1
[3.57b]. p {b2 - tα/2 Sb2 < β2 < b2 + tα/2 Sb2} = 1- α
untuk b2
Koefisien Korelasi dan Koefisien Determinasi
Dalam analisis regresi linier berganda terdapat beberapa macam koefisien korelasi, yang tergantung pada pendekatan hubungan yang dicari. Adapun macam-macam koefisien korelasi tersebut adalah: 1). 2). 3). 4).
Koefisien korelasi sederhana. Koefisien korelasi parsial. Koefisien korelasi berganda. Koefisien determinasi.
3.13.1 Korelasi linier sederhana Koefisien korelasi sederhana atau koefisien korelasi linier atau koefisien korelasi product moment atau koefisien korelasi Pearson yang disimbulkan dengan rij; yaitu suatu nilai mengukur keeratan hubungan antar masing-masing variabel ke-i dengan variabel ke-j, dengan tidak memperhatikan pengaruh variabel-variabel yang lainnya, seperti variabel tak bebas Y atau sesama variabel bebas X dalam analisis regresi berganda.
57
PDF created with pdfFactory Pro trial version www.pdffactory.com
Dalam analisis regresi berganda tiga variabel atau dua prediktor yaitu analisis regresi yang terdiri atas dua pubah bebas X yaitu X1 dan X2 serta sebuah variabel tak bebas Y, maka terdapat tiga nilai koefisien korelasi linier sederhana rij yaitu: 1) 2) 3)
rY1 atau rYX1 yaitu koefisien korelasi antara Y dengan X1; rY2 atau rYX2 yaitu koefisien korelasi antara Y dengan X2; dan r12 atau rX2X1 yaitu koefisien korelasi antara X1 dengan X3.
Koefisien-koefisien korelasi tersebut di atas disebut dengan koefisien korelasi linier sederhana atau koefisien korelasi tahap nol atau koefisien korelasi order nol (simple coeficient of correlation or correlation coeficients of zero order). Adapun rumus dari koefisien korelasi sederhana ini adalah:
∑ X ∑Y n 2 ( X ) Y 2 − (∑ Y )2 ∑ X 2 − ∑ ∑ n n ∑ xy ∑ XY −
[3.58a]. rXY =
[3.58b]. rXY =
[3.58c]. rXY =
∑x ∑y 2
2
JHK XY
atau
atau
(n = jumlah sampel)
(JK X )(JKY )
Memperhatikan keterangan di atas dapatkah dikatakan bahwa rYX1 merupakan ukuran dari keeratan huhungan atau korelasi sederhana antara Y dengan X1 yang sebenarnya, tanpa ada pengaruh yang variabel lain; sementara diketahui bahwa yang mempengaruh nilai Y adalah X2 selain nilai X1 dan selain itu kemungkinan juga X2 mempengaruhi X1 . Jadi tegasnya bahwa dalam regresi berganda untuk mendapatkan hubungan yang sebenarnya antara sebuah variabel bebas Xi dengan variabel tak bebas Y, yaitu dengan cara menghilangkan pengaruh variabel-variabel bebas yang lainya. Analisis ini dikenal dengan nama analisis korelasi parsial.
3.13.2 Koefisien korelasi parsial Korelasi parsial (partial corelation coeficient) dapat dibedakan menjadi: 1) korelasi parsial order satu, 2) korelasi parsial order dua, 3) korelasi parsial order tiga, dan 4) dan korelasi parsial order empat sampai korelasi parsial order banyak. 1).
Korelasi parsial order satu, dengan simbul rXiXj.Xk. yang berarti hubungan antara variabel X ke-i dengan variabel X ke-j yang bebas dari pengaruh variabel X ke-k.
2).
Korelasi parsial order dua, dengan simbul rYXi.XjXk. yang berarti hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabel X ke-j dan variabel X ke-k.
3).
Korelasi parsial order tiga, dengan simbul rYXi.XjXkXl. yang berarti hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabelvariabel X ke-j; X ke-k; dan X ke-l.
4).
Korelasi parsial order banyak, dengan simbul rYXi.XjXk . . . Xp. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabelvariabel X ke-j; X ke-k; . . .; dan X ke-p.
58
PDF created with pdfFactory Pro trial version www.pdffactory.com
1.
Korelasi parsial order satu
Koefisien korelasi parsial order satu pada model persamaan regresi: Ŷ = β0 + β1 X1 + β2 X3. dapat diuraikan menjadi: (1). rYX1.X2 koefisien korelasi parsial antara Y & X1 jika X2 pengaruhnya konstan (2). rYX3.X1 koefisien korelasi parsial antara Y & X2 jika X1 pengaruhnya konstan (3). rX1X3.Y koefisien korelasi parsial antara X1 & X2 jika Y pengaruhnya konstan Perhitungan nilai-nilai koefisien korelasi parsial oder satu untuk tiga variabel dari persamaan di atas, didasarkan pada nilai-nilai koefisien korelasi sederhana atau korelasi order nol. Koefisien korelasi parsial oder satu mempunyai persamaan: [3.60a].
rYX1.X2
=
[3.60b].
rYX3.X1
=
[3.60c].
rX1X3.Y
=
rYX 1 − rYX 2 rX 1 X 2 (1 − r 2 YX 2 ) (1 − r 2 X 1 X 2 )
rYX 2 − rYX 1 rX 1 X 2 (1 − r 2 YX 1 ) (1 − r 2 X 1 X 2 ) rX 1 X 2 − rYX 1 rY 1 X 2 (1 − r 2 YX 1 ) (1 − r 2 YX 2 )
nilai X2 yang konstan
nilai X1 yang konstan
nilai Y yang konstan
Dari persamaan [3.60a sd 3.60c] di atas dengan pengertian bahwa: 1) 2) 3)
rYX1 adalah koefisien korelasi sederhana antara Y dengan X1; rYX2 adalah koefisien korelasi sederhana antara Y dengan X2; dan rX1X2 adalah koefisien korelasi sederhana antara X1 dengan X3.
Apabila nilai koefisien korelasi sederhana diketahui besarnya sehingga analisis korelasi parsial oder satu dari persamaan regresi tiga variabel di atas menjadi: [3.61a].
rYX1.X2
=
[3.61b].
rYX3.X1
=
[3.61c].
rX1X3.Y
=
rYX 1 − rYX2 rX 1X2 (1 − rY2X2 ) (1 − rX21 X 2 ) rYX 2 − rYX1 rX 1X2 (1 − rY2X1 ) (1 − rX21 X 2 )
rX !X 2 (1 −
− rYX1 rYX2
rY2X1 )
2 (1 − rYX 2)
Beberapa interprestasi yang dapat diungkapkan dari persamaan (3.61a sd 3.61c) di atas adalah sebagai berikut: 1).
Dalam rYX1.X2; jika rYX1 = 0, maka rYX1.X2 tidak akan = 0, kecuali apabila rYX2 atau rX1X2 = 0 atau kedua-duanya = 0.
2).
Dalam rYX1.X2; jika rYX1 = 0, di mana rYX2 serta rX1X2 ≠ 0, dan selain itu keduaduanya mempunyai tanda yang sama (+ atau -), maka rYX1.X2 mungkin akan negatif.
3).
Sedangkan, dalam rYX1.X2 jika rYX1 = 0, di mana rYX2 serta rX1X2 ≠ 0, dan selain itu jika keduanya mempunyai tanda yang berbeda, maka hasilnya akan positif.
59
PDF created with pdfFactory Pro trial version www.pdffactory.com
Sebagai misal: Y produksi padi per hektar, X1 curah hujan dan X2 temperatur udara. Diumpamakan Y = 0, yaitu bahwa tidak ada hubungan antara jumlah curah hujan dengan produksi padi, atau dengan kata lain bahwa produksi padi tidak dipengaruhi oleh curah hujan. Selanjutnya, diasumsikan pula bahwa rYX2 bertanda positif (+) dan rX1X2 bertanda negatif (-), maka nilai rYX1.X2 akan bertanda positif (+) dan yaitu dengan anggapan bahwa suhu konstan, maka akan terjadi korelasi yang positif antara produksi padi per hektar dengan curah hujan. 4).
Bahwa rX1X2 dan rYX1 (serta penduga yang setara) tidak perlu mempunyai tanda yang sama.
5).
Dalam analisis regresi dua variabel bebas X, maka nilai rYX1.X2 akan berkisar antara 0 dan 1. Nilai yang sama akan didapat juga dari analisis korelasi parsial yaitu: 0 ≤ rYX12 + rYX22 - rYX1 rYX2 rX1X2 ≤ 1 (nilai dalam tanda pertidaksamaan disebut dengan koefisien determinasi ganda (r2), akan dibicara kemudian).
6).
Dalam rYXi.Xj yang bernilai negatif maka disamakan dengan nokl (0).
3.13.3 Koefisien Deterninasi 2
Koefisien determinasi R dapat dihitung langsung dari data bersamaan dengan koefisien regresi bi. Kegunaan dari Koefisien determinasi R2 adalah untuk mengukur tingkat ketepatan yang paling baik dari analisis regresi. Jika data observasi dapat tepat pada garis atau bidang regresi yang diestimasi, maka dikatakan terjadi kecocokan garis atau bidang regresi dengan sepurna, dan nilai koefisien determinasi akan maksimum yaitu R2 = 1. Dalam kenyataan terhadap data pengamatan akan terjadi penyimpangan dengan garis atau bidang regresi penduga yang dikodekan dengan ei. Di dalam analisis regresi dengan metode kuwadrat terkecil (OLS) diusahakan supaya nilai ∑ei sekecil mungkin mendekati nol atau nilai koefisien determinasi semaksimum mungkin mendekati satu. Koefisien determinasi berganda R2 dengan rumus umum seperti berikut: [3.62]
R2 =
Jumlah Kuadrat Re gresi Jumlah Kuadrat Total 2
Koefisien determinasi berganda R dari regresi tiga variabel atau untuk regresi dengan dua variabel bebas X (X1 dan X2) dengan model persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X3. dapat didefinisikan sebagai berikut : 2
[3.63] R =
b1
∑
x1i y i + b2
∑
∑
x 2i y i
2
yi
Untuk regresi p + 1 variabel atau dengan p variabel bebas X (X1, X2, X3, . . ., Xp) dengan model persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X2 + . . . + βp Xp dapat didefinisikan sebagai berikut : 2
[3.64] R =
b1 ∑ x1i y i + b2 ∑ x 2i y i + . . . + bk
∑y
∑ x pi yi
2 i
Kelanjutan uraian koefisien determinasi berganda dan modifikasinya akan dibahas pada hal-hal selanjutnyaI. 2
2
Nilai harapan (E) koefisien determinasi R yang ditulis dengan E(R ) yang sering disebut dengan koefisien determinasi yang disesuaikan atau koefisien determinasi terkoreksi, didefinisikan dengan persamaan sebagai persamaan [3.65] berikut di bawah ini.
60
PDF created with pdfFactory Pro trial version www.pdffactory.com
[3.65]
E(R2) = E (1 −
σ e2 σ y2
)
e /(n − k ) = 1- ∑ 2 ∑ y /(n − 1) 2
= 1-
n −1 n−k
∑e 2 ∑y 2
n −1 2 (1-R ) n−k n −1 n −1 2 = 1+ R n−k n−k n − k −n +1 n −1 2 + R = n−k n−k 1− k n −1 2 = + R n−k n−k
= 1-
2
Dari penyelesaian persamaan [3.65] di atas maka didapatkan bahwa nilai harapan E(R ) yang disebut dengan nilai koefisien determinasi terkoreksi yang biasa ditulis dengan R 2 sehingga persamaan terakhir di atas dapat ditulis menjadi: [3.66] R 2 = =
n −1 1− k + n−k n−k n − 1 k −1 − R2 n−k n−k R2
Penyelesaian selanjutnya dari persamaan [3.66] akan menjadi:
nR 2 − R 2 + kR 2 − kR 2 1− k − n−k n−k R 2 (n − k ) k − 1 R 2 (k − 1) = − + n−k n−k n−k k −1 2 2 = R (1 − R ) n−k
[3.67] R 2 =
2
Dari persamaan di atas didapatkan maka R 2 ≤ R ≤1
61
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.14
Contoh Analisis dan Uraiannya
Agar dapat memahami uraian di atas dan dapat menentukan nilai koefisien regresi penduga atau koefisien regresi bi yaitu nilai- nilai b0, b1, dan b2, maka diberikan contoh olahan seperi di bawah ini, yang datanya terdiri dari dua variabel bebas X (prediktor = regresor) yaitu X1 dan X2 seperti pada Tabel 3.3. Tabel 3.3. Pengamatan Data Rregresi Dua Variabel Bebas X dan Satu Variabel Y X12
X22
Y2
X1Y
0,650
95,063
2,592
0,423
6,338
1,047 15,698
0,750
110,250 4,000
0,563
7,875
1,500 21,000
11,250 2,500
0,900
126,563 6,250
0,810
10,125
2,250 28,125
12,600 2,700
1,150
158,760 7,290
1,323
14,490
3,105 34,020
5
11,900 2,250
0,950
141,610 5,063
0,903
11,305
2,138 26,775
6
15,200 3,250
1,750
231,040 10,563
3,063
26,600
5,688 49,400
7
12,250 2,900
1,050
150,063 8,410
1,103
12,863
3,045 35,525
8
12,900 3,000
1,000
166,410 9,000
1,000
12,900
3,000 38,700
No.
X1
X2
Y
1
9,750
1,610
2
10,500 2,000
3 4
X2Y
X1X2
9
14,300 3,100
1,700
204,490 9,610
2,890
24,310
5,270 44,330
10
13,250 3,050
1,250
175,563 9,303
1,563
16,563
3,813 40,413
11
15,300 3,250
1,800
234,090 10,563
3,240
27,540
5,850 49,725
12
8,900
1,900
0,600
79,210
3,610
0,360
5,340
1,140 16,910
13
10,600 1,950
0,500
112,360 3,803
0,250
5,300
0,975 20,670
14
7,500
3,450
0,720
56,250 11,903
0,518
5,400
2,484 25,875
15
11,900 2,250
0,950
141,610 5,063
0,903
11,305
2,138 26,775
Jum- 178,100 39,160 15,720 2183,330107,020 18,908 198,253 43,441 473,940 lah Rata- 11,873 2,611 1,048 145,555 7,135 1,261 13,217 2,896 31,596 rata
3.14.1 Perhitungan nilai JK- JHK Perhitungan nilai JK- JHK dari data tabel di atas dapat dilihat di bawah ini. Perhitungan nilai JK seperti: 2
2
2
JK Y
= = =
Σy = ΣY - (ΣY) /n 18,908 - (5,720)2/15 2,4338
JK X1
= = =
Σx12 = ΣX12 - (ΣX)2/n 2 2183,330 - (178,100) /15 68,6893
JK X2
= = =
Σx22 = ΣX22 - (ΣX)2/n 2 107,020 - (39,160) /15 4,7859
62
PDF created with pdfFactory Pro trial version www.pdffactory.com
Perhitungan nilai JHK seperti: JHK X1Y = = =
Σx1y = ΣX1Y - ΣX1 ΣY/n 198,253 - (178,100)(5,720)/15 11,6037
JHK X2Y = = =
Σx2y = ΣX2Y - ΣX2 ΣY/n 43,441 - (39,160)(5,720)/15 2,4008
JHK X1X2 = = =
Σx1x2 = ΣX1X2 - ΣX1 ΣX2/n 473,940 - (178,100) (39,160)/15 8,9803
3.14.2 Perhitungan untuk mencari nilai b1, b2, dan b0 seperti berikut ini: Perhitungan untuk mencari nilai b1, b2, dan b0 didasarkan pada nilai JK-JHK
JK X 2 JHK X 1Y − JK X 1 JHK X 1 X 2
b1 =
JK X 1 JK X 2 − ( JHK X 1 X 2 )
2
(4,78589)(11,6037 ) − (68,6893) (8,9803) (68,6893) (4,78589) − (8,9803)2
= =
b2
=
0,136940
JK X 1 JHK X 2Y − JK X 2 JHK X 1 X 2 JK X 1 JK X 2 − (JHK X 1 X 2 )
2
=
(68,6893)(2,4008) − (4,7859)(8,9803) (68,6893) (4,7859) − (8,9803)2
=
0,244691
b0 =
Y - b1 X 1 - b2 X 2
=
1,048 - (0,136940) (11,873) - (0,244691) (2,611)
=
-1,216739
Sehingga persamaan Regresi bergandanya menjadi: Ŷ
=
b0 + b1 X1 + b2 X2
Ŷ
=
-1,216739 + 0,136940 X1 - 0,244691 X2
Selanjutnya, dilakukan pengujian terhadap regresi linier berganda terutama pengujian terhadap nilai-nilai koefisien regresi berganda (bi) serta pengujian terhadap bidang regresi. Dalam pengujian regresi linier berganda terdapat tiga macam uji yaitu: 1). 2). 3).
Uji simultan atau uji F atau uji ragam regresi atau uji varians regrsi; Uji parsial atau uji koefisien regresi berganda atau uji terhadap bi atau uji t; dan Uji koefisien korelasi berganda atau uji R.
63
PDF created with pdfFactory Pro trial version www.pdffactory.com
Ketiga macam uji-uji tersebut di atas menggunakan Ragam Galat Regresi atau Varians Residual Regresi yang disimbulkan SŶ2 atau Se3. Varians Sisa Regresi atau Varians Galat Regresi, yang perhitungannya didasarkan pada Jumlah Kuadrat Total dikurangi dengan Jumlah Kuadrat Regresi dibagi dengan Derajat Bebas Galat Regresi. DB Galat Regresi = n - p – 1 = 15-2-1 = 12 3.14.3 Perhitungan analisis keragaman regresi Hubungan antara komponen-komponen pada Analisis Keragaman seperti berikut ini. Dari persamaan [3.46 h] didapatkan bahwa JK Galat Regresi sama dengan JK Total dikurangi dengan JK Regresi. JK Total atau JK Y dapat dihitung dari data pengamatan. Perhitungan JK Total, JK Regresi, dan JK Galat Regresi dari analisis data di atas seperti: JK Y
= = =
Σy2 = ΣY2 - (ΣY)2/n 2 18,908 - (5,720) /15 2,4338
JHK X1Y = = =
Σx1y = ΣX1Y - ΣX1 ΣY/n 198,253 - (178,100)(5,720)/15 11,6037
JHK X2Y = = =
Σx2y = ΣX2Y - ΣX2 ΣY/n 43,441 - (39,160)(5,720)/15 2,4008
JK Total
JK Y 2,4338
= =
JK Regresi = = =
(b1 JHK X1Y + b2 JHK X2Y) (0,136940) (11,6037) + (0,244691) (2,4008) 2,1765
JK Galat Regresi = =
= JK Total - JK Regresi 2,4338 - 2,1765 0,2573
Setelah perhitung JK Total, JK Regresi, dan JK Galat Regresi didapatkan, maka di lanjutkan dengan membuat Tabel Analisis Keragaman Regresi seperti pada Tabel 3.4 berikut ini. Tabel 3.4. Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (SK) Regresi Galat atau Residual Total
Derajat Bebas (DB) 2 12
Jumlah Kuadrat (JK) 2,1765 0,2573
Kuadrat Tengah (KT) 1,08825 0,02145
14
2,4338
-
Keterangan: Jumlah sampel (pasangan pengamatan) = n = 15. ** = berbeda sangat nyata pada p = 1% atau Dapat ditulis berbeda sangat nyata (p<0,01)
64
PDF created with pdfFactory Pro trial version www.pdffactory.com
F hitung
F tabel 5% 1% **
50,73904
3,88
6,93
Berdasarkan hasil Analisis Varians di atas ternyata kreteria pengujian nilai Fhit adalah: 1).
Ternyta Fhit ≥ F(tabel 5%) ini berarti bahwa terdapat hubungan linier berganda antara pengaruh variabel X1 dan X2 terhadap Y secara bersama-sama atau simultan.
2).
Bila Fhit > F(tabel 5%) maka uji F analisis regresi dilanjukan dengan pengujian pengaruh masing-masing variabel bebas X secara individu dalam kebersamaan terhadap variabel tak bebas Y secara parsial seperti uraian berikut.
Hal di atas dilakuakan sebab dalam pengujian yang dilakukan dengan uji F seperti di atas, tidak dapat memberikan petunjuk apakah setiap variabel Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y apabila jumlah peubah bebas bertambah banyak. Oleh karena itu, maka untuk menunjukkan hubungan atau pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan menguraikan Analisis Keragaman lanjutan yaitu menguraikan JK Regresi menjadi JK Regresi Parsial untuk setiap variabel bebas Xi seperti uraian berikut: Untuk dua variabel bebas X, maka JK Regresi Parsial untuk variabel bebas X1 dan X2 dengan perhitungan adalah : JK Regresi = (b1 JHK X1Y + b2 JHK X2Y) = (0,136940) (11,6037) + (0,244691) (2,4008) = 2,1765 1). JK Regresi X1 = b1 JHK X1Y = (0,136940) (11,6037) = 1,5890 2).
JK Regresi X2 = b2 JHK X2Y = (0,244691) (2,4008) = 0,5875
Dengan demikian maka bentuk Tabel Sidik Ragam dari perhitungan di atas menjadi seperti Tabel 3.5 berikut ini. Tabel 3.5. Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (SK) Regresi
Derajat Bebas (DB) 2
Regresi X1 Residual atau Galat Total
2,1765 1
Regresi X2/X1
Jumlah Kuadrat (JK)
1
Kuadrat Tengah (KT)
**
F tabel 5%
1%
1,08825
50,73904
3,88
6,93
1,5890
**
4,75
9,33
**
4,75
9,33
1,5890 0,5875
0,5875
12
0,2573
0,02145
14
2,4338
Keterangan : Jumlah sampel = n = 15.
F hitung (Fhit)
88,1119 27,3893
**
= berbeda sangat nyata (p<0,01)
65
PDF created with pdfFactory Pro trial version www.pdffactory.com
Dari sidik ragam Tabel 3.6 terlihat bahwa JK Regresi, diuraikan mendi JK Regresi komponen-komponennya dengan derajat bebas tiap komponen sama dengan satu yaitu JK Regresi X1 dan JK Regesi X2/X1 yang artinya JK Regresi dari X2 jika X1 dianggap konstan, atau variabel bebas X2 merupakan tambahan terhadap variabel bebas X1 dalam mempengaruhi variabel tak bebas Y; demikian selanjutnya apabila jumlah variabel bertambahkan cukup banyak.
Ternyata dari Tabel 3.6 di atas dapat dikatakan bahwa kedua variabel bebas X1 dan X2 berpengaruh nyata (p<0,05) terhadap variabel tak bebas Y (pengujian ini bersifat klasik).
3.13.4 Uji keberartian koefisien regresi (bi) secara parsial atau Uji t Pengujian yang dilakukan dengan uji F seperti cara tersebut pada Tabel 3.5 di atas, dapat memberikan petunjuk apakah setiap variabel Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y secara parsial (suatu cara pengujian yang bersifat klasik). Modifikasi dari pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan uji t untuk uji koefisien regresi. Secara umum uji t mempunyai rumus seperti pada [3.51] adalah:
W Sw
t hitung W =
di mana W nilai yang diuji
Sehingga, untuk pengujian koefisien regresi b1 dan b2 dengan uji t menjadi: t hitung b1 =
b1 b dan t hitung b2 = 2 S b1 S b2
di mana Sbi = salah baku bi
JK X1
=
68,6893
JK X2
=
JHK X1 X2
=
8,9803
KT Galat Regresi =
4,7859 0,02145
Dalam analisis regresi dua prediktor, nilai salah baku bi atau Sbi melalui persamaan berikut ini. Untuk pengujian b1, maka nilai salah baku Sb1 menjadi: Sb1 =
var b1
=
JK X 2 KT Galat Re gresi JK X 1 JK X 2 − JHK X 1 X 2
=
4,7859 0.02145 68,6893 4,7859 − (8,9803)2
=
(
0,000412
= 0,0203
66
PDF created with pdfFactory Pro trial version www.pdffactory.com
)
2
t hitung b1 =
=
b1 S b1 0,173 0,0203
= 6,732 Untuk pengujian b2, maka nilai salah baku Sb2 menjadi: Sb2 =
var b 2
=
JK X 1 KT Galat Re gresi 2 JK X 1 JK X 2 − (JHK X 1 X 2 )
=
68,6893 0.02145 68,6893 4,7859 − (8,9803)2
=
0,0060
= 0,077 t hitung b2 = =
b2 S b2
0,245 0,077
= 3,175 Nilai ttabel = t(tabel α/2, db galat) = t(5%, 12) = 2,179 = t(1%, 12) = 3,055 Berdasarkan hasil uji t ternyata bahwa: thitung > t(tabel 5%, db galat) maka nilai bi menunjukkan bahwa baik X1 maupun X2 berpengaruh nyata (p<0,05) terhadap variabel bebas Y secara individu dalam kebersamaan. Kesimpulan ini persis sama dengan uji F pada Tabel 3.6 di atas. Dengan kata lain ini berarti bahwa koefisien arah b1 dan b2 yang dapat dipakai sebagai penduga dan peramalan yang dapat dipercaya. Pengujian yang dilakukan dengan cara tersebut di atas, dapat memberikan petunjuk bahwa setiap variabel bebas X1 dan variabel bebas X2 memberikan pengaruh yang nyata terhadap variabel tak bebas Y.
3.13.5
Perkiraan nilai interval koefisien regresi parsial
Selanjutnya, nilai salah baku koefisien regresi Sbi yang diperoleh selain untuk pengujian hipotesis juga dapat dipakai pada perkiraan nilai interval koefisien regresi parsial yang sering disebut dengan perkiraan nilai beta (β) populasi dengan persamaan sebagai berikut ini. p {bi - tα/2 Sbi < βi < bi + tα/2 Sbi} = 1- α p {b1 - tα/2 Sb1 p {b2 - tα/2 Sb2
β1 β2
untuk setiap b1 dan b1 seperti:
b1 + tα/2 Sb1} = 1- α b2 + tα/2 Sb2} = 1- α
67
PDF created with pdfFactory Pro trial version www.pdffactory.com
untuk b1 untuk b2
Untuk perkiraan β1 dengan nilai salah baku Sb1 dan α = 5% dari data di atas didapatkan: p {b1 - t(α/2,12) Sb1 < β1 < b1 + t(α/2,12) Sb1} = 1- α p {0,136940 - (2, 179) (0,02034) < β1 < 0,136940 + (2, 179) (0,02034)} = 1- α p {0,09262 < β1 < 0,18126} = 1 - α Jadi perkiraan nilai β1 berkisar antara 0,09262 sampai dengan 0,18126 atau 0,09262 < β1 < 0,18126.
Untuk perkiraan β2 dengan nilai salah baku Sb2 dengan α = 5% dari data di atas didapatkan: p {b2 - t(α/2,n-2) Sb2 < β2 < b2 + t(α/2,n-2) Sb2} = 1- α p {0,244691 - (2,179) (0,07706) < β2 < 0,244691 + (2,179) (0,07706)} = 1- α p {0,07679 < β2 < 0,41259} = 1 - α Jadi perkiraan nilai β2 berkisar antara 0,07679 sampai dengan 0,41259 atau 0,07679 < β2 < 0,41259.
3.13.6 Koefisien Korelasi dan Koefisien Determinasi Dalam analisis regresi linier berganda terdapat beberapa macam koefisien korelasi. Adapun macam-macam koefisien korelasi tersebut adalah: 1). 2). 3). 4).
Koefisien korelasi sederhana. Koefisien korelasi parsial. Koefisien korelasi berganda. Koefisien determinasi.
3.13.6.1 Korelasi linier sederhana Koefisien korelasi sederhana atau koefisien korelasi linier atau koefisien korelasi product moment atau koefisien korelasi Pearson yang disimbulkan dengan r; yaitu suatu nilai mengukur keeratan hubungan antar masing-masing variabel ke-i dengan variabel ke-j, dengan tidak memperhatikan pengaruh variabel-variabel yang lainnya. Dalam analisis regresi berganda tiga variabel atau dua prediktor yaitu analisis regresi yang terdiri atas dua pubah bebas X yaitu X1 dan X2 serta sebuah variabel tak bebas Y, maka terdapat tiga nilai koefisien korelasi linier sederhana r yaitu: 1) 2) 3)
rY1 atau rYX1 yaitu koefisien korelasi antara Y dengan X1; rY2 atau rYX2 yaitu koefisien korelasi antara Y dengan X2; dan r12 atau rX2X1 yaitu koefisien korelasi antara X1 dengan X3.
Adapun persamaan dari koefisien korelasi sederhana ini adalah:
∑ X ∑Y n 2 ( X ) Y 2 − (∑ Y )2 ∑ X 2 − ∑ ∑ n n ∑ XY −
1).
rXY
=
68
PDF created with pdfFactory Pro trial version www.pdffactory.com
atau
2).
rXY
=
3).
rXY
=
∑ xy ∑x ∑y 2
atau
2
JHK XY
(n = jumlah sampel)
(JK X )(JKY )
Sebagai contoh perhitungan hubungan antara Y dengan X1 dan X2 dan antara X1 dengan X2 dengan hasil perhitungan JK-JHK di atas dengan persamaan [3.58c] menjadi: JK Y = JK X2 = JHK X1Y =
2,4338 4,7859 11,6037
JK X1 JHK X1 X2 JHK X2Y
= = =
68,6893 8,9803 2,4008
Adapun persamaan dari koefisien korelasi rXiY adalah: 1).
rX1Y
= =
2).
rX2Y
0,8974
=
JHK X 2Y (JK X 2 )(JK Y )
= rX1X2
11,6037
(68,6893)(2,4338)
=
=
3).
JHK X 1Y (JK X 1 )(JKY )
= = =
2,4008 (6,7859)(2,4338) 0,7034
JHK X 1 X 2 (JK X 1 )(JK X 2 ) 8,9803 (68,6893) (4,7859) 0,4950
Memperhatikan perhitungan di atas dapatkah dikatakan bahwa rYX1 merupakan ukuran dari keeratan huhungan antara Y dengan X1 yang sebenarnya, tanpa ada pengaruh variabel lain sementara diketahui bahwa yang mempengaruh variabel Y adalah X2 selain X1 dan selain itu memungkin juga X2 mempengaruhi X1 atau sebaliknya. Jadi tegasnya bahwa dalam regresi berganda untuk mendapatkan hubungan yang sebenarnya antara sebuah variabel bebas Xi dengan variabel tak bebas Y, yaitu dengan cara menghilangkan pengaruh variabel-variabel bebas yang lainya. Cara ini terkenal dengan analisis Korelasi Parsial.
69
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.13.6.2
Koefisien korelasi parsial
Korelasi parsial (partial corelation coeficient) dapat dibedakan menjadi: 1).
Korelasi parsial order satu, dengan simbul rXiXj.Xk. yang berari hubungan antara variabel X ke-i dengan variabel X ke-j yang bebas dari pengaruh variabel X ke-k.
2).
Korelasi parsial order dua, dengan simbul rYXi XjXk. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabel X ke-j dan variabel X ke-k.
3).
Korelasi parsial order tiga, dengan simbul rYXi. XjXkXl. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabel-variabel X ke-j; X ke-k; dan X ke-l
4).
Korelasi parsial order banyak, dengan simbul rYXi.XjXk . . . Xp. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabelvariabel X ke-j; X ke-k; . . .; dan X ke-p
Korelasi parsial order satu Koefisien korelasi parsial order satu dari model persamaan regresi berganda: Ŷ = β0 + β1 X1 + β2 X3. dapat diuraikan menjadi: 1).
rYX1.X2 koefisien korelasi parsial antara Y & X1 jika X2 pengaruhnya konstan atau bebas rYX3.X1 koefisien korelasi parsial antara Y & X2 jika X1 pengaruhnya konstan atau bebas rX1X3.Y koefisien korelasi parsial antara X1 & X2 jika Y pengaruhnya konstan atau bebas
2). 3).
Perhitungan nilai-nilai koefisien korelasi parsial oder satu untuk tiga variabel dari persamaan di atas, didasarkan pada nilai-nilai koefisien korelasi sederhana atau order nol. Koefisien korelasi parsial oder satu mempunyai persamaan: rYXi.Xj
rYXi − rYXj rXiX j
=
nilai Xj yang konstan
(1 − r 2 YX j ) (1 − r 2 XiXj )
Dari persamaan di atas dengan pengertian bahwa: 4) 5) 6)
rYX1 adalah koefisien korelasi sederhana antara Y dengan X1; rYX2 adalah koefisien korelasi sederhana antara Y dengan X2; dan rX1X2 adalah koefisien korelasi sederhana antara X1 dengan X3.
Apabila diketahui bahwa: rX1Y = 0,8974; rX2Y = 0,7034; dan rX1X2 = 0,4950 sehingga analisis korelasi parsial oder satu dari persamaan regresi tiga variabel menjadi: 1). rYX1.X2
=
=
rYX 1 − rYX2 rX 1X2 (1 − rY2X2 ) (1 − rX21 X 2 ) 0,8974 − (0,7034 ) (0,9450 )
(1 − 0,7034 ) (1 − 0,9450 ) 2
=
2
0,8893
70
PDF created with pdfFactory Pro trial version www.pdffactory.com
2). rYX3.X1
rYX 2 − rYX1 rX 1X2
=
(1 − rY2X1 ) (1 − rX21 X 2 )
0,7034 − (0,8974) (0,9450)
=
(1 − 0,8974 ) (1 − 0,9450 ) 2
=
3). rX1X3.Y
0,6761 rX !X 2
=
− rYX1 rYX2
2 (1 − rY2X1 ) (1 − rYX 2)
0,9450 − (0,8974 ) (0,7034 )
=
(1 − 0,8974 ) (1 − 0,7034 ) 2
=
2
2
- 0,4344
3.13.6.3 Koefisien Deterninasi Koefisien determinasi berganda (R2) dengan persamaan umum seperti berikut: 2
R =
Jumlah Kuadrat Re gresi Jumlah Kuadrat Total
Cara lain untuk menentukan koefisien determinasi berganda (R2) dari tiga variabel atau untuk regresi dengan dua variabel bebas X (X1 dan X2) dengan model persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X3. dapat dirumuskan sebagai berikut: R2 =
b1 ∑ x1 yi + b2 ∑ x 2 y i 2 ∑ yi
(0,136940) (11,6037) + (0,244691) (2,4008) 2,4338 2,1765 = 2,4338
=
= 0.89423 atau 89,423% 2
2
Nilai harapan (E) koefisien determinasi (R ) = E (R ) atau R 2 atau koefisien determinasi yang disesuaikan atau koefisien determinasi terkoreksi, dirumuskan dengan persamaan: R2 = 1 -
= 1-
JK Galat /( DB Galat ) JK Total /( DB Total ) 0,2574 /12 2,4338 /14
= 0,877 Dari persamaan di atas didapatkan maka R 2 =
2
87,7% ≤ R = 89,423% ≤1
71
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.15. Contoh Hasil Output Komputer dengan Menggunakan Execel Perhitungan-perhitungan regresi seperti regresi linier sederhana di atas terdapat banyak perangkat lunak yang dapt membantunya seperti Excel, Minitab, SPSS, Statistica, Sistat, dan lain sebagainya. Dalam hal ini akan diberikan contoh keluaran komputer dengan program Excel. 1 Summary Output Excel Tabel 3.6. Regression Statistics Multiple R
0,946
R Square
0,894
Adjusted R Square
0,877
Standard Error
0,146
Observations
15
Tabel 3.7. Analysis of variance (ANOVA) SV Regression
DF 2
SS 2,176
MS 1,088
Residual
12
0,2574
0,0215
Total
14
2,434
F 50,739
Significance F -06 1,398E
Table 3.8 Parcial Regression Var Coefficients Std Error Intercept -1,217 0,228
t Stat -5,331
P-value 0,00018
Lower 95% Upper 95% -1,714 -0,719
X1
0,137
0,020
6,732
0,00002
0,093
0,181
X2
0,245
0,077
3,175
0,00799
0,077
0,413
Penjelasan tabel-tabel di atas seperti berikut: Table 3.6 Regression Statistics Multiple R adalah sama dengan koefisien korelasi berganda r yang menunjukkan keeratan hubungan antara variabel bebas X1 dan X2 dengan peubah tak bebas Y yaitu sebesar 0,946. 2
R Square adalah sama dengan koefisien determinasi R yang menunjukkan variasi keragaman total Y yang dapat diterangkan oleh variasi variabel X1 dan X2, atau dapat diartikan bahwa 94,6% dari peubah tak bebas Y dipengaruhi oleh variasi variabel X1 dan X3. 2
Adjusted R Square adalah sama dengan koefisien determinasi R terkoreksi = 87,7% Standard Error adalah sama dengan Salah Baku Y atau S Y = Observations adalah sama dengan jumlah sampel = n = 15.
72
PDF created with pdfFactory Pro trial version www.pdffactory.com
KT Y n
=
MS Y n
= 0,146.
Table 3.7 ANOVA Pada Tabel Anova adalah sama dengan Sidik Ragam Regresi. Di mana SV = Sumber Variasi (SV) atau Sumber Keragaman (SK); DF = Degrees of Freesom atau = Derajat Bebas (DB); SS = Sum of Squares atau = JK; MS = Means Squarwes atau KT; F = F hitung. Significance F adalah sama dengan nilai peluang dari nilai F hitung. Dalam hal ini nilai F hitung tidak dibangingkan dengan F tabel seperti biasa. Akan tetapi, nilai significance F dibandingkan nilai peluang (p) standar yaitu 5% dan 1%. 1).
Apabila nilai significance F ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan Fhit ≤ F(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) yang didapat tersebut bukan bidang regresi yang terbaik. Atau peubah bebas X1 dan X2 tidak berpengaruh terhadap variabel tak bebas Y.
2).
Apabila nilai significance F <(p = 0,05) dapat disimpulkan sama dengan Fhit > F(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga Ŷ yang didapat adalah merupakan bidang regresi yang terbaik untuk menerangkan bahwa salah satu variabel bebas X1 dan X2 ada yang berpengaruh nyata terhadap variabel tak bebas Y.
Apabila nilai signifikanse F < (p = 0,01) dapat disimpulkan sama dengan Fhit > F(tabel 1%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga Ŷ yang didapat tersebut adalah bidang regresi yang terbaik untuk menerangkan bahwa variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y. Sebagai contoh dari hasil analis tersebut di atas didapat nilai F = 50,739 dengan significance F = 1,398E-06 atau sama dengan 0,0000. Ini berarti bahwa tolak H0 yang menyatakan bidang regresi penduga Ŷ = - 1,217 + 0,137 X1 + 0,245 X2; adalah bidang regresi yang terbaik untuk menerangkan bahwa variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y. Tabel 3.8 Parcial Regression Var adalah sama dengan variabel yang akan dijelaskan; dalam analisis ini adalah X1 dan X2 Intercept sama dengan b0 jarak antara titik potong dibang regresi penduga Ŷ dengan titik acuan (0,0). Coefficients sama dengan bi dalam hal ini sama dengan b0, b1, dan b2 Masing-masing b0 = - 1,217, b1 = 0,133, dan b2 = 0,245. Standart Error dalam Tabel 3.9 ini berbeda dengan Standart Error dari Tabel 3.6. Standart Error disini menunjukkan nilai yang sama dengan Sb0, dan Sb1, dan Sb2 untuk pengujian b0, b1, dan b3. Sebagai contoh Standart Error untuk b0 (Sb0) = 0,228; b1 (Sb1) = 0,020; dan b2 (Sb2) = 0,077. t Stat sama dengan t hitung untuk bi dengan rumus: t hitung bi =
bi ; S bi
Sehinga nilai t hitung untuk masing-masing b0 = -5, 331; b1 = 6,732; dan b2 = 3,175. P-value adalah sama dengan nilai peluang dari nilai t hitung. Dalam hal ini nilai t hitung tidak dibangingkan dengan t tabel seperti biasa. Akan tetapi, nilai P-value dibandingkan nilai peluang (p) standar yaitu 5% atau 1%. 1).
73
PDF created with pdfFactory Pro trial version www.pdffactory.com
Untuk b0, maka 1). Apabila nilai P-value ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan thit ≤ t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui titik acuan (0,0) 2). Apabila nilai P-value < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui tidak melalui titik acuan (0,0). Untuk b1 maka 1). Apabila nilai P-value ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan thit ≤ t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) sejajar dengan sumbu X1 . 2). Apabila nilai P-value < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui tidak sejajar dengan sumbu X1.. Untuk b2, maka 1). Apabila nilai P-value ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan thit ≤ t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) sejajar dengan sumbu X2 . 2). Apabila nilai P-value < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui tidak sejajar dengan sumbu X3.. Sebagai contoh dari hasil analisis tersebut di atas didapatkan nilai P-value untuk b0 = 0.00018. Ini berarti tolak H0 karena P-value < 0,05, yang berarti bahwa bidang penduga Ŷ = - 1,217 + 0,137 X1 + 0,245 X2; tidak melalui titik acuan (0,0). Demikian juga didapatkan nilai P-value untuk b1 = 0.00002; dan b1 = 0.00799. Ini berarti tolak H0 karena P-value < 0,05, yang berarti bahwa bidang regresi penduga Ŷ = - 1,217 + 0,137 X1 + 0,245 X2; adalah bidang regresi penduga tidak sejajar dengan sumbu X1 maupun X2, dan sangat nyata. Lower dan Upper adalah sama dengan perkiraan nilai interval b0, b1, dan b1 atau pendugaan nilai β0, β1, dan β2 dengan rumus: p {bi - tα/2 sbi ≤ βi ≤ bi - tα/2 sbi} = 1- α. Nilai 95% atau 99% = 1- α tergantung pada nilai α yang dipakai 5% atau 1%. Perkiraan nilai β0 berkisar antara - 1,714 sampai dengan - 1,719 untuk α = 5%. Perkiraan nilai β1 berkisar antara 0,093 sampai dengan 0,191 untuk α = 5%. Perkiraan nilai β2 berkisar antara 0,077 sampai dengan 0,413 untuk α = 5%. Perhatikan nilai Lower dan Upper, apabila nilai Lower dan Upper bersifat definit positif atau definit negarif artinya baik Lower maupun Upper mempunyai tanda bilangan yang positif atau negarif ( + , - ) berarti dalam uji t hitung bi menunjukkan signifikansi yang nyata pada taraf α = 5% atau 1%. Sebaliknya, apabila nilai Lower bertanda negarif Upper bertanda positif berarti dalam uji t hitung bi menunjukkan signifikansi nyata pada taraf α = 5%. atau 1%.
74
PDF created with pdfFactory Pro trial version www.pdffactory.com
3.15 Contoh Hasil Output Komputer dengan Menggunakan SPSS Penjelasan tabel-tabel dari setiap adalah seperti berikut ini. Table 3.9 Descriptive Statistics Tabel 3.9 Descriptive Statistics Variable Y X1 X2
Mean
Std. Deviation
N
1,0480 11,8733 2,6107
0,41695 2,21504 0,58468
15 15 15
Descriptive Statistics adalah penjelasan mengenai nilai rata-rata, standar deviasi, dan jumlah sampel yang dianalisis pada setiap variabel. Tabel 3.10a Correlations Y
X1
X2
Sig. (1-tailed)
Y X1 X2 Y
1,000 ,897 ,703 .
,897 1,000 ,495 ,000
,703 ,495 1,000 ,002
N
X1 X2 Y
,000 ,002 15
. .030 15
,030 . 15
X1 X2
15 15
15 15
15 15
Pearson Correlation
Tabel 3.10 a,b Correlations Correlations adalah penjelasan mengenai koefisien korelasi linier sederhana versi product momen dari Pearson, significant (p) dengan uji dua arah dan satu arah, serta jumlah sampel yang dianalisis pada setiap variabel. Tabel 3.10 b Correlations X1 X2 Pearson Correlation 1 ,495 Sig. (2-tailed) . ,060 N 15 15 X2 Pearson Correlation ,495 1 Sig. (2-tailed) ,060 . N 15 15 Y Pearson Correlation ,897 ,703 Sig. (2-tailed) ,000 ,003 N 15 15 ** Correlation is significant at the 0.01 level (2-tailed). X1
75
PDF created with pdfFactory Pro trial version www.pdffactory.com
Y ,897 ,000 15 ,703 ,003 15 1 . 15
Tabel 3.11 Variables Entered/Removed Tabel 3.11 Variables Entered/Removed Model 1
Variables Entered X2, X1
Variables Removed .
Method Enter
a All requested variables entered. b Dependent Variable: Y Variables Entered/Removed adalah penjelasan mengenai variabel mana yang mempunyai pengaruh yang paling utama kemudian diikuti oleh veriabel yang lain. Tabel 3.12 ANOVA Dalam Tabel 12, variabel yang paling berperngaruh adalah X2 kemudian X1. Tabel 3.12 ANOVA Model
Source of Sum of Variation Squares 1 Regression 2,176 Residual 0,257 Total 2,434 a Predictors: (Constant), X2, X1 b Dependent Variable: Y
df 2 12 14
Mean F Square 1,088 50,739 0,021
Sig. 0,000
Pada Tabel Anova adalah sama dengan Sidik Ragam Regresi pada EXcel. Di mana SV = Source of Variation (SV) atau Sumber Keragaman (SK) tidak ditampilkan pada SPSS; df = Degrees of Freesom atau = Derajat Bebas (DB); Sum of Squares atau = JK; MS = Means Squarwes atau KT; F = F hitung. F adalah nilai F hitung seperti biasa yang dihitung dari JK Regresi/JKGalat Sig = Significance F adalah sama dengan nilai peluang nilai F hitung. Dalam hal ini nilai significance F dibandingkan nilai peluang (p) standar yaitu 5% dan 1%. 1). Apabila nilai sig ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan Fhit ≤ F(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) yang didapat tersebut bukan bidang regresi yang terbaik. Atau peubah bebas X1 dan X2 tidak berpengaruh terhadap variabel tak bebas Y. 2). Apabila nilai sig <(p = 0,05) dapat disimpulkan sama dengan Fhit > F(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga Ŷ yang didapat adalah merupakan bidang regresi yang terbaik untuk menerangkan bahwa salah satu variabel bebas X1 dan X2 ada yang berpengaruh nyata terhadap variabel tak bebas Y. Apabila nilai sig <(p = 0,01) dapat disimpulkan sama dengan Fhit > F(tabel 1%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga Ŷ yang didapat adalah bidang regresi terbaik untuk menerangkan variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y secara simultan.
76
PDF created with pdfFactory Pro trial version www.pdffactory.com
Sebagai contoh dari hasil analis tersebut di atas didapat nilai F = 50,739 dengan sig = 0,0000. Ini berarti bahwa tolak H0 yang menyatakan bidang regresi penduga Ŷ adalah bidang regresi yang terbaik untuk menerangkan bahwa variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y secara simultan. Tabel 3.13a Model Summary Tabel 3.14a Model Summary Model
R
1
.946
R Square Adjusted Std. Error of R Square the Estimate .894 .877 .14645
a Predictors: (Constant), X2, X1 b Dependent Variable: Y R = Multiple R pada analisis Excel adalah sama dengan koefisien korelasi berganda r yang menunjukkan keeratan hubungan antara variabel bebas X1 dan X2 dengan peubah tak bebas Y yaitu sebesar 0,946. R Square adalah sama pada analisis Excel sama dengan koefisien determinasi R2 yang menunjukkan variasi keragaman total Y yang dapat diterangkan oleh variasi variabel X1 dan X2, atau dapat diartikan bahwa 89,4,% dari peubah tak bebas Y dipengaruhi oleh variasi variabel X1 dan X3. Adjusted R Square adalah sama dengan pada analisis Excel di mana koefisien 2 determinasi R terkoreksi = 87,7% Standard Error of Estimation adalah sama dengan Standard Error pada analisis Excel atau Salah Baku Y atau SY =
KT Y
=
MS Y
n
= 0,14645.
n
Tabel 3.13b Model Summary Tabel 3.13b Model Summary
Model 1
Change Statistics R Square F Change Change .894 50.739
df1
df2
2
12
Sig. F Change .000
DurbinWatson 3.598
a Predictors: (Constant), X2, X1 b Dependent Variable: Y R Square Change = R Square seperti di atas = 0,894 F Change = F hitung = 50,739 df1 = derajat bebas Regeresi = 2 df2 = derajat bebas Galat Regeresi = 12 Sig F Change = p value untuk F Change = 0,000 Durbin-Watson test adalah suatu uji untuk data time series dari data pengamatan, yang menunjukkan apakah data ada unsur tine seriesnya.
77
PDF created with pdfFactory Pro trial version www.pdffactory.com
Tabel 3.14a Coefficients Regression Tabel 3.14a Coefficients Regression Model 1
Unstandardized Standardized t Sig. Coefficients Std. Error Coefficients B Beta (Constant) -1.217 .228 -5.331 .000 Var
X1
.137
.020
.727
6.732
.000
X2
.245
.077
.343
3.175
.008
a Dependent Variable: Y Var adalah sama dengan variabel yang akan dijelaskan; dalam analisis SPSS ini adalah X1, X2, dan Y Constant sama dengan Intercept = b0 yaitu jarak antara titik potong dengan dibang regresi penduga Ŷ dengan titik acuan (0,0). Unstandardized Coefficients = Coefficients of regression sama dengan bi yang diberi kode dengan B dalam hal ini sama dengan b0, b1, dan b2 dari data asli. Masingmasing b0 = - 1,217, b1 = 0,137, dan b2 = 0,245. Standardized Coefficients = Coefficients of regression dari semua data yang ditransformasikan ke dalam bentuk data standar atau data Zi baik data Y maupun data X. Standardized Coefficients diberi nama beta (β). Dalam hal ini βi yang berarti pengaruh langsung setiap variabel bebas Xi terhadap variabel tak bebas Y. Untuk variabel X1 = 0,727 dan untuk variabel X2 = 0,343. Badingkan dengan nilai b1 dan b2 di atas. Std Error = Standart Error dalam Tabel 3.15a = Standart Error koefisien regresi, yang menunjukkan nilai sama dengan Sb0, dan Sb1, dan Sb2 untuk pengujian b0, b1, dan b3. Sebagai contoh Standart Error untuk b0 (Sb0) = 0,228; b1 (Sb1) = 0,020; dan b2 (Sb2) = 0,077. Hasil ini persis sama dengan analisis Excel. t sama dengan t hitung untuk bi dengan rumus: t hitung bi =
bi ; S bi
Sehinga nilai t hitung untuk masing-masing b0 = -5, 331; b1 = 6,732; dan b2 = 3,175. Sig = P-value pada analisis Excel adalah sama dengan nilai peluang dari nilai t hitung. Dalam hal ini nilai t hitung tidak dibangingkan dengan t tabel seperti biasa. Akan tetapi, Sig = nilai P-value dibandingkan nilai peluang (p) standar yaitu 5% atau 1%. Untuk b0, maka: 1). Apabila nilai Sig ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan thit ≤ t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui titik acuan (0,0) 2). Apabila nilai Sig < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui tidak melalui titik acuan (0,0).
78
PDF created with pdfFactory Pro trial version www.pdffactory.com
Untuk b1 maka: 1). Apabila nilai Sig ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan thit ≤ t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) sejajar dengan sumbu X1 . 2). Apabila nilai Sig < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui tidak sejajar dengan sumbu X1.. Untuk b2, maka: 1). Apabila nilai Sig ≥ (p = 0,05) mempunyai kesimpulan yang sama dengan thit ≤ t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) sejajar dengan sumbu X2 . 2). Apabila nilai Sig < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga (Ŷ) melalui tidak sejajar dengan sumbu X3.. Tabel 3.14b Coefficients Regression Tabel 3.14b Coefficients Regression 95% Confidence Correlations Collinearity Interval for B Statistics Model Var Lower Upper Zero- Partial Part Tolerance VIF Bound Bound Order 1 (Constant) -1.714 -.719 X1
.093
.181
.897
.889
.632
.755
1.325
X2
.077
.413
.703
.676
.298
.755
1.325
Pada analisis SPSS hasilnya hampir sama dengan anlisis dengan Excel di mana nilai Lower Bound dan Upper Bound adalah sama dengan perkiraan nilai interval b0, b1, dan b1 atau pendugaan nilai β0, β1, dan β2 dengan rumus umum: p {bi - tα/2 sbi ≤ βi ≤ bi - tα/2 sbi} = 1- α . Nilai 95% atau 99% = 1- α tergantung pada nilai α yang dipakai 5% atau 1%. Perkiraan nilai β0 berkisar antara - 1,714 sampai dengan - 1,719 untuk α = 5%. Perkiraan nilai β1 berkisar antara 0,093 sampai dengan 0,191 untuk α = 5%. Perkiraan nilai β2 berkisar antara 0,077 sampai dengan 0,413 untuk α = 5%. Perhatikan nilai Lower dan Upper, apabila nilai Lower dan Upper bersifat definit positif atau definit negarif artinya baik Lower maupun Upper mempunyai tanda bilangan yang positif atau negarif ( + atau - ) berarti dalam uji t hitung bi menunjukkan signifikansi yang nyata pada taraf α = 5% atau 1%. Sebaliknya, apabila nilai Lower bertanda negarif dan nilai Upper bertanda positif berarti uji t hitung bi menunjukkan signifikansi tidak nyata pada taraf α = 5% atau 1%.
79
PDF created with pdfFactory Pro trial version www.pdffactory.com
Koefisien Korelasi dan Kolinieritas Correlations di sini ada tiga macam yaitu nilai koefisien korelasi linier sederhana (Zeroorder), koefisien korelasi parsial order satu, dan koefisien korelasi bagian antara variabel X1 dan X2 terhadap variabel Y. Collinearity Statistics adalah ukuran untuk mengetahui adanya kolinieritas antar variabel bebas yang sedang dianalisis yaitu antara X1 dan X3. Kolinieritas dihitung dengan nilai tolerance atau VIF. Antara kedua variabel tersebut ada hubunganya di mana tolerance = 1/VIF. VIF singkatan dari varians inflation factor. Agar supaya variabel bebas antara X1 dan X3.tidak dikatakan terdapat kolinieritas maka nilai tolerance atau VIF berkisar disekitar satu.
80
PDF created with pdfFactory Pro trial version www.pdffactory.com