MENGATASI MULTIKOLINEARITAS MENGGUNAKAN PRINCIPAL COMPONENT ANALYSIS (PCA) Laporan Praktikum ke-2 Disusun untuk Memenuhi Laporan Praktikum Analisis Regresi Lanjutan
Oleh
Nama Nim Asisten 1 Asisten 2
: Faisyal : 125090507111001 : Windy Antika Antis Watin : Faikotur Rohima
LABORATORIUM STATISTIKA PROGRAM STUDI STATISTIKA JURUSAN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS BRAWIJAYA 2014
BAB I PENDAHULUAN 1.1 Latar Belakang Analisis regresi adalah metode statistika yang digunakan untuk mengetahui sejauh mana ketergantungan atau hubungan sebuah variabel respon (variabel tak bebas) dengan sebuah atau lebih variabel prediktor (variabel bebas). Bila dalam analisisnya hanya melibatkan satu variabel prediktor, maka analisis yang digunakan adalah analisis regresi linear sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih variabel prediktor, maka analisis yang digunakan adalah analisis regresi linear berganda. Dalam kehidupan sehari-hari, banyak sekali permasalahan yang melibatkan analisis regresi linear berganda. Dalam analisis regresi yang memuat banyak variabel prediktor, sering timbul masalah karena adanya hubungan antara dua atau lebih variabel prediktornya. Variabel prediktor yang berkorelasi disebut kolinearitas ganda (multicollinearity). (Soemartini, 2008) Bentuk persamaan yang paling sederhana dari regresi linear berganda adalah yang mempunyai dua variabel prediktor X dan sebuah variabel respon seperti pada persamaan berikut: Y = βo + β1X1i + β2X2 Cara lain yang umum dipergunakan pada penulisan model regresi linear berganda untuk dua prediktor seperti yang dikembangkan oleh Yule dengan model persamaan berikut: Y i = βY.12 + βY1.2Xi1 + βY3.1Xi2 + εi Indeks (subscrift) dengan angka 1 pada variabel X adalah untuk variabel X1 dan angka 2 untuk variabel X2. Nilai koefisien regresi βY.12 dalam model tersebut merupakan titik potong dengan sumbu tegak atau intercept, yang biasanya diartikan sebagai pengaruh ratarata (mean effect) tehadap variabel respon Y di luar variabel prediktor X yang ada dalam model atau nilai ratarata Y jika X1 dan X2 sama dengan nol (= 0). Koefisien regresi βY1.2 adalah koefisien arah atau estimator regresi Y terhadap X1 dengan X2 dianggap konstan. Koefisien regresi βY3.1 adalah koefisien arah atau estimator regresi Y terhadap variabel X2 dengan X1 dianggap konstan. Interprestasi dari analisis regresi linier berganda ini adalah hampir serupa dengan interprestasi analisis regresi linier sederhana, artinya variabel prediktor X1 bersama-sama dengan variabel prediktor X2 berpengaruh terhadap variabel 1
respon Y, yang masing-masing variabel Xi bekerja secara linier dan bebas sesamanya. (Anonim, 2012)
Secara umum persamaan regresi linier dengan k prediktor dinyatakan dengan : Yi = βo + β1X1i + β2X2i + …+ βkXki + εi dengan : = variabel respon atau pengamatan ke i pada variabel yang dijelaskan y Xi = prediktor atau pengamatan ke i pada variabel penjelas xk β1… βk = parameter atau koefisien regresi variabel penjelas xk εi = variabel gangguan atau error Yi
Ketika terjadi multikolinearitas maka akan mengakibatkan suatu model regresi menjadi tidak baik dijadikan sebagai penduga karena model yang digunakan akan berbias. Untuk mendeteksi terjadinya multikolinearitas maka menggunakan uji VIF (Variance inflation factors). Selanjutnya model yang terdeteksi adanya multikolinearitas harus melakukan penanganan supaya modelnya menjadi non multikolinearitas. Salah satu cara yang digunakan dalam mengatasi non multikolinearitas adalah menggunakan Principal Component Analysis (PCA). 1.2 Rumusan Masalah Yang menjadi rumusan masalah dalam laporan ini adalah: 1. Bagaimanakah cara mendeteksi adanya multikolinearitas menggunakan Variance inflation Factors (VIF) ? 2. Bagaimanakah cara mengatasi multikoliearitas menggunakan Principal Component Analysis (PCA) ? 1.3 Tujuan Tujuan dari pembuatan laporan ini yaitu menggunakan Principal Component Analysis untuk mengatasi masalah multikolinearitas pada yang terjadi pada model regresi berganda. Sehingga didapatkan model regresi yang baik untuk digunakan.
2
BAB II KAJIAN PUSTAKA 2.1 Multikolinearitas Multikolinearitas muncul ketika variabel-variabel prediktornya saling berkorelasi. Variabel-variabel prediktor yang berkorelasi membuat kita sulit mengambil kesimpulan mengenai masing-masing koefisien regresi dan masing-masing dampaknya terhadap variabel terikat. Pada akhirnya, hamper mustahil untuk memilih variabel-variabel yang benar-benar tidak berhubungan. Dengan kata lain, hampir mustahil untuk menciptakan kelompok kelompok variabel prediktor yang tidak berhubungan hingga tingkat tertentu. Alasan untuk menghindari variabel yang berkorelasi adalah kemungkinan menghasilkan hasil yang salah dalam pengujian hipotesis untuk masing-masing variabel prediktor. Hal ini disebabkan oleh ketidakstabilan dalam kesalahan standar estimasi. Beberapa petunjuk yang mengindikasikan masalah-masalah multikolinearitas adalah: a. Sebuah variabel prediktor yang diketahui merupakan prediktor penting ternyata memiliki koefisien regresi yang tidak signifikan. b. Sebuah koefisien regresi yang seharusnya memiliki nilai positif ternyata bernilai negatif, atau sebaliknya. c. Ketika sebuah variabel prediktor ditambahkan atau dihilangkan, terjadi perubahan yang drastis pada nilai koefisien regresi yang tersisa. Pada umumnya pendekatan yang digunakan untuk mengurangi resiko terjadinya multikolinearitas adalah memilih variabel prediktor secara hatihati. Aturan umumnya, jika korelasi antara dua variabel prediktor berada diantara -0.70 dan 0.70, tampaknya tidak masalah untuk menggunakan variabel-variabel prediktor tersebut (lind dkk, 2008). Tetapi ada pengujian yang lebih cermat dalam multikolinearitas yaitu uji variance inflation factor (VIF).
mendeteksi
2.2 Variance Inflation Factors (VIF) 3
Variance Inflation Factors (VIF) merupakan salah satu indikator untuk mengukur besarnya kolinearitas. VIF menunjukkan peningkatan ragam dari koefisien regresi yang disebabkan karena adanya ketergantungan linear peubah prediktor tersebut dengan peubah prediktor yang lain. digunakan untuk mendeteksi adanya multikolinearitas. Rumus VIF adalah sebagai berikut: 1 VIFj = 1−R 2 , j = 1,2,….,n j
Dimana p = banyaknya peubah prediktor dan Suku R2j adalah koefisien determinasi, dimana variabel prediktor yang dipilih digunakan sebagai respon dan variabel prediktor lainnya digunakan sebagai variabel prediktor. Sebuah VIF yang lebih besar dari 10 dianggap tidak memuaskan, mengindikasikan bahwa variabel prediktor tersebut seharusnya dibuang (Suci, 2014). 2.3 Principal Component Analysis (PCA) Montgomery dan Hines (1990) menjelaskan bahwa dampak multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel prediktor yang bersangkutan. Dalam banyak hal masalah Multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan padahal jika masingmasing variabel prediktor diregresikan secara terpisah dengan variabel respon (simple regression) uji T menunjukkan hasil yang signifikan. Hal tersebutlah yang sering kali membuat pusing para peneliti karena hasil analisis yang dilakukan pada regresi berganda dan regresi sederhana tidaklah sejalan atau bahkan sangat bertentangan. Akan tetapi, pada prakteknya prosedur penanggulangan yang telah disebutkan di atas sangat tergantung sekali pada kondisi penelitian, misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis antara variabel prediktor yang saling berkolinear, prosedur mengeluarkan variabel prediktor yang berkolinear seringkali membuat banyak peneliti keberatan karena prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainya seperti menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan data baru seringkali hanya memberikan efek 4
penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk meminimumkan masalah multikolinearitas tanpa harus mengeluarkan variabel prediktor yang terlibat hubungan kolinear, yaitu dengan metode Principal Component Analysis (PCA) yang ada dalam analisis faktor. Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel prediktor melalui transformasi variabel prediktor asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi variabel prediktor baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel respon (Y) dengan menggunakan analisis regresi. Keuntungan penggunaan Principal Component Analysis (PCA) dibandingkan metode lain : 1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. 2. Dapat digunakan untuk segala kondisi data / penelitian. 3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal. 4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat dibandingkan dengan pengunaan metode lain (Soemartini, 2008) Prinsip utama dari PCA atau biasa juga disebut dengan regresi komponen utama ialah skor komponen utama yang diregresikan dengan peubah respon atau dengan kata lain regresi komponen utama merupakan analisis regredi dari peubah respon terhadap komponen-komponen utama yang tidak saling berkorelasi. Dengan demikian apabila W1, W2,….., Wm dinyatakan sebagai komponen utama yang dilibatkan dalam analisis regresi, serta Y sebagai peubah respon, maka model regresi komponen utama dapat dirumuskan sebagai: Y = α0 + α1W1+ α2W2+……+ αmWm+ ε (2) Dimana:
5
Wj = Peubah prediktor komponen utama yang merupakan kombinasi linear dari semua peubah baku Z (j=1,2,…,m), α0 = konstanta, αj = koefisien regresi (j=1,2,…,m), ε = faktor pengganggu, m = banyaknya komponen utama, m ≤ p. Setiap komponen utama dalam persamaan (2) memiliki hubungan dengan semua peubah baku Z yang merupakan kombinasi linear dari semua peubah baku Z. Hubungan itu dinyatakan sebagai: W1 = α11Z1+ α21Z2+….+ αp1Zp W2 = α12Z1+ α22Z2+….+ αp2Zp (3) ………………………………………………
Wm = α1mZ1+ α2mZ2+….+ αpmZp Dengan memanfaatkan hubungan antara komponen utama W1, W2,…Wm dengan peubah baku Z1, Z2,…Zp pada persamaan (2), apabila disubstitusikan ke dalam persamaan (3) dan diselesaikan secara aljabar maka akan diperoleh persaman regresi dalam bentuk baku Z yaitu: Y = c0 + c1Z1+ c2Z2+……+ cpZp (4) Dimana: c0 = α0, c1 = α0 a11+ α2 a12+…..+ αm a1m c2 = α1 a21+ α2 a22+…..+ αm a2m …………………………………………………………
cp
= α1 ap1+ α2 ap2+…..+ αmapm
(5)
Persamaan (5) menunjukkan adanya hubungan antara koefisien regresi dari peubah asli (peubah baku Z) dan koefisien pembobot dari setiap komponen utama. Pendugaan parameter persamaan struktural yang asli (koefisien regresi c) dapat dilakukan berdasarkan koefisien regresi komponen utama (α). Dengan demikian apabila nilai dugaan bagi parameter model regresi komponen utama (α) telah diketahui maka secara otomotis nilai dugaan bagi parameter model struktural yang asli (c) dapat ditentukan (Gaspersz, 1995). Regresi komponen utama dalam bentuk matrik: Y = XVVT𝛽 + ε = Wδ + ε Penduga parameter regresi komponen utama (δ)
(6)
6
𝛅 = (WTW)-1 WTY (7) Dimana: Y = vektor peubah respon (nx1), X = matrik peubah prediktor (nx(p+1)), 𝛽 = vektor parameter regresi ((p+1)x1), ε = vektor galat (nx1), V = matrik (pxp) yang berisi vektor eigen yang telah dinormalisir dari matrik korelasi XTX yang bersesuaian dengan nilai eigen λ1, λ2,….,λp. W = (W1, W2,…..,WP) = ZV = matrik komponen utama dari Z(Zij = (𝑋 𝑖𝑗 − 𝑋 𝑗 ) 𝑉𝑎𝑟 (𝑋 𝑗 )
(Suci, 2014)
7
BAB III METODOLOGI
8
3.1 Mendeteksi Multikolinearitas Menggunakan Software Minitab Langkah-langkah dalam mendeteksi adanya nilai multikolinearitas yaitu sebagai berikut: 1. Membuka software Minitab dengan cara mengklik dua kali shortcut Minitab pada Desktop. Seperti gambar berikut:
2. Selanjutnya akan muncul tampilan awal software Minitab seperti gambar dibawah ini:
3. Masukan data yang ingin di uji multikolinearitasnya pada worksheet seperti terlihat pada gambar berikut:
4. Klik stat => Regression => regression, sehingga akan muncul tampilan pada gambar berikut: 9
5. Masukan Y pada kolom response dan masukan X1, X2, X3 dan X4 pada kolom predictors. Seperti terlihat pada gambar berikut ini:
6. Klik options dan centang Variance Inflations Factors seperti terlihat pada gambar berikut:
7. Klik Ok, kemudian klik lagi Ok maka akan Muncul Outputnya. 3.2 Mengatasi Multikolinearitas dengan PCA Menggunakan Minitab Langkah-langkah dalam mengatasi adanya multikolinearitas dapat dilakukan sebagai berikut: 1. Melakukan standarisasi nilai peubah prediktor. 2. Sediakan tabel pada worksheet untuk Z0, Z1, Z2, Z3 dan Z4. Untuk nilai Z0 isikan dengan angka 1. Seperti terlihat pada gambar berikut: 10
3. Klik calc => standardize. Sehingga akan tampil gambar berikut:
4. Pada input column masukan X1, X2, X3, dan X4 dan pada store results masukan Z1, Z2, Z3 dan Z4. Seperti gambar berikut:
5. Klik ok maka akan muncul data yang sudah distandarisasi seperti pada gambar berikut:
6. Selanjutnya membentuk mencari regresi komponen utama. Sediakan kolom W1, W2, W3 dan W4 pada worksheet. Klik stat => multivariate => principal components analysis. Sehingga muncul gambar berikut: 11
7. Pada kolom variables masukan Z1, Z2, Z3, dan Z4 dan Type of matrix pilih correlation. Seperti gambar berikut:
8. Klik storage, pada kolom scores masukan W1, W2, W3 dan W4. Seperti gambar berikut:
9. Klik ok => ok. Maka akan muncul tampilan pada worksheet sebagai berikut:
12
10. Tampilan pada session sebagai berikut:
11. Nilai cumulative dari W1 dan W2 sampai > 75% maka bisa mewakili data yang lain. Sehingga regresikan W1 dan W2 dengan Y. langkahnya klik Stat – Regressions – Regression Sehingga muncul berikut:
Pada response masukan Y dan pada predictors masukan W1 dan W2. Seperti gambar berikut:
Klik ok dan akan terlihat tampilan regresinya pada session sebagai berikut:
13
12. Substitusikan nilai W1 dan W2 pada persamaan regresi yang baru. Sehingga akan dihasilkan persamaan regresi PCA. 13. Mencari mean dan variance. Klik stat => basic statistics => store descriptive statistics. Sehingga muncul gambar berikut:
Pada kolom variables masukan X1, X2, X3 dan X4. Seperti gambar berikut:
Klik statistics centang mean dan variance seperti gambar berikut:
Lalu klik ok. Maka pada worksheet maka akan muncul tampilan berikut:
14
14. Selanjutnya mencari nilai b0, b1, b2 dan b4. Siapin dulu tempat untuk b0, b1, b2 dan b4 pada worksheet. Klik calc => calculator maka muncul gambar berikut:
Untuk mencari bo maka pada store result in variable masukan b0 pada expression masukan perhitungan sesuai dengan rumus regresi ridge yaitu nilai b0 PCA-(b1 PCA*mean1/var1)-(b2 PCA*mean2/var2)-(b3 PCA*mean3/var3)-(b4 PCA*mean4/var4). Untuk b1 maka pada store result in variable masukan b1 dan pada expresision perhitungannya b1 PCA/var1. Untuk b2 maka pada store result in variable masukan b2 dan pada expresision perhitungannya b2 PCA/var2. Untuk b3 maka pada store result in variable masukan b3 dan pada expresision perhitungannya b3 PCA/var3. Untuk b4 maka pada store result in variable masukan b4 dan pada expresision perhitungannya b4 PCA/var4. Sehingga pada worksheet akan muncul nilai b0, b1, b2. b3 dan b4.
15
16
BAB IV HASIL DAN PEMBAHASAN 4.1 Permasalahan Diketahui data poros dalam semen yang diakibatkan oleh penambahan 4 jenis aditif X1, X2, X3, X4. Hasil pengamatan sebagai berikut dengan Y merupakan panas (kalor) semen : Y X1 X2 X3 X4 78.5 7 26 6 60 74.3 1 29 15 52 104.3 11 56 8 20 87.6 11 31 8 47 95.9 7 52 6 33 109.2 11 55 9 22 102.7 3 71 17 6 72.5 1 31 22 44 93.1 2 54 18 22 115.9 21 47 4 26 83.8 1 40 23 34 113.3 11 66 9 12 109.4 10 68 8 12 4.2 Penyelesaian a. Pengujian Hipotesis Multikolinearitas Pengujian hipotesis multikolinearitas berguna untuk mengetahui apakah data yang diuji mengandung multikolinearitas atau tidak. Hipotesis H0 : prediktor saling bebas H1 : Prediktor tidak saling bebas Langkah-langkah pengujian sesuai pada metodologi dalam bab 3. Sehingga didapatkan output Minitab seperti terlihat pada gambar berikut:
17
Dari output minitab terlihat bahwa nilai VIF untuk semua prediktor yaitu > 10 sehingga mengakibatkan tolak H0 yang berarti terdapat multikolinearitas pada variabel-variabel prediktornya. Jadi dapat disimpulkan bahwa sudah cukup bukti untuk mengatakan bahwa terdapat hubungan atau korelasi antara keempat zat aditif yang ditambahkan pada poros semen. Maka dalam hal ini variabelvariabel prediktor memerlukan penanganan yaitu menggunakan PCA. b. Penanganan Data Multikolinearitas dengan PCA Dalam menggunakan PCA maka data yang kita punya harus dilakukan standarisasi untuk mengurangi nilai korelasinya dan menyamakan satuan dari variabel-variabel prediktornya. Untuk langkah-langkahnya seperti dijelaskan pada metodologi pada bab 3. Dari langkah-langkah tersebut maka didapatkan model regresi komponen W1 dan W2 yaitu yaitu: 𝑌 = 95.4 + 9.88W1 - 0.125W2. Sedangkan model regresi baru setelah dilakukan substitusi ke nilai W1 dan W2 sebelumnya yaitu: 𝑌 = 95.4 + 4.64338 Z1+ 5.50182Z2 – 3.84347Z3 – 5.34574Z4. Dimana: W1 = 0.476Z1 +0.564Z2 -0.394Z3 -0.548Z4 W2 = 0.509Z1 -0.414Z2 -0.605Z3 0.451Z4 Selanjutnya mencari b0,..b4 untuk model regresi yang yang dikembalikan pada data awal yaitu secara berturut-turut:
18
Sehingga didapatkan nilainya adalah:
Maka didapatkanlah model regresi yang baik untuk peramalan yaitu: 𝑌 = 94.9796 + 0.134192 X1+ 0.022721X2 – 0.0936847X3 – 0.019080X4 19
Sehingga dapat disimpulkan bahwa model yang baru ini baik digunakan untuk peramalan. Interpretasi : Jika zat aditif 1 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.134192 kalor, dengan syarat variabel lain dianggap tetap atau konstan. Jika zat aditif 2 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.022721 kalor, dengan syarat variabel lain dianggap tetap atau konstan. Jika zat aditif 3 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.093684 kalor, dengan syarat variabel lain dianggap tetap atau konstan. Jika zat aditif 4 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.019080 kalor, dengan syarat variabel lain dianggap tetap atau konstan.
20
BAB V PENUTUP 5.1 Kesimpulan Untuk mendapatkan suatu model regresi yang baik untuk melakukan peramalan atau pendugaan maka harus dilakukan pengujian asumsi. Salahsatu asumsi yang harus dipenuhi yaitu asumsi non multikolinearitas. Untuk mendeteksi multikolinearitas bisa dilakukan melalui pengujian hipotesis Variance inflation factors (VIF). Jika VIF > 10 maka terdapat multikolinearitas pada data tersebut. Oleh karena data mengandung multikolinearitas maka harus dilakukan penanganan. Salah-satu caranya yaitu menggunakan Principal Component Analysis (PCA). Keuntungan penggunaan Principal Component Analysis (PCA) dibandingkan metode lain : 1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. 2. Dapat digunakan untuk segala kondisi data / penelitian. 3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal. 4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat dibandingkan dengan pengunaan metode lain.
Dari permasalahan dalam tulisan ini didapatkan model regresi baru yang baik dalam peramalan atau pendugaan yaitu: 𝑌 = 94.9796 + 0.134192 X1+ 0.022721X2 – 0.0936847X3 – 0.019080X4 Dengan interpretasi jika zat aditif 1 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.134192 kalor. Jika zat aditif 2 meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat sebesar 0.022721 kalor. Jika zat aditif 3 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.0936847 kalor. Jika zat aditif 4 meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar 0.019080 kalor. Dengan syarat masing-masing variabel lain konstan atau tetap.
21
5.2 Saran Semakin banyaknya metode yang digunakan dalam penanganan masalah multikolinearitas membuat pekerjaan statistisi menjadi lebih mudah. Namun, di balik semua itu tersirat juga kebingungan mengenai perbedaan-perbedaan hasil dari beberapa metode dan pengerjaan dari metode yang cukup ruwet. Sehingga statistisi bingung memilih metode mana yang paling baik. Diharapkan dengan kemajuan teknologi yang cukup cepat memungkinkan adanya cmetode-metode baru yang lebih praktis dalam penanganan multikolinearitas.
22
DAFTAR PUSTAKA Douglas A, lind dkk. 2008. Teknik-teknik Statistika dalam Bisnis dan Ekonomi Menggunakan Kelompok Data Global. http://books.google.co.id/books?id=3vQBfpNncpsC&pg=PA144& dq=FAKTOR+VARIANS+INFLASI&hl=en&sa=X&ei=VJ8vU7T HM8GHrgeJt4FI&redir_esc=y#v=onepage&q&f=false. Diakses 24 maret 2014. Soemartini. 2008. Penyelesaian Multikolinearitas Melalui Metode Ridge Regression. http://pustaka.unpad.ac.idwp contentuploads200905penyelesaian_multikolinearitas.pdf. Diakses 22 maret 2014. Anonim. 2012. Regresi Linier Berganda Dua Variabel Bebas. http://www.fp.unud.ac.id/ind/wpcontent/uploads/mk_ps_agribisnis/ekonomitrika/3_.%20%20Analis is%20Regresi%20%20Linier%20Berganda%20Dua%20Peubah.pd f. Diakses 2 April 2014. Soemartini. 2008. Principal Component Analysis (PCA) sebagai Salah Satu Metode untuk Mengatasi Masalah Multikolinearitas. http://elmurobbie.files.wordpress.com/2009/06/principalcomponent-analysis-pca2.pdf. Diakses 2 april 2014. Astutik, Suci. 2014. Modul Praktikum Analisis Regresi Lanjutan. Malang: FMIPA-UB.
23
24
LAMPIRAN-LAMPIRAN Lampiran 1. Output Uji VIF Pada Minitab
25
Lampiran 2. Tampilan Hasil Uji Multikolinearitas Menggunakan Minitab
26
27