BAB I PENDAHULUAN
1.1
Latar Belakang Masalah Analisis regresi merupakan sebuah alat statistik yang memberi penjelasan
tentang pola hubungan (model) antara dua peubah atau lebih (Draper dan Smith, 1992). Dalam analisis regresi dikenal dua peubah, yaitu: peubah bebas (X) dan peubah tidak bebas (Y). Peubah bebas merupakan peubah yang tidak dipengaruhi oleh peubah lainnya, sedangkan peubah tak bebas adalah peubah yang keberadaannya dipengaruhi oleh peubah bebas. Selain melihat pola hubungan antar peubah, analisis regresi juga bertujuan untuk melihat kontribusi relatif dari masing-masing peubah bebas terhadap peubah tak bebas dan melakukan prediksi terhadap nilai peubah tak bebas dari peubah bebas yang diketahui. Analisis regresi linear yang melibatkan hanya satu peubah bebas disebut analisis regresi linear sederhana. Model yang menyatakan hubungan linear antar peubah dalam analisis regresi linear sederhana dapat dituliskan sebagai berikut: ππ = π½0 + π½1 ππ + ππ
(1.1)
Sedangkan analisis regresi linear yang melibatkan lebih dari satu peubah bebas dinamakan analisis regresi linear berganda. Modelnya dapat dinyatakan sebagai berikut: ππ = π½0 + π½1 π1π + π½2 π2π + β― + π½π πππ + ππ
(1.2)
Dalam pembentukan model regresi perlu dilakukan pendugaan terhadap parameter atau yang sering disebut dengan koefisien regresi (π½). Metode kuadrat
1
2
terkecil merupakan metode yang biasa digunakan untuk menduga parameter pada analisis regresi linear. Metode kuadrat terkecil adalah suatu metode yang digunakan untuk menduga parameter suatu persamaan regresi atau koefisien regresi dengan jalan meminimumkan jumlah kuadrat galatnya. Persamaan normal kuadrat terkecil adalah: (π β² π)π½Μ = πβ²π
(1.3)
Sehingga penduga parameter pada regresi dengan menggunakan metode kuadrat terkecil dapat dirumuskan sebagai berikut : π½Μ = (πβ²π)β1 πβ²π
(1.4)
Metode kuadrat terkecil dapat menghasilkan penduga terbaik yaitu tak bias dan mempunyai ragam minimum apabila semua asumsi-asumsi dalam analisis regresi linear terpenuhi. Asumsi tersebut antara lain terdapat hubungan linear antara peubah tak bebas Y dengan peubah bebas X, galat (π) menyebar normal dengan nilai tengah 0 dan ragam konstan π 2 , dan tidak terdapat korelasi antar galat (Montgomery, 1992). Selain itu pada analisis regresi linear berganda terdapat asumsi yang harus dipenuhi yaitu tidak terjadi multikolinearitas. Multikolinearitas merupakan situasi dimana terjadi korelasi yang tinggi antar peubah-peubah bebas. Apabila pada analisis regresi linear berganda terjadi multikolinearitas, determinan dari matriks πβπ akan mendekati 0 sehingga akan menyebabkan matriks tersebut hampir singular yang mengakibatkan nilai dari penduga paremeternya tidak stabil. Peubah bebas (X) secara simultan berpengaruh terhadap peubah tak bebas (Y) tetapi secara individu tidak berpengaruh secara signifikan.
3
Terdapat beberapa metode yang dapat mengatasi masalah multikolinearitas, salah satu yang sering dipergunakan yaitu regresi stepwise. Regresi stepwise mengatasi multikolinearitas dengan mereduksi peubah-peubah yang berkorelasi. Akan tetapi dengan adanya pereduksian terhadap peubah, akan timbul anggapan bahwa peubah yang direduksi tidak berpengaruh secara signifikan, padahal pengaruhnya sudah diwakili oleh peubah lain. Selain regresi stepwise, terdapat analisis komponen utama. Pada analisis komponen utama, multikolinearitas diatasi dengan membuat peubah-peubah baru yang saling tegak lurus (orthogonal) yang dapat mewakili sifat-sifat dari peubah lama. Peubah-peubah baru tersebut dibuat saling tegak lurus (orthogonal) agar korelasi antar peubahnya menjadi nol, sehingga masalah multikolinearitas dapat teratasi. Oleh karena peubah-peubah baru merupakan kombinasi dari peubah-peubah lama, peubah-peubah baru tersebut belum tentu bisa dinamai sehingga menyulitkan dalam penginterpretasian model. Salah satu cara untuk mengatasi multikolinearitas, tanpa mereduksi peubah bebas ataupun membuat peubah baru adalah regresi ridge. Regresi ridge pertama kali dikemukakan oleh Hoerl dan Kennard (1970). Pada dasarnya pendugaan parameter pada regresi ridge sama dengan metode kuadrat terkecil. Perbedaannya adalah pada pendugaan parameter regresi ridge, ditambahkan konstanta bias (k) positif yang kecil ke dalam persamaan normal kuadrat terkecil yang bernilai lebih besar dari 0 (k>0). Pada penelitian sebelumnya oleh Wulandari (2011) telah dilakukan analisis dengan menggunakan Ordinary Ridge Regression (ORR) dimana ditambahkan konstanta bias yang sama (π1 = π2 = β― = ππ = π) pada diagonal utama matriks
4
XβX dalam persamaan kuadrat terkecil. Pendugaan dengan metode ini memberikan hasil yang cukup memuaskan dalam mengatasi multikolinearitas, tetapi penggunaan satu konstanta bias (k) masih perlu dipertanyakan. Penambahan satu konstanta bias (k) untuk korelasi yang berbeda antar peubah bebas dianggap kurang efektif dalam pedugaan parameter regresi. Oleh karena itu, pada penelitian ini penulis akan menerapkan metode Generalized Ridge Regression (GRR) dalam menganalisis data yang mengalami multikolinearitas. Perbedaan antara Generalized Ridge Regression (GRR) dan Ordinary Ridge Regression (ORR) terletak pada konstanta biasnya (k). Pada Generalized Ridge Regression, konstanta bias yang ditambahkan berbeda untuk setiap peubah bebas (π = π1 , π2 , β¦ , ππ ) setelah sebelumnya dilakukan proses orthogonalisasi terhadap peubah bebas. Hasil yang diharapkan adalah masalah multikolinearitas dapat teratasi dengan baik dan dihasilkan model dengan MSE lebih kecil tetapi menghasilkan koefisien determinasi yang lebih besar.
1.2 Rumusan Masalah Berdasarkan latar belakang yang telah dikemukakan, maka rumusan masalah pada penelitian ini adalah sebagai berikut: 1.
Bagaimana hasil pendugaan koefisien regresi pada data yang mengalami masalah
multikolinearitas
dengan
menggunakan
Generalized
Ridge
Regression (GRR)? 2.
Apakah pendugaan koefisien regresi dengan menggunakan Generalized Ridge Regression (GRR) lebih baik daripada Ordinary Ridge Regression (ORR) jika dilihat dari MSE dan nilai koefisien determinasi ganda (R2)?
5
1.3 Batasan Masalah Mengacu pada rumusan masalah maka ruang lingkup penelitian ini dibatasi pada kasus dimana data yang dianalisis dengan analisis regresi linear berganda mengandung multikolinearitas dalam hal ini data mengenai kebutuhan akan tenaga kerja pada 17 Rumah Sakit Angkatan Laut U.S dari tabel 13.3 dalam buku Bowerman dan OβConnell (1997) yang telah dipergunakan pada penelitian Wulandari (2011).
1.4 Tujuan Penelitian Penelitian ini bertujuan untuk: 1.
Mengetahui hasil pendugaan koefisien regresi pada data yang mengalami masalah
multikolinearitas
dengan
menggunakan
Generalized
Ridge
Regression (GRR). 2.
Mengetahui perbedaan pendugaan koefisien regresi dengan menggunakan Generalized Ridge Regression (GRR) dan Ordinary Ridge Regression (ORR) jika dilihat dari MSE dan nilai koefisien determinasi ganda (R2).
1.5 Manfaat Penelitian Manfaat penelitian ini adalah untuk menambah wawasan keilmuan dalam menduga koefisien regresi pada kasus multikolinearitas dengan menggunakan pengembangan dari metode Ridge Regression yaitu Generalized Ridge Regression (GRR).