BAB I PENDAHULUAN
1.1
Latar Belakang dan Permasalahan Analisis regresi adalah analisis yang dilakukan terhadap dua jenis variabel
yaitu variabel independen (prediktor) dan variabel dependen (respon). Analisis regresi dilakukan untuk mengetahui ada tidaknya pengaruh variabel independen terhadap variabel dependen sehingga variabel dependen dapat ditaksir atau diramalkan berdasarkan variabel independen. Analisis regresi linear merupakan analisis regresi dengan hubungan antara variabel
independen
dan
variabel
dependen adalah linear. Berdasarkan jumlah variabel independen, analisis regresi linear dibedakan menjadi dua yaitu analisis regresi linear sederhana dan regresi linear ganda. Dengan regresi linear sederhana hanya memiliki satu variabel independen dan regresi linear ganda memiliki lebih dari
satu
variabel
independen. Saat ini, analisis regresi yang lebih sering digunakan adalah analisis regresi linear ganda. Dapat dilihat dari berbagai kejadian yang terjadi dalam kehidupan sehari-hari yaitu suatu peristiwa dapat disebabkan oleh berbagai faktor yang mempengaruhinya. Contohnya, harga produk hasil olahan pabrik dipengaruhi oleh harga impor pasaran, harga impor komoditas, dan harga bahan pokok. Istilah regresi pertama kali dikemukakan oleh seorang antropolog dan ahli meteorology Perancis bernama Francis Galton, dalam artikelnya Family Likeliness in Stature. Namun ada pula yang menyatakan istilah regresi muncul pada pidato Francis Galton di depan Section H of The British Association di Aberdeen pada tahun 1855 dan dimuat dalam Regression toward Mediocrity in Hereditary Stature (Draper and Smith, 1922). Awal abad XIX, metode kuadrat terkecil (Least Square
Method) dipopulerkan oleh Carl Friederich Gauss yang kemudian
menjadi dasar analisis regresi klasik. Metode kuadrat terkecil adalah salah satu metode penaksiran parameter untuk menduga koefisien regresi. Serangkaian studi yang dilakukan para statistisi di tahun 1960-an telah menunjukkan bahwa dalam
banyak kasus, regresi dengan menggunakan teknik kuadrat terkecil (Ordinary Least Square) seringkali memberikan hasil yang kurang tepat. Tidak jarang pula memberikan kondisi dimana asumsi-asumsi pada regresi klasik tidak terpenuhi. Asumsi regresi klasik yang harus dipenuhi diantaranya adalah sebagai berikut : 1. Mean dari error adalah nol 2. Error memiliki varian konstan dengan kata lain bersifat homoskedastisitas atau tidak ada heteroskedastisitas 3. Error tidak saling berkorelasi atau tidak ada autokorelasi 4. Tidak terjadi multikolinearitas Salah satu penyebab hasil analisis regresi menggunakan metode kuadrat terkecil kurang valid adalah karena adanya asumsi yang tidak terpenuhi, dalam hal ini tidak adanya multikolinearitas dan tidak adanya pencilan pada data yang dianalisis. Untuk menangani masalah multikolinearitas ini dapat dilakukan dengan berbagai cara diantaranya mengeluarkan beberapa variabel independen dengan metode regresi step-wise, metode best subset, metode backward elimination, analisis komponen utama (PCA), dan regresi ridge. Sementara untuk pencilan, dapat ditangani dengan mengeluarkan pencilan dari data, dengan estimasi parameter menggunakan robust yang baik seperti M-estimator, generalized M dan MM-estimator. Semua cara-cara yang disebutkan di atas dapat bekerja dengan baik jika terjadi multikolinearitas saja atau jika terdapat pencilan saja dalam data, tetapi tidak berfungsi dengan baik ketika multikolinearitas dan pencilan terjadi bersamaan pada data yang dianalisis. Dalam tugas akhir ini, akan dibahas sebuah metode untuk menangani terjadinya multikolinearitas dan pencilan secara bersamaan pada data yaitu dengan menggunakan Jackknifed Ridge M-estimator (JRM).
1.2
Pembatasan Masalah
Dengan berdasar pada latar belakang dan kajian-kajian pendukung, penulis merumuskan bahwa penyimpangan klasik yang akan dibahas adalah terbatas pada permasalahan multikolinearitas dan pencilan pada data dengan anggapan semua asumsi klasik yang lain terpenuhi. Penelitian ini difokuskan pada cara penanganan multikolinearitas dan pencilan yang terjadi bersamaan pada data dengan menggunakan generalized dari kriteria Sp pada regresi robust dan metode estimasi yang digunakan dalam penelitian ini terbatas pada metode Jackknifed Ridge Mestimator dengan menganggap asumsi klasik yang lain terpenuhi.
1.3
Tujuan dan Manfaat Penelitian Tujuan dari penelitian ini adalah : 1. Sebagai salah satu syarat untuk mendapatkan gelar S1 pada Program Studi Statistika, Jurusan Matematika, Fakultas MIPA, Universitas Gadjah Mada. 2. Memperkenalkan salah satu metode estimasi dalam regresi ridge yaitu Jackknifed
Ridge
M-estimator
dalam
mengatasi
masalah
multikolinearitas dan pencilan yang terjadi secara bersamaan pada data. 3. Membandingkan hasil perhitungan estimator Jackknifed Ridge M dengan hasil perhitungan dari estimator sebelumnya yaitu estimator M dan estimator ORR (Ordinary Ridge Regression) berdasarkan nilai statistik dari masing-masing estimator. Manfaat dari penelitian ini adalah untuk : 1. Mengaplikasikan ilmu statistika dalam metode regresi ridge dan regresi robust 2. Menambah ilmu pengetahuan bagi para pembaca 3. Agar untuk selanjutnya dapat dilakukan pengembangan metode dalam kombinasi antara regresi ridge dan regresi robust untuk penanganan kasus multikolinearitas dan pencilan yang terjadi bersamaan pada data. 1.4
Tinjauan Pustaka
Analisis regresi sudah cukup lama dikenal luas. Gujarati (2003) dalam bukunya Basic Econometrics menyatakan bahwa terdapat beberapa asumsi yang
harus
dipenuhi
pada
analisis regresi dengan menggunakan metode
Ordinary Least Square antara lain: nilai ekspektasi dari residual adalah nol, homoskedastik, tidak adanya korelasi antar residual, dan tidak adanya multikolinearitas. Dalam buku itu juga dikatakan bahwa estimator hasil dari metode estimasi dengan menggunakan OLS estimator yang BLUE (Best Linear Unbiased Estimator). Dalam analisis regresi linear ganda masalah yang sering terjadi yaitu adanya multikolinearitas dan pencilan. Untuk permasalahan multikolinearitas dan pencilan ini kemudian muncul beberapa penelitian tentang analisis regresi untuk data yang mengandung multikolinearitas dan pencilan. Penelitian tersebut salah satunya adalah “One-Step Jackknife for M-estimator Computed Using Newton’s Method” (Jun Shao, 1992) yang mengusulkan suatu metode Jackknife yang tidak memerlukan iterasi sehingga lebih menyederhanakan komputasinya. Sifat asimtotik dari One-Step Jackknife diperoleh di bawah beberapa kondisi yang beraturan pada kasus i.i.d dan untuk kasus linear atau tidak linear. Kashid dan Kulkarni (2002) dalam jurnalnya “More general criterion for subset selection in multiple linear regression” mengusulkan kriteria umum yang dinamakan kriteria Sp untuk seleksi subset pada model regresi linear ganda. Kriteria Sp diusulkan untuk mengatasi kelemahan yang terdapat pada seleksi subset menggunakan estimasi Least Square. Kelemahan tersebut adalah ketika data mengandung sebuah observasi yang berpengaruh atau distribusi dari variabel mengandung error menyimpang dari normalitas maka estimator Least Square bekerja buruk dan cenderung memilih model subset yang salah. Kemudian Naomi (2015) dalam skripsinya yang berjudul “Jackknifed Ridge Regression Estimator untuk model linear dengan Autokorelasi pada Error” membahas mengenai penduga regresi ridge dengan menggunakan Jacckinfed Ridge Regression estimator pada model linear dengan autokorelasi pada error yang merupakan perluasan dari metode estimasi parameter pada regresi ridge yang dikemukakan oleh Hoerl an Kennard.
Jadhav dan Kashid (2011) dalam jurnalnya “A Jackknifed Ridge Mestimator
for
Regression
mengusulkan estimator
Model
with
Multicollinearity
and
Pencilan”
Jackknifed Ridge Regression (JRR) dan estimator M
untuk mengatasi masalah multikolinearitas dan pencilan. Estimator JRR diperoleh dari penyusutan metode Ordinary Least Square (OLS). Karena metode OLS sensitive terhadap pencilan dan estimator JRR juga sangat sensitif terhadap pencilan maka dari itu untuk mengatasi kombinasi masalah multikolinearitas dan pencilan Jadhav dan Kashid (2011) mengusulkan estimator baru yang dinamakan Jackknifed Ridge M-estimator. Estimator ini diperoleh dari penyusutan Mestimator bukan estimator OLS. Kulkarni, dkk (2014) dalam jurnalnya “Subset selection in multiple linear regression in the presence of pencilan and multicollinearity” menjelaskan tentang penggunaan estimator M dan selanjutnya menerapkan metode jackknifing dalam regresi ridge yang juga penulis angkat menjadi tema dalam skripsi ini. Dimana dilakukan pendugaan parameter menggunakan estimator M pada model regresi linear yang selanjutnya dilakukan regresi ridge dengan menggunakan estimator Jackknifed Ridge M-estimator untuk mengatasi adanya multikolinearitas dan pencilan pada data. Selanjutnya Kulkarni,dkk (2014) membangun sebuah persamaan linear dari statistik versi generalisasi dari statistik Sp dengan statistik Cp, Rp, dan Sp yang sudah ada.
1.5
Metodologi Penelitian Metode peneletian yang digunakan dalam penulisan skripsi ini adalah studi
literatur berdasarkan sumber-sumber resmi seperti buku-buku, jurnal, dan artikelartikel yang
mendukung
tema
penelitian
yang
diperoleh
baik
dari
perpustakaan maupun situs internet. Penulisan skripsi ini juga ditunjang dengan beberapa perangkat lunak dalam analisis data diantaranya software R, minitab dan SPSS.
1.6
Sistematika Penulisan Penulisan skripsi ini disusun dengan sistematika penulisan sebagai berikut:
BAB I
PENDAHULUAN Bab ini berisikan latar belakang dan permasalahan, pembatasan masalah, tujuan dan manfaat penelitian, tinjauan pustaka, metode penulisan,dan sistematika penulisan.
BAB II
DASAR TEORI Bab ini membahas beberapa teori yang berkaitan dengan pembahasan pokok permasalahan seperti variabel random, ekspektasi, variansi, kovariansi, korelasi, matriks, transpose matriks, invers matriks, deteminan matriks, trace matriks, matriks idempotent simaetris, bentuk kuarat matriks, matriks identitas, , nilai eigen dan vektor eigen, metode maksimum likelihood, regresi linear, estimasi kuadrat terkecil, multikolinearitas serta pencilan
BAB III
SUBSET SELECTION PADA REGRESI LINEAR GANDA DENGAN METODE JACKKNIFED RIDGE M-ESTIMATOR Bab ini membahas tentang konsep penggunaan metode jackknife dalam regresi ridge untuk menangani masalah multikolinearitas dan mengkombinasikannya dengan estimator M untuk menangani adanya pencilan.
BAB IV
STUDI KASUS Bab ini berisi tentang aplikasi transformasi dan metode Jackknifed Ridge M Estimator dalam mengestimasi koefisien regresi yang bias pada data.
BAB V
PENUTUP Bab ini berisi kesimpulan yang diperoleh dari pembahasan pada bab sebelumnya dan saran untuk pengembangan dalam penelitian selanjutnya.