PENANGANAN HETEROSKEDASTISITAS PADA REGRESI BERGANDA MELALUI PENDEKATAN WEIGHTED LEAST SQUARE
SKRIPSI
Untuk memenuhi sebagian persyaratan mencapai derajat sarjana (S - 1)
DESI ASTUTY F1A1 12 087
PROGRAM STUDI MATEMATIKA JURUSAN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS HALU OLEO KENDARI 2016
i
ii
KATA PENGANTAR
Segala puji bagi Allah S.W.T atas segala rahmat, taufik, karunia dan hidayah-Nya sehingga penulis dapat menyelesaikan skripsi ini dengan judul โPENANGANAN HETEROSKEDASTISITAS PADA REGRESI LINEAR BERGANDA MELALUI PENDEKATAN WEIGHTED LEAST SQUAREโ serta salawat dan salam penulis haturkan atas Nabi Muhammad Shallallahu Alaihi Wasallam, keluarga, sahabat dan para pengikutnya. Penulis menyadari bahwa dalam penulisan skripsi ini tidak dapat terselesaikan tanpa bimbingan dan arahan dari Bapak Rasas Raya, S.Si., M.Si. selaku pembimbing I dan Ibu Agusrawati, S.Si., M.Si. selaku pembimbing II yang telah banyak meluangkan waktunya untuk membimbing dan mengarahkan penulis sejak dari perencanaan hingga terselesaikannya skripsi ini serta memberikan dorongan dan motivasi kepada penulis. Oleh karena itu penulis mengucapkan banyak terima kasih. Ucapan terima kasih juga disampaikan kepada yang tersayang Ayahanda La Kumunsi, BA dan Ibunda Wa Ipa, S.Pd yang telah membesarkan dan membimbing serta memberi dukungan dan doa yang tulus ikhlas serta kasih sayangnya kepada penulis dalam menyelesaikan studi hingga skripsi ini selesai, saudara-saudariku Kakak Erna Kumunsi, S.Pd, Kakak Asni, SE, Kakak Bripka Abdul Fajar, S.Sos dan Kakak Rachmawati, A.M.Keb beserta kakak-kakak iparku: Kakak Sri Suryaningsi, S.Gz, Kakak La Fini, A.Md dan Kakak Sugane, iii
S.Kom, serta keponakan-keponakanku: Muh. Fajri Anugrah Kumunsi, Muh. Fahmi Kumunsi, dan Aruna Saci Kanaya Fini yang tiada hentinya memberikan motivasi, dukungan, doa, dan semangat. Suatu hal yang tidak terlupakan atas dorongan dan bimbingannya, serta arahan dan bantuan kepada penulis, maka patutlah kiranya penulis menyampaikan ucapan terima kasih dan penghargaan kepada semua pihak khususnya: 1.
Rektor Universitas Halu Oleo Kendari, Bapak Prof. Dr. Ir. H. Usman Rianse, M.S.
2.
Dekan F-MIPA Universitas Halu Oleo, Bapak Dr. Muh. Zamrun F., S.Si., M.Si.
3.
Ketua Jurusan Matematika dan sekretaris jurusan F-MIPA Universitas Halu Oleo, Bapak La Gubu, S.Si., M.Si., dan Bapak Rasas Raya, S.Si., M.Si.
4.
Kepala Laboratorium Matematika F-MIPA Universitas Halu Oleo, Ibu Norma Muchtar, S.Si., M.Si.
5.
Kepala Perpustakaan F-MIPA Universitas Halu Oleo, Ibu Dra. Hj. Indrawati, M.Si.
6.
Norma Muchtar, S.Si., M.Si. selaku penasehat akademik yang telah memberikan pengarahan dan bimbingan dalam memprogramkan mata kuliah.
7.
La Gubu, S.Si., M.Si., Dr. Ruslan, M.Si. dan Irma Yahya, S.Si., M.Si. selaku dewan penguji.
8.
Bapak dan Ibu Dosen Jurusan Matematika serta seluruh staf lingkungan F-MIPA UHO, yang telah banyak memberikan bantuan, bimbingan dan pengarahan selama studi hingga penyelesaian skripsi ini.
iv
9.
Keluarga-keluargaku: Om Negara dan istri, Om Rahman Piu dan istri, Tante Lati, Sepupu Uba, Asma, Agam, Mondo dan Fitrah yang selalu memberikan dorongan dan motivasi.
10. ChinguQ yang selalu ada selama studi hingga penyelesaian skripsi ini: Nur Yassin, Ekawati Sulistia Ningsih, Eka Fitriah Maladewi, Herdiana, Hesty Yuspita dan Wiwin Narni yang tiada henti memberi semangat dan doa kepada penulis. 11. Rekan seperjuangan Matematika Angkatan 2012: Aini, Kadek Ayu, Bertin, Obil, Ela, Astri, Virda, Ila, Suri, Yuli, Rosni, S.Mat, Rianto, S.Mat, Sarfia, Sarwiati dan seluruh mahasiswa seangkatan 012 yang telah memberikan semangat kebersamaan yang tidak terlupakan selama menyelesaikan studi. 12. Barisan senior-senior dan junior-junior Matematika yang tidak dapat saya sebutkan satu persatu atas bantuan dan bimbingannya selama masa perkuliahan. 13. Guru dan rekan alumni Smandara: Pak Sahiya, Pak Herman, Amhy, Ayu, Rahmayani, Ningsih, Juliana, Dwi dan lain-lain yang tidak dapat saya sebutkan satu persatu. 14. Teman-teman KKNku: Riska, Eka, Rahma, Kak Andis, Maha, Kak Erlin, Kak Sri. Selanjutnya penulis menyadari bahwa penulisan skripsi ini masih jauh dari kesempurnaan. Sehingga dengan senang hati dan segala kerendahan hati penulis menerima segala saran yang sifatnya membangun demi penyempurnaannya.
v
Akhir kata penulis berharap semoga skripsi ini dapat bermanfaat bagi semua pihak yang membutuhkan.
Kendari,
Maret 2016
Penulis
vi
DAFTAR ISI Halaman HALAMAN JUDUL ......................................................................................
i
HALAMAN PENGESAHAN .........................................................................
ii
KATA PENGANTAR .................................................................................... iii DAFTAR ISI .................................................................................................. vii DAFTAR GAMBAR ...................................................................................... ix DAFTAR TABEL ..........................................................................................
x
DAFTAR LAMPIRAN ................................................................................... xi ABSTRAK ..................................................................................................... xii ABSTRACT ................................................................................................... xiii BAB I PENDAHULAN 1.1 1.2 1.3 1.4
Latar Belakang .................................................................................... Rumusan Masalah ............................................................................... Tujuan Penelitian ................................................................................. Manfaat Penelitian ...............................................................................
1 3 3 4
BAB II TINJAUAN PUSTAKA 2.1 2.2 2.3 2.4
Analisis Regresi..................................................................................... 5 Analisis Regresi Linear Berganda .......................................................... 5 Metode Ordinary Least Square .............................................................. 7 Heteroskedastisitas ................................................................................ 10 2.4.1 Pendeteksian Heteroskedastisitas .................................................. 11 2.4.2 Pembobotan Model Regresi .......................................................... 13 2.5 Weighted Least Square .......................................................................... 16 2.5.1 WLS untuk Regresi Linear Sederhana........................................... 16 2.5.2 WLS untuk Regresi Linear Berganda ............................................ 17
vii
BAB III METODE PENELITIAN 3.1 Waktu dan Tempat ................................................................................ 19 3.2 Jenis dan Sumber Data .......................................................................... 19 3.3 Prosedur Penelitian ................................................................................ 19
BAB IV HASIL DAN PEMBAHASAN 4.1 4.2 4.3 4.4 4.5 4.6 4.7
Metode Weighted Least Square ......................................................... Penaksiran Parameter Koefisien Regresi WLS dan Variansinya ........ Deskripsi Data .................................................................................. Pendeteksian Heteroskedastisitas ...................................................... Tindakan Perbaikan .......................................................................... Pengujian Kembali Heteroskedastisitas ............................................ Pembahasan .....................................................................................
21 25 27 30 34 40 43
BAB V PENUTUP 5.1 Kesimpulan ..................................................................................... 45 5.2 Saran ............................................................................................... 45 DAFTAR PUSTAKA .................................................................................... 45 Lampiran ....................................................................................................... 46
viii
DAFTAR GAMBAR Halaman Gambar 4.3a Plot antara Estimasi Y dengan Residual .......................................30 Gambar 4.3b Dendogram average jarak Euclidean ke-33 objek .........................31 Gambar 4.5 Plot antara Estimasi ๐๐ค dengan Residual ........................................40
ix
DAFTAR TABEL Halaman Tabel 2.4 Satuan-satuan Uji Bartlett
11
Tabel 4.4.2a Pengelompokkan Data
32
Tabel 4.4.2b Homogenitas Variansi
33
Tabel 4.5a Hasil Pengelompokkan Pengeluaran Berdasarkan
35
Lama Tinggal, Akomodasi dan Jumlah Objek Wisata Tabel 4.5b Rekapitulasi Hasil Analisis Regresi Terboboti
37
Tabel 4.6.2a Pengelompokkan Data
41
Tabel 4.6.2b Homogenitas Variansi
42
Tabel 4.7 Analisa perbandingan dengan dua uji estimasi
43
x
DAFTAR LAMPIRAN Lampiran 1.
Data Pengeluaran Wisatawan di Indonesia Tahun 2012 .......... 46
Lampiran 2.
Output OLS pada Minitab ....................................................... 47
Lampiran 3.
Output Pengelompokkan dengan Analisis Komponen Utama .. 48
Lampiran 4.
Output Pengelompokkan Data dengan metode Ward ................ 48
Lampiran 5.
Output Pengelompokkan dengan Analisis Komponen Utama pada Data yang Diboboti ......................................................... 49
Lampiran 6.
Output Pengelompokkan Data dengan metode Ward pada Data yang Diboboti .......................................................... 49
Lampiran 7
Plot Normal Residual ............................................................... 50
Lampiran 8.
Output pembobotan regresi berganda ...................................... 51
Lampiran 9
Output model baru pembobotan regresi berganda .................... 52
Lampiran 10 Uji Lavene untuk Heteroskedastisitas ....................................... 53 Lampiran 11 Uji Lavene untuk Homoskedastisitas ........................................ 54
xi
PENANGANAN HETEROSKEDASTISITAS PADA REGRESI BERGANDA MELALUI PENDEKATAN WEIGHTED LEAST SQUARE Oleh:
DESI ASTUTY F1A1 12 087
ABSTRAK Metode Weighted Least Square efektif digunakan dalam mengatasi masalah heteroskedastisitas karena melalui prosedur pembobotan pada error OLS ๐ yang menghasilkan varian error WLS ๐ menjadi homoskedastisitas. Efektifitas WLS dapat juga dilihat dari studi kasus dimana pada OLS terdapat masalah heteroskedastisitas dan pada WLS menjadi homoskedastisitas. Serta nilai ๐
2 OLS < ๐
2 WLS dan nilai ๐2 OLS > ๐ 2 WLS. Kata kunci: Heteroskedastisitas, Regresi Berganda, Weighted Least Square.
xii
THE HANDLING OF HETEROSCEDASTICITY THE MULTIPLE REGRESSION THROUGH THE WEIGHTED LEAST SQUARE APPROACH By:
DESI ASTUTY F1A1 12 087
ABSTRACT The weighted least square method is affectively used in mastering heteroscedasticity problem because of weightness procedure at error OLS ๐ that bears variance error WLS ๐ becomes homoscedasticity. The effectivity of WLS can also be seen from case research where there is heteroscedasticity in OLS and it becomes homoscedasticity in WLS. And the value ๐
2 in OLS < ๐
2 in WLS and the value ๐2 in OLS > ๐ 2 in WLS.
Key words:: Heteroscedasticity, Multiple Regression, Weighted Least Square.
xiii
BAB I PENDAHULUAN
1.1 Latar Belakang Analisis regresi merupakan suatu metode yang digunakan untuk menganalisis hubungan antar variabel. Hubungan tersebut dapat dinyatakan dalam bentuk persamaan yang menghubungkan variabel dependen dengan satu atau lebih variabel independen (Nachrowi, 2008). Salah satu cara untuk mengukur pengaruh antara lebih dari satu variabel independen (variabel bebas) terhadap variabel dependen (variabel terikat) adalah dengan analisis regresi berganda. Analisis regresi linear berganda adalah hubungan secara linear antara dua atau lebih variabel independen (๐1 , ๐2 , โฆ , ๐๐ ) dengan variabel dependen (Y). Analisis ini merupakan alat statistik yang memanfaatkan hubungan antara dua atau lebih peubah kuantitatif sehingga salah satu peubah bisa diramalkan dari peubah lainnya. Analisis ini juga digunakan untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif dan untuk memprediksi nilai variabel apabila nilai variabel independen mengalami kenaikan atau penurunan (Neter, 1997). Dalam analisis regresi linear berganda diperlukan suatu metode untuk menduga parameter agar memenuhi sifat BLUE (Best Linear Unbiased Estimator), metode yang paling sering digunakan adalah Ordinary Least Square (OLS) atau sering disebut dengan Metode Kuadrat Terkecil (MKT). Terdapat beberapa asumsi yang harus dipenuhi dalam melakukan estimasi dengan metode
1
kuadrat terkecil. Asumsi tersebuat antara lain data harus mengikuti sebaran normal, homoskedastisitas, tidak ada multikolinearitas dan tidak ada autokorelasi. Metode kuadrat terkecil akan dapat memenuhi sifat BLUE, jika memenuhi semua asumsi tersebut. Namun jika terdapat salah satu atau lebih asumsi yang tidak terpenuhi, maka hasil estimasi yang diperoleh tidak dapat memenuhi sifat BLUE. Salah satu asumsi yang harus dipenuhi dalam melakukan estimasi adalah homoskedastisitas (homoskedasticity). Homoskedastisitas berarti varian error adalah konstan. Asumsi ini menyatakan peubah respon memiliki varian yang sama sepanjang nilai peubah bebas (Uthami et.al, 2013). Namun jika varian error menunjukkan adanya variasi (varian tak sama) maka kondisi ini disebut heteroskedastisitas. Heteroskedastisitas adalah bentuk pelanggaran terhadap asumsi homoskedastisitas. Jika pada saat melakukan estimasi dengan metode kuadrat terkecil dan kemudian terjadi heteroskedastisitas, maka hasil estimasi yang diperoleh tidak lagi memenuhi sifat BLUE sehingga diperlukan metode alternatif lain dalam melakukan estimasi parameter yang dapat mengatasi adanya heteroskedastisitas. Metode Weighted Least Square (WLS) merupakan salah satu metode yang dapat menyelesaikan masalah heteroskedastisitas. Metode estimasi WLS digunakan jika efisiensi estimator dianggap lebih penting daripada sifat unbiased dan konsisten jika dalam kondisi heteroskedastisitas.WLS memiliki kemampuan untuk mempertahankan sifat efisiensi estimatornya tanpa harus kehilangan sifat tak bias dan konsistensinya (Gujarati,2003). Metode WLS sama halnya seperti metode OLS dengan meminimumkan jumlah sisaan hanya saja pada metode WLS
2
dilakukan pembobotan suatu faktor yang tepat kemudian baru menggunakan metode OLS terhadap data yang telah diboboti. Kelebihan dari metode ini adalah bisa mengatur pentingnya setiap observasi dalam menentukan solusi akhir karena pada OLS diasumsikan bahwa nilai duga parameter regresi bernilai sama untuk setiap observasi. Berdasarkan masalah diatas, maka peneliti mengambil judul penelitian, โPenanganan
Heteroskedastisitas
Pada
Regresi
Berganda
Melalui
Pendekatan Weighted Least Square (WLS)โ .
1.2 Rumusan Masalah Masalah dalam penelitian ini dirumuskan sebagai berikut: 1.
Bagaimana konsep metode Weighted Least Square (WLS) pada Regresi Berganda untuk mengatasi heteroskedastisitas?
2.
Apakah metode Weighted Least Square (WLS) efektif digunakan pada kasus data yang ada?
1.3 Tujuan Penelitian Adapun tujuan dari penelitian ini, yaitu: 1.
Untuk mengetahui teori atau konsep dari metode Weighted Least Square (WLS) pada Regresi Berganda dalam mengatasi heteroskedastisitas.
2.
Untuk mengetahui penerapan metode Weighted Least Square (WLS) pada kasus data yang ada.
3
1.4 Manfaat Penelitian Adapun manfaat penelitian ini,yaitu: 1.
Memberikan informasi kepada pembaca dalam pembuatan model regresi berganda apabila terdapat masalah heteroskedastisitas.
2.
Sebagai masukan kepada pembaca, bagaimana menggunakan metode Weighted Least Square dalam mengatasi masalah heteroskedastisitas.
4
BAB II TINJAUAN PUSTAKA 2.1 Analisis Regresi Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (variabel tidak bebas) dengan satu atau lebih variabel yang menerangkan (variabel bebas). Dalam kasus parametrik, peneliti biasanya menggunakan Metode Kuadrat Terkecil untuk menduga parameter-parameter regresi dengan sampel yang teramati dan melandaskan kesimpulan-kesimpulan yang menyangkut parameterparameter populasi pada asumsi-asumsi yang harus dipenuhi. Salah satu asumsi yang harus dipenuhi adalah kenormalan galat, yaitu bahwa galat berdistribusi normal dengan rata-rata nol dan simpangan baku tertentu. Analisis regresi terbagi menjadi 2, yakni analisis regresi sederhana dan analisis regresi berganda. Analisis regresi
sederhana
adalah
suatu metode
untuk
mengetahui
hubungan
variabel dependen dengan satu variabel independen dalam bentuk persamaan model regresi. Sedangkan analisis regresi berganda adalah suatu metode untuk mengetahui hubungan variabel dependen dengan lebih dari satu variabel independen dalam bentuk persamaan model regresi (Sembiring, 1995). 2.2 Analisis Regresi Berganda Secara umum model regresi berganda adalah sebagai berikut (Hardle, 1995): ๐๐ = ๐ฝ0 + ๐ฝ1 ๐๐1 + ๐ฝ2 ๐๐2 + โฏ + ๐ฝ0 + ๐ฝ๐ ๐๐๐ + ๐๐ ; ๐ = 1, 2, โฆ , ๐
1
5
Selain menggunakan notasi di atas, penggunaan matriks terhadap regresi linear mempunyai banyak keuntungan yaitu menyajikan bentuk yang ringkas untuk menangani model regresi yang memuat banyak variabel . Persamaan diatas merupakan penjabaran dari himpunan n persamaan simultan : ๐1 = ๐ฝ0 + ๐ฝ1 ๐11 + ๐ฝ2 ๐12 + โฏ + ๐ฝ๐ ๐1๐ + ๐1 ๐2 = ๐ฝ0 + ๐ฝ2 ๐21 + ๐ฝ2 ๐22 + โฏ + ๐ฝ๐ ๐2๐ + ๐2 โฎ
โฎ
โฎ
โฎ
โฎ
โฎ
๐๐ = ๐ฝ0 + ๐ฝ1 ๐๐1 + ๐ฝ2 ๐๐2 + โฏ + ๐ฝ๐ ๐๐๐ + ๐๐
(2)
Dalam lambang matriks menjadi 1 ๐1 1 ๐2 = โฎ โฎ ๐๐ 1 ๐ร1
๐11 ๐21 โฎ ๐๐1
๐12 ๐22 โฎ ๐๐2
โฏ โฏ โฏ
๐ ร (๐ + 1)
๐1๐ ๐2๐ โฎ ๐๐๐
๐1 ๐ฝ0 ๐2 ๐ฝ1 + โฎ โฎ ๐๐ ๐ฝ๐ ๐+1 ร1
(3)
๐ ร1
Persamaan diatas juga dapat ditulis secara sederhana, yaitu: ๐๐ = ๐๐ฝ + ๐
(4)
Keterangan: ๐๐ : vektor pengamatan variabel dependen yang berukuran ๐ ร 1 ๐ : variabel independen yang berukuran ๐ ร (๐ + 1) ๐ : banyaknya variabel ๐ = ๐ + 1 : banyaknya parameter ๐ฝ : vektor koefisien variabel independen yang berukuran (๐ + 1) ร 1 ๐ : vektor galat yang berukuran ๐ ร 1 ๐ = 1,2, โฆ , ๐ menunjukkan banyaknya pengamatan
6
2.3
Metode Ordinary Least Square Menurut Sembiring (1995) metode ordinary least square adalah prosedur
penarikan garis regresi yang memilih suatu garis regresi dan membuat jumlah kuadrat jarak vertikal dari titik-titik yang dilalui garis lurus tersebut sekecil mungkin. Metode ordinary least square adalah metode yang digunakan untuk menaksir ฮฒ pada persamaan regresi. Prinsip dasar metode ordinary least square adalah meminimumkan jumlah kuadrat error yaitu meminimumkan
๐ 2 ๐=1 ๐๐
(Suryanto,1998). Langkah langkah yang dilakukan untuk mngestimasi dengan metode kuadrat terkecil adalah: Pertama meminimumkan kuadrat galat dengan mengubah linier menjadi eksplisit terhadap galat (Tirta, 2009). ๐๐ = ๐ฝ0 + ๐ฝ1 ๐๐ + ๐๐ = ๐๐ + ๐๐
(5)
๐ adalah nilai taksiran dari ๐๐ . Persamaan (5) dapat dinyatakan sebagai: ๐๐ = ๐๐ โ ๐๐ = ๐๐ โ ๐ฝ0 + ๐ฝ1 ๐๐
(6)
Selanjutnya adalah mengkuadratkan kesalahan yang diperoleh dan menjumlahkannya untuk seluruh pasangan data. Bentuk dari kuadrat kesalahan tersebut dapat dituliskan sebagai: ๐ 2 ๐=1 ๐๐
=
๐ ๐=1
๐๐ โ ๐๐
=
๐ ๐=1
๐๐ โ
2
๐ ๐ =0 ๐ฝ๐
๐๐๐
2
(7)
Dimana ๐๐0 = 0 dan ๐๐1 = ๐๐
7
Bentuk persamaan (7) kemudian diturunkan terhadap parameter ๐ฝ0 dan ๐ฝ1 , sehingga diperoleh: ๐ ๐๐=1 ๐ ๐ 2 ๐ ๐ฝ0 ๐ ๐๐=1 ๐ ๐ 2 ๐ ๐ฝ1
= (โ2) = (โ2)
๐ ๐=1(๐๐
โ ๐ฝ0 โ ๐ฝ1 ๐๐ )
๐ ๐=1 ๐๐ (๐๐
(8)
โ ๐ฝ0 โ ๐ฝ1 ๐๐ )
(9)
Prinsip kuadrat terkecil memilih ๐ฝ0 dan ๐ฝ1 sedemikian sehingga
๐ 2 ๐=1 ๐๐
didapatkan nilai yang paling minimum, sehingga digunakan uji turunan kedua untuk memastikan kondisi minimum, dimana: ๐ ๐๐=1 ๐ ๐ 2 ๐ ๐ฝ1
> 0 artinya ๐ฝ1 meminimumkan persamaan (7)
Dari persamaan (8) dan (9) kemudian diturunkan lagi terhadap parameter ๐ฝ0 dan ๐ฝ1 , sehingga diperoleh: ๐ ๐๐=1(โ2) ๐๐=1(๐๐ โ๐ฝ0 โ๐ฝ 1 ๐ ๐ ) ๐ ๐ฝ0
=2
๐ ๐๐=1(โ2) ๐๐=1 ๐ ๐ (๐๐ โ๐ฝ0 โ๐ฝ1 ๐ ๐ ) ๐ ๐ฝ1
Dari uji turunan kedua dapat dilihat
= 2๐๐ 2 ๐ ๐๐=1 ๐ ๐ 2 ๐ ๐ฝ0
> 0 dan
๐ ๐๐=1 ๐ ๐ 2 ๐ ๐ฝ1
> 0, maka ๐ฝ0 dan
๐ฝ1 meminimumkan persamaan (7) Dengan menyamakan persamaan (8) dan (9) dengan nol diperoleh persamaan normal: ๐ ๐=1(๐๐
โ ๐ฝ0 โ ๐ฝ1 ๐๐ ) = 0
๐ ๐=1 ๐๐ (๐๐
(10)
โ ๐ฝ0 โ ๐ฝ1 ๐๐ ) = 0
(11)
Setelah disederhanakan, ๐ฝ0 dan ๐ฝ1 yang memenuhi syarat adalah: ๐ ๐=1 ๐๐
โ ๐๐ฝ0 โ ๐ฝ1 ๐๐ฝ0 =
๐ ๐=1 ๐๐ ๐ ๐=1 ๐๐
=0
โ ๐ฝ1
๐ ๐=1 ๐๐
8
๐ฝ0
1
=๐
๐ ๐=1 ๐๐
โ ๐ฝ1
๐ ๐=1 ๐๐
๐ โ ๐ฝ1 ๐ ๐ ๐=1 ๐๐ (๐๐
โ ๐ฝ0 โ ๐ฝ1 ๐๐ ) = 0
๐ ๐=1 ๐๐ ๐๐
๐ ๐=1 ๐๐
โ ๐ฝ0
โ ๐ฝ1 ๐ฝ1
(12)
2 ๐ ๐=1 ๐๐ 2 ๐ ๐=1 ๐๐
=0 =
๐ ๐=1 ๐๐ ๐๐
โ ๐ฝ0
๐ ๐=1 ๐๐
Substitusi persamaan (12) ๐ฝ1 =
๐ ๐๐=1 ๐ ๐ ๐๐ โ ๐๐=1 ๐ ๐ ๐๐=1 ๐๐ ๐ ๐๐=1 ๐ ๐ 2 โ( ๐๐=1 ๐ ๐ )2
๐ ๐=1 ๐ ๐ ๐ ๐ โ๐ ๐ ๐ 2 โ๐ ๐ 2 ๐=1 ๐
= Dengan
๐ ๐=1
๐๐ โ ๐
2
=
2 ๐ ๐=1 ๐๐
โ
๐ 2 ๐=1 ๐
=
2 ๐ ๐=1 ๐๐
โ ๐ ๐ 2 , maka:
๐ ๐=1 ๐ ๐ ๐ ๐ โ๐ ๐ 2 ๐=1 ๐ ๐ โ๐
๐ฝ1 =
(13)
Dimana ๐=๐
1
๐ ๐=1 ๐ฅ๐
(14)
1
๐ ๐=1 ๐ฆ๐
(15)
๐=๐
Persamaan (12) dan (13) merupakan penaksir kuadrat terkecil. Jika memenuhi asumsi โ asumsi regresi linier berganda, maka penaksir kuadrat terkecil mempunyai sifat linear, tak bias, dan variansi minimum atau biasa dikenal dengan sifat BLUE (best, linier, unbiased, estimator). Sifat BLUE adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem, dimana:
9
1. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil. 2. Linear dalam model artinya model yang digunakan dalam analisis regresi telah
sesuai
dengan kaidah model OLS dimana variabel-variabel
penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel 3. Unbiased atau tidak bias. Suatu estimator dikatakan unbiased jika nilai harapan dari estimator ๐ sama dengan nilai yang benar dari ๐. Artinya, nilai rata-rata ๐ = ๐. Bila rata-rata ๐ โ ๐, maka selisihnya itu disebut dengan bias.
2.4
Heteroskedastisitas Heteroskedastisitas adalah kondisi dimana error term tidak memiliki
suatu varian yang konstan untuk semua observasi (Nachrowi, 2002). Menurut Widarjono (2005) terdapat konsekuensi terhadap estimator OLS jika ada masalah heteroskedastisitas namun tetap mempertahankan asumsi metode OLS dan ada kemungkinan tidak akan menghasilkan estimator linear tidak bias yang terbaik. Ada kasus dimana seluruh faktor gangguan tidak memiliki varian yang sama (varian tidak konstan), kondisi ini disebut heteroskedastisitas. Jadi, ๐ adalah heteroskedastisitas bila ๐ฃ๐๐ (๐๐ ) โ ๐๐ 2 (suatu nilai konstan) tapi ๐ฃ๐๐ ๐๐ = ๐๐ 2 (suatu nilai yang bervariasi).
10
Dalam keadaan homoskedastik, varian dari Y sama, yaitu ๐ฃ๐๐ ๐๐ = ๐ฃ๐๐ ๐๐ 2 = ๐ 2 . Akan tetapi dalam keadaan heteroskedastik, varian (Y) tak sama, yaitu ๐ฃ๐๐ ๐๐ = ๐ฃ๐๐ ๐๐ 2 = ๐๐ 2 . Ini berarti bahwa varian (๐๐ ) atau varian (๐๐ ) dengan syarat bahwa ๐ = ๐๐ , tak sama untuk X yang berlainan. 2.4.1. Pendeteksi Heteroskedastisitas Menurut Nachrowi (2002), ada beberapa metode yang dapat mendeteksi adanya heteroskedastisitas, yaitu: 1. Metode grafik. Apabila tak ada informasi sebelumnya atau informasi secara empiris tentang adanya heteroskedastisitas dalam prakteknya kita dapat membuat
analisis
regresi
berdasarkan
asumsi
bahwa
tidak
ada
heteroskedastisitas dan kemudian melakukan pengecekan terhadap perkiraan kesalahan pengganggu kuadrat yaitu ๐๐ , untuk melihat kalau seluruh ๐๐ menunjukkan pola yang sistematis. Salah satu kelemahan pengujian secara grafik adalah tidak jarang kita ragu terhadap pola yang ditunjukkan grafik. Keputusan secara subjektif tentunya dapat mengakibatkan berbedanya keputusan antara satu orang dengan lainnya. Oleh karena itu, kadang-kadang dibutuhkan uji formal untuk memutuskannya. 2. Untuk uji formal salah satunya dengan menggunakan uji Bartlett. Misalkan sampel berukuran ๐1 , ๐2 , โฆ , ๐๐ dengan data ๐๐๐ dimana ๐ = 1, 2, โฆ , ๐ dan ๐ = 1, 2, โฆ , ๐๐). Selanjutnya sampel-sampel dihitung variansinya masing-masing, yaitu: ๐1 2 , ๐2 2 , โฆ , ๐๐ 2
11
Untuk mempermudah perhitungan, satuan-satuan yang diperlukan uji Bartlett lebih baik disusun dalam sebuah tabel sebagai berikut: Tabel 2.4 Satuan-satuan uji Bartlett
No 1 2 โฎ ๐
dk ๐1 โ 1 ๐2 โ 1 โฎ ๐๐ โ 1
1/dk 1/๐1 โ 1 1/๐2 โ 1 โฎ 1/๐๐ โ 1
๐2 ๐1 2 ๐2 2 โฎ ๐๐ 2
๐๐ ๐๐ (๐1 โ 1)๐1 2 (๐2 โ 1)๐2 2 โฎ (๐๐ โ 1)๐๐ 2
๐๐๐ ๐ 2 ๐๐๐ ๐1 2 ๐๐๐ ๐2 2 โฎ ๐๐๐ ๐๐ 2
๐๐ ๐๐๐ ๐ 2 (๐1 โ 1)๐๐๐ ๐1 2 (๐2 โ 1)๐๐๐ ๐2 2 โฎ (๐๐ โ 1)๐๐๐ ๐๐ 2
Dari tabel 2.4 dihitung nilai-nilai yang dibutuhkan, yaitu: 1. Variansi gabungan dari semua sampel ๐2 =
(๐ ๐ โ1)๐๐ 2
(16)
(๐ โ1)
2. Harga satuan B, dengan rumus: ๐ต = ( ๐๐๐ ๐ 2 ) (๐๐ โ 1)
(17)
Uji Bartlett digunakan statistik chi-kuadrat, yaitu: ๐ 2 = ln 10 ๐ต โ (๐ โ 1)๐๐๐ ๐๐ 2
(18)
Formulasi hipotesis ๐ป0 : tidak terdapat masalah heteroskedastisitas ๐ป1 : terdapat masalah heteroskedastisitas Dengan signifikansi: Jika ๐ 2 > ๐ 2
1โ๐ผ (๐โ1)
maka ๐ป0 ditolak dan jika ๐ 2 โค ๐ 2
1โ๐ผ (๐ โ1)
maka ๐ป0
diterima.
12
2.4.2. Pembobotan Model Regresi Apabila ๐๐ 2 diketahui atau dapat diperkirakan, cara yang paling mudah untuk mengatasi adanya heteroskedastisitas ialah dengan metode kuadrat terkecil tertimbang
(weighted ๐ 2 ๐=1 ๐๐
meminimumkan
least
squares).
Pada
metode
kuadrat
terkecil
untuk mendapatkan taksiran, sedangkan pada metode
kuadrat terkecil tertimbang meminimumkan jumlah kuadrat residual tertimbang . Untuk membuat minimum digunakan rumus : ๐ 2 ๐=1 ๐ค๐ ๐๐
=
๐ ๐=1 ๐๐ (๐๐
=
๐ ๐=1 ๐๐ [(๐๐
โ ๐๐ )2 โ (๐ฝ0 + ๐ฝ1 ๐ฅ1 + โฏ + ๐ฝ๐ ๐ฅ๐ )]2
(19)
1
Dimana ๐๐ = timbangan (weight) dengan ๐๐ = ๐ 2 , dan ๐ฝ0 , ๐ฝ1 adalah penaksir ๐
kuadrat terkecil tertimbang. Untuk menggambarkan motode ini, perhatikan model regresi sampel dua variabel berikut: ๐๐ = ๐ผ + ๐ฝ๐๐ + ๐๐ Dengan meminimumkan jumlah kuadrat residual tertimbang, diperoleh: ๐ 2 ๐=1 ๐ค๐ ๐๐
=
๐ ๐=1 ๐๐ (๐๐
โ ๐ผ โ โ ๐ฝ โ ๐๐ )2
(20)
Dimana ๐โ dan ๐ฝ โ merupakan pemerkira kuadrat terkecil dengan 1
timbangan ๐๐ = ๐ , yaitu timbangan ๐๐ proporsional terbalik dari varian ๐๐ atau ๐๐ ๐
dengan syarat bahwa ๐ = ๐๐ , perlu diketahui bahwa: ๐ฃ๐๐
๐๐ ๐๐
= ๐ธ (๐๐
๐๐ )2
= ๐ธ (๐๐ )2 ๐๐ = ๐๐ 2 ๐๐ ๐๐ = ๐๐ 2 13
Dengan mendeferensialkan (20) terhadap ๐โ dan ๐ฝ โ , diperoleh: ๐ ๐๐=1 ๐ค ๐ ๐ ๐ 2
๐ ๐=1 ๐๐ (๐๐
= โ2
๐๐โ
๐ ๐๐=1 ๐ค ๐ ๐ ๐ 2
๐ ๐=1 ๐๐ (๐๐
=2
๐๐ฝ โ
โ ๐ผ โ โ ๐ฝ โ ๐๐ )
โ ๐ผ โ โ ๐ฝ โ ๐๐ ) (โ๐๐ )
Dengan menetapkan persamaan-persamaan diatas dengan nol, maka akan diperoleh persamaan normal berikut: โ2
๐ ๐ =1 ๐๐ (๐๐
โบ
๐ ๐=1 ๐ค๐ ๐๐
โ ๐ผโ
๐ ๐=1 ๐ค๐
โ ๐ฝโ
๐ ๐=1 ๐ค๐ ๐๐
โบ
๐ ๐=1 ๐ค๐ ๐๐
= ๐ผโ
๐ ๐=1 ๐ค๐
+ ๐ฝโ
๐ ๐=1 ๐ค๐ ๐๐
๐ ๐=1 ๐๐ (๐๐
2
โ ๐ผ โ โ ๐ฝ โ ๐๐ ) = 0
๐ ๐=1 ๐ค๐ ๐๐ ๐๐
โบ
Nyatakan
(21)
โ ๐ผ โ โ ๐ฝ โ ๐๐ ) (โ๐๐ )
๐ ๐=1 ๐ค๐ ๐๐ ๐๐
โบโ
=0
+ ๐ผโ
๐ ๐=1 ๐ค๐
= ๐ผโ
๐โ =
๐ ๐=1 ๐ค๐
๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
2 ๐ ๐=1 ๐ค๐ ๐๐
๐๐ + ๐ฝ โ
2 ๐ ๐=1 ๐ค๐ ๐๐
๐๐ + ๐ฝ โ
dan
=0
๐โ =
๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
,
(22) maka
persamaan (21)
memberikan: ๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
๐ผโ =
โ ๐ฝโ
๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
โบ ๐ผ โ = ๐โ โ ๐ฝโ๐ โ Dengan mensubstitusikan nilai ๐ผ โ kedalam persamaan (22), diperoleh: ๐ ๐=1 ๐ค๐ ๐๐ ๐๐
โบ
= (๐ โ โ ๐ฝ โ ๐ โ )
๐ ๐=1 ๐ค๐ ๐๐ ๐๐
=
๐
โบ
๐ค๐ ๐๐ ๐๐ = ๐=1
๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
๐ ๐=1 ๐ค๐ ๐๐
โ ๐ฝโ
+ ๐ฝโ
๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
๐ ๐ ๐=1 ๐ค๐ ๐ ๐=1 ๐ค๐ ๐๐ ๐ ๐ ๐=1 ๐ค๐
2 ๐ ๐=1 ๐ค๐ ๐๐ ๐ ๐=1 ๐ค๐ ๐๐
2 ๐ ๐=1 ๐ค๐ ๐๐
+ ๐ฝโ
๐
โ๐ฝ
โ
๐
๐ค๐ ๐๐ + ๐ฝ ๐=1
๐ค๐ ๐๐ 2 = 0
โ ๐=1
14
๐ ๐ค ๐ ๐ ๐ค ๐ ๐=1 ๐ ๐=1 ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ โ ๐=1 ๐ ๐ ๐ค ๐ 2 ๐ ๐ค ๐ 2 โ ๐=1 ๐ ๐ ๐ ๐ค ๐=1 ๐ ๐ ๐=1 ๐
โบ ๐ฝโ =
(23)
Persamaan (23) dapat disederhanakan menjadi: ๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ โ ๐ ๐ค ๐ 2โ ๐=1 ๐ ๐
๐ฝโ =
๐ ๐=1 ๐ค๐ ๐๐ ๐๐
=
๐ฝโ =
๐ โ๐ โ ๐โ
2
๐ ๐ โ โ ๐=1 ๐ค๐ ๐๐ ๐๐ โ ๐=1 ๐ค๐ ๐ ๐ โ 2 ๐ ๐ ๐=1 ๐ค๐ ๐๐ โ 2 ๐=1 ๐ค๐
=
=
๐ ๐=1 ๐ค ๐ ๐ ๐ค ๐=1 ๐
๐ ๐=1 ๐ค๐ ๐๐
โ ๐โ โ
2 ๐ ๐=1 ๐ค๐ ๐๐
๐ ๐=1 ๐ค๐
โ2
๐ ๐ โ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ โ ๐=1 ๐ค ๐ ๐ ๐ ๐ + 2 ๐ ๐ค ๐ 2 โ2๐ โ ๐ ๐ค ๐ ๐=1 ๐ ๐ ๐=1 ๐ ๐
๐ ๐=1 ๐ค๐ โ2
๐
โ ๐โ
๐โ +
+
๐ ๐=1 ๐ค๐
๐ ๐=1 ๐ค๐ ๐๐
๐ ๐=1 ๐ค๐ ๐๐ ๐ ๐=1 ๐ค๐
+
๐ ๐=1 ๐ค๐ โ2
๐โ๐ โ
๐
+
๐ ๐=1 ๐ค๐
๐ ๐=1 ๐ค๐
๐โ
๐โ๐ โ
2
๐ โ โ ๐=1 ๐ค ๐ ๐ ๐ 2 + ๐๐=1 ๐ค ๐ ๐ โ
๐ โ ๐ โ๐ โ ๐ ๐=1 ๐ค ๐ ๐ ๐ โ๐ ๐ ๐ค ๐ โ๐ โ ๐=1 ๐ ๐
(24)
Heteroskedastisitas dapat diselesaikan apabila dianggap atau diasumsikan bahwa ๐ฃ๐๐ ๐ = ๐๐๐ 2 , dimana h = konstan dan ๐ โ 0, kita dapat mengoreksi adanya heteroskedastisitas dengan jalan membagi setiap suku di dalam regresi baru dengan variabel yang sudah diubah bentuknya (transformed variables). Untuk hubungan dua variabel atau regresi sederhana bentuknya sebagai berikut : ๐๐ ๐๐
๐ด
๐
๐
๐
=๐ +๐ต+๐
(25)
Kesalahan pengganggu sekarang menjadi ๐ ๐๐ dan variannya menjadi homoskedastik, yaitu: ๐ฃ๐๐
๐ ๐๐
2
1
= ๐ 2 ๐ฃ๐๐ ๐๐
2
๐
1
= ๐ 2 ร ๐ ร ๐๐ 2 ๐
=๐
(26)
15
Perlu diperhatikan, titik potong yang asli berubah menjadi variabel setelah dibagi dengan ๐๐ , yaitu ๐ด ๐๐ , sedangkan koefisien regresi ฮฒ sekarang memegang peranan sebagai titik potong yang baru. Di dalam membuat interpretasi harus berhati-hati mengenai regresi yang ditimbang, berdasarkan variabel yang sudah dirubah (transformed). Di dalam hal regresi berganda, lebih dari satu variabel bebas, setiap suku dalam regresi dibagi dengan salah satu variabel bebas yang berkorelasi kuat. Berikut adalah contoh persamaan : ๐๐ = ๐ฝ0 + ๐ฝ1 ๐1๐ + ๐ฝ2 ๐2๐ + ๐๐
(27)
Setelah ditransformasi: ๐๐ ๐ 2๐
๐ฝ
= ๐0 +
๐ฝ1 ๐ 1๐
2๐
๐ 2๐
๐
+๐
(28)
2๐
Untuk persamaan yang ditimbang, titik potong ๐ฝ0 berubah menjadi variabel ๐ฝ0 ๐2๐ , sedangkan koefisien regresi ๐ฝ2 berubah menjadi titik potong.
2.5
Weighted Least Square (WLS)
2.5.1 WLS untuk Regresi Linear Sederhana Meminimumkan SSE pada regresi linear sederhana, yaitu : ๐๐๐ธ =
๐ ๐ผ=1
๐๐ โ ๐ฝ0 โ ๐ฝ๐ ๐๐
2
(29)
Sedangkan untuk WLS, masing-masing jumlah kuadrat error akan dikali dengan penimbang atau pembobot yaitu ๐ค๐ , sehingga ๐๐๐ธ๐ค = ๐๐ค =
๐ ๐ผ=1 ๐ค๐
๐๐ โ ๐ฝ0 โ ๐ฝ1 ๐๐
2
(30)
Sehingga diperoleh nilai dari koefisien regresinya dengan meminimalkan nilai ๐๐ค . Meminimumkan kuadrat eror terhadap ๐ฝ0 dan ๐ฝ1 :
16
๐ ๐๐ค ๐๐ฝ0
๐
๐
= 0 โ โ2
๐ค๐ ๐ฆ๐ + 2๐ฝ0 ๐=1
๐
๐ค๐ + 2๐ฝ1 ๐=1
๐ค๐ ๐ฅ๐ = 0 ๐=1
dan
๐๐๐ค = 0 โ โ2 ๐๐ฝ1
๐
๐
๐
๐ค๐ ๐ฅ๐ ๐ฆ๐ + 2๐ฝ0 ๐=1
๐ค๐ ๐ฅ๐2 = 0
๐ค๐ ๐ฅ๐ + 2๐ฝ1 ๐=1
๐=1
Sehingga diperoleh persamaan normal : ๐ ๐=1 ๐ค๐ ๐๐
๐ ๐=1 ๐ค๐
= ๐0
๐ ๐=1 ๐ค๐ ๐๐ ๐๐
= ๐0
+ ๐1
๐ ๐=1 ๐ค๐ ๐๐
๐ ๐=1 ๐ค1 ๐๐
+ ๐1
(31)
๐ 2 ๐=1 ๐ค1 ๐๐
(32)
Dari persamaan (31) diperoleh: ๐0 =
n w Y โb n 1 i=1 w1Xi i=1 i i n w i=1 i
(33)
Dengan mensubstitusi persamaan (32) dan (33), diperoleh: ๐
๐ ๐=1 ๐ค๐ ๐๐
๐ค๐ ๐๐ ๐๐ = ๐=1
=
โ ๐1 ๐๐=1 ๐ค1 ๐๐ ๐ ๐=1 ๐ค๐
๐ ๐ ๐=1 ๐ค ๐ ๐ ๐ โ๐ 1 ๐=1 ๐ค 1 ๐ ๐ ๐ ๐ค ๐=1 ๐
๐1 =
โ
๐
๐
๐ค1 ๐๐2
๐ค๐ ๐๐ + ๐1 ๐=1
๐ ๐=1 ๐ค ๐ ๐ ๐ ๐ ๐ค ๐=1 ๐
๐=1
+ ๐1
๐ ๐ค ๐ ๐ ๐ค ๐ ๐ ๐=1 ๐ ๐ ๐=1 ๐ ๐ ๐ค ๐ ๐ โ ๐ ๐ค ๐=1 ๐ ๐ ๐ ๐=1 ๐ ๐ ๐ค ๐ 2 ๐=1 ๐ ๐ ๐ 2 ๐ ๐ค ๐=1 ๐ค 1 ๐๐ โ ๐=1 ๐
๐ 2 ๐=1 ๐ค1 ๐๐
(34)
2.5.2 WLS untuk Regresi Linear Berganda Menurut Wiwiek (2015), kriteria kuadrat terkecil untuk regresi linear berganda adalah sebagai berikut: ๐๐๐ธ =
๐ ๐ผ=1
๐๐ โ ๐ฝ0 โ ๐ฝ1 โ โฏ โ ๐ฝ๐ ๐๐
2
(35)
Sedangkan untuk WLS, masing-masing jumlah kuadrat error akan dikali dengan penimbang yaitu ๐ค๐ , sehingga
17
๐๐๐ธ๐ค = ๐๐ค =
๐ ๐ผ=1 ๐ค๐
๐๐ โ ๐ฝ0 โ ๐ฝ1 ๐1 โ ๐ฝ2 ๐2 โ โฏ โ ๐ฝ๐ ๐๐
2
(36)
Parameter (๐ฝ0 , ๐ฝ1 , โฆ , ๐ฝ๐ ) diperoleh melalui diferensial ๐๐ค terhadap setiap parameter ๐ฝ seperti pada kasus satu variabel x. Sehingga diperoleh nilai dari koefisien
regresinya dengan meminimalkan nilai ๐๐ค . Meminimumkan kuadrat eror terhadap ๐ฝ0 dan ๐ฝ1 yaitu dengan cara: ๐ ๐๐ค ๐ฝ0
,
๐ ๐๐ค ๐ฝ1
,โฆ ,
๐ ๐๐ค ๐ฝ๐
(37)
Dari persamaan (37) akan menghasilkan p persamaan normal dan dengan melalui ๐ฝ0 ๐ฝ proses aljabar matriks, maka ๐ฝ = โฎ1 diperoleh. ๐ฝ๐
18
BAB III METODE PENELITIAN 3.1 Waktu dan Tempat Pengumpulan informasi pada penelitian ini dilaksanakan dari bulan Desember 2015 sampai dengan bulan Maret 2016, dan akan dilanjutkan pada tugas akhir perkuliahan. Penelitian ini dilakukan di Laboratorium Komputasi Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Halu Oleo.
3.2 Jenis dan Sumber Data Data yang digunakan dalam penelitian ini adalah data sekunder yang diambil dari Badan Pusat Statistik yang pada penelitian ini digunakan hanya sebagai penerapan dari konsep yang ada. Data yang terdapat dalam penelitian ini adalah data mengenai Pengeluaran Wisatawan di Indonesia tahun 2012. Peubah terikat (Y) yang digunakan adalah pengeluaran wisatawan, kemudian peubah bebasnya (X) adalah lama tinggal (๐1 ), akomodasi (๐2 ) dan jumlah objek wisata (๐3 ). 3.3 Prosedur Penelitian 1. Melakukan penelurusan pustaka yang berhubungan dengan metode WLS pada regresi berganda. 2. Membuat uji formal dan uji nonformal untuk melihat apakah terdapat masalah heteroskedastisitas baik dalam bentuk grafik maupun dengan uji Bartlett.
19
3. Menerapkan metode WLS dengan langkah-langkah: a. Menentukan matriks rancangan X b. Menentukan matriks pembobot ๐โ1 c. Menetukan matriks Q= ๐โ1 ๐ d. Menentukan koefisien regresi WLS (๐ฝ๐ค ) e. Menentukan variansi (๐ฝ๐ค ) 4. Mendeteksi kembali heteroskedastisitas apabila masih ada atau tidak dengan menggunakan uji Bartlett. 5. Membuat Kesimpulan
20
BAB IV HASIL PENELITIAN DAN PEMBAHASAN 4.1
Metode Weighted Least Square Menurut Wiwiek (2015) salah satu asumsi penting dalam membuat
model regresi berganda adalah ๐ฃ๐๐ ๐๐ harus sama dengan ๐ 2 (konstan), atau dengan kata lain, semua residual atau error mempunyai varians yang sama. Kondisi ini disebut homoskedastisitas. Sedangkan apabila varians residual tidak identik mengakibatkan ๐ฃ๐๐ ๐๐
tidak sama untuk setiap i, dinotasikan
๐ฃ๐๐ ๐๐ = ๐๐ 2 disebut heteroskedastisitas. Salah satu cara untuk mengatasi heteroskedastisitas adalah dengan pembobotan. Pada kondisi heteroskedastisitas, mula-mula ๐ฃ๐๐ ๐๐ = ๐๐ 2 pada setiap ๐๐ ; ๐ = 1,2, โฆ , ๐, jika ditulis dalam bentuk matriks, yaitu: ๐ฃ๐๐ ๐1 ๐๐๐ฃ ๐2 , ๐1 ๐ฃ๐๐ ๐ = โฎ ๐๐๐ฃ ๐๐ , ๐1 ๐1 2 = 0 โฎ 0 =๐ฝ
0 ๐2 2 โฎ 0
๐๐๐ฃ ๐1 , ๐2 ๐ฃ๐๐ ๐2 โฎ ๐๐๐ฃ ๐๐ , ๐2 โฏ โฏ โฑ โฏ
โฏ โฏ โฑ โฏ
๐๐๐ฃ ๐1 , ๐๐ ๐๐๐ฃ ๐2 , ๐๐ โฎ ๐ฃ๐๐ ๐๐
0 0 โฎ ๐๐ 2 (38)
Karena adanya asumsi tentang homoskedastisitas, maka setiap kesalahan pengganggu mempunyai varian yang sama dan tidak ada korelasi serial, artinya antar kesalahan pengganggu yang satu dengan yang lainnya bebas, yaitu ๐๐๐ฃ ๐๐ , ๐๐ = 0
21
Agar ๐ฃ๐๐ ๐๐ = ๐ 2 maka dilakukan pembobotan/transformasi pada setiap ๐๐ ; ๐ = 1,2, โฆ , ๐ yaitu: ๐
๐๐ โ ๐ ๐2 ; ๐ = 1,2, . . , ๐
(39)
๐
Jika diuraikan ๐
๐1 โ ๐ 12 1
๐
๐2 โ ๐ 22 2
โฎ ๐
๐๐ โ ๐ ๐2 ๐
Jika ditulis dalam bentuk matriks menjadi: 1 ๐1 2
0 โฎ 0
0
โฏ
1
โฏ
๐2 2
โฑ 0
0
๐1 ๐2 0 ร โฎ , โฎ ๐๐ 1
โฑ โฏ
๐๐ 2
Katakan misalnya: 1 ๐1 2
๐ฝโ๐ =
0 โฎ 0
0
โฏ
0
1
โฏ
0
โฑ โฏ
1
๐2 2
โฑ 0
โฎ
๐1 ๐2 dan ๐ = โฎ ๐๐
๐๐ 2
Matriks ๐ฝโ๐ berupa matriks diagonal yang berelemenkan nilai-nilai pembobot, 1
yaitu ๐ 2 = ๐ค๐ , matriks ini disebut matriks pembobot. ๐
Dari matriks ๐ฝโ๐ maka diperoleh matriks pembobot lainnya, yaitu matriks ๐ทโ๐ yang juga merupakan matriks diagonal, dan elemenya merupakan 1
akar elemen ๐ฝโ๐, yaitu ๐ = ๐ค๐ 0,5 . ๐
22
1 ๐1
๐ทโ๐ =
0
0
โฏ
0
1
โฏ
0
โฑ โฏ
1
๐2
โฎ 0
โฑ 0
๐ค1 0,5 = 0 โฎ 0
0 0,5
๐ค2 โฑ 0
โฎ
๐๐
โฏ โฏ โฑ โฏ
0 0 โฎ
(40)
๐ค๐ 0,5
Atau matriks P jika ditulis dalam matriks, yaitu: ๐1 ๐ท= 0 โฎ 0
0 ๐2 โฑ 0
โฏ โฏ โฑ โฏ
0 0 โฎ ๐๐
dimana matriks P ditentukan sedemikian rupa sehingga memenuhi : ๐ท๐ ๐ท = ๐ท๐ท = ๐ท2 = ๐ฝ
(41)
Diketahui model regresi linear dirumuskan sebagai berikut: ๐ = ๐๐ฝ + ๐ kemudian diberikan penimbang sehingga diperoleh model regresi terboboti yaitu : ๐ทโ๐ ๐ = ๐ทโ๐ ๐ฟ๐ท + ๐ทโ๐ ๐บ
(42)
Jika vektor residual ๐โ1 ๐ disimbolkan dengan ๐, atau: ๐ = ๐ทโ๐ ๐บ
(43)
Kemudian ๐โ1 ๐ disimbolkan menjadi ๐๐ค , atau: ๐๐ = ๐ทโ๐ ๐
(44)
Kemudian ๐โ1 ๐ disimbolkan menjadi ๐๐ค , atau: ๐ธ๐ = ๐ทโ๐ ๐ฟ
(45)
23
Maka model regresi terboboti adalah ๐๐ค = ๐๐ค ๐ฝ + ๐ dengan ๐01 ๐11 โฏ ๐๐1 ๐02 ๐12 โฏ ๐๐2 ๐ธ= โฎ โฎ โฑ โฎ ๐0๐ ๐1๐ โฏ ๐๐๐ Error terboboti yaitu ๐ = ๐โ1 ๐, memiliki sifat seperti error pada regresi OLS, yaitu ๐ฃ๐๐ ๐ = ๐ผ๐ 2 (homoskedastisitas). Penjabaran ๐ฃ๐๐ ๐ secara rinci adalah sebagai berikut : Diketahui ๐ฃ๐๐ ๐ = ๐ธ ๐ โ ๐ธ ๐ (๐ โ ๐ธ(๐)๐ ๐ธ ๐ =0 ๐ฃ๐๐ ๐ = ๐ 2 Maka ๐ธ ๐ = E (๐โ1 ๐) = ๐โ1 ๐ธ ๐ = ๐โ1 0 =0 dan diperoleh: ๐ฃ๐๐ ๐ = ๐ธ ๐ โ ๐ธ ๐ (๐ โ ๐ธ ๐ )๐ = ๐ธ(๐ โ 0)(๐ โ 0)๐ = ๐ธ(๐๐ ๐ ) = ๐ธ(๐โ1 ๐ ๐โ1 ๐)๐ = ๐ธ ๐โ1 ๐๐ ๐ ๐โ1 = ๐โ1 ๐ธ ๐๐ ๐ ๐โ1 = ๐โ1 ๐ 2 ๐ โ1 = ๐ผ๐ 2
(46)
24
Melalui penjabaran diatas, menunjukkan bahwa error terboboti ๐ telah memenuhi asumsi homoskedastisitas.
4.2
Penaksiran Parameter Koefisien Regresi WLS dan Variansinya Jika menggunakan notasi matriks, meminimumkan jumlah kuadrat galat
pada WLS sama dengan meminimumkan jumlah kuadrat galat pada OLS yang diberi pembobot, yaitu: ๐โ1 ๐
๐
๐โ1 ๐ = ๐ ๐ ๐ = ๐1
๐2
โฏ
๐๐
๐1 ๐2 โฎ ๐๐
= ๐1 2 + ๐2 2 โฏ + ๐๐ 2 =
2 ๐ ๐=1 ๐๐
(47)
Penaksir kuadrat terkecil ๐๐ค didapatkan dengan cara meminimumkan jumlah kuadrat galatnya, yaitu: ๐๐ค = ๐๐๐ค + ๐ maka ๐ = ๐๐ค โ ๐๐๐ค , sehingga ๐ฟ=
2 ๐ ๐=1 ๐๐
= ๐๐ ๐ = ๐๐ค โ ๐๐๐ค
๐
๐๐ค โ ๐๐๐ค
= ๐๐ค ๐ ๐๐ค โ ๐๐ค ๐ ๐๐ ๐๐ค โ ๐๐ค ๐ ๐๐๐ค + ๐๐ค ๐ ๐๐ ๐๐๐ค = ๐๐ค ๐ ๐๐ค โ 2๐๐ค ๐ ๐๐ ๐๐ค + ๐๐ค ๐ ๐๐ ๐๐๐ค
25
Penaksir kuadrat terkecil itu harus memenuhi: ๐๐ฟ ๐๐ฝ
=0
โ2๐๐ ๐๐ค + 2๐๐ ๐๐๐ค = 0 Penyederhanaannya menjadi: ๐๐ ๐๐๐ค = ๐๐ ๐๐ค Kedua sisi dikalikan ๐๐ ๐ ๐๐ค = ๐๐ ๐
โ1
โ1
, maka diperoleh penyelesaian untuk ๐๐ค , yaitu:
๐๐ ๐๐ค
(48)
Maka penaksir parameter koefisien regresi didapatkan dengan rumus berikut : ๐0๐ค ๐ ๐๐ = 1๐ค = (๐ธ๐ป ๐ธ)โ๐ ๐ธ๐ป ๐๐ โฎ ๐๐๐ค = ((๐ทโ๐ ๐ฟ)๐ป ๐ทโ๐ ๐ฟ)โ๐ (๐ฟ๐ทโ๐ )๐ป (๐ทโ๐ ๐) = ๐ฟ๐ป ๐ทโ๐ ๐ทโ๐ ๐ฟ)โ๐ ๐ฟ๐ป ๐ทโ๐ ๐ทโ๐ ๐ = (๐ฟ๐ป ๐ฝโ๐ ๐ฟ)โ๐ ๐ฟ๐ป ๐ฝโ๐ ๐
(49)
Matrik V bukan matrik identitas, tetapi seperti ketentuan di atas pada persamaan (41). Jika ๐ = ๐ด๐, dimana ๐ด = ๐๐๐๐ ๐ก๐๐ Maka ๐ธ ๐ = ๐ธ ๐ด๐ = ๐ด๐ธ ๐ ๐ฃ๐๐ ๐ = ๐ธ ๐ โ ๐ธ ๐ (๐ โ (๐ธ ๐ )๐ = ๐ธ(๐ด๐ โ ๐ธ ๐ด๐ )(๐ด๐ โ ๐ธ(๐ด๐))๐ = ๐ธ(๐ด(๐ โ ๐ธ ๐ )(๐ด(๐ โ ๐ธ(๐))๐ = ๐ด๐ธ ๐ โ ๐ธ(๐) (๐ โ ๐ธ(๐)๐ ๐ด๐ = ๐ด๐ 2 ๐ฅ ๐ด๐
(50)
26
Dengan mengacu pada persamaan (50), variansi dari ๐๐ค , yaitu: ๐ฃ๐๐ ๐๐ค = ๐ฃ๐๐ ๐ธ๐ป ๐ธ
โ๐
๐ธ ๐ป ๐๐
= ๐ธ๐ป ๐ธ
โ๐
๐ธ๐ป ๐ฃ๐๐(๐๐ ) ๐ธ๐ป ๐ธ
= ๐ธ๐ป ๐ธ
โ๐
๐ธ๐ป ๐๐ ๐ธ(๐ธ๐ป ๐ธ)โ๐
= ๐ธ๐ป ๐ธ
โ๐
(๐ธ๐ป ๐ธ)(๐ธ๐ป ๐ธ)โ๐ ๐๐
โ๐
๐ธ๐ป
๐ป
= ๐ฐ(๐ธ๐ป ๐ธ)โ๐ ๐๐ = (๐ธ๐ป ๐ธ)โ๐ ๐๐
(51)
Sehingga variansi penaksir parameter regresi OLS dalam notasi matriks, yaitu:
๐ฃ๐๐ ๐๐ค
๐ฃ๐๐ ๐0๐ค ๐๐๐ฃ(๐0๐ค , ๐1๐ค ) โฆ ๐๐๐ฃ(๐0๐ค , ๐๐๐ค ) ๐๐๐ฃ(๐1๐ค , ๐0๐ค ) ๐ฃ๐๐ ๐1๐ค โฆ ๐๐๐ฃ(๐1๐ค , ๐๐๐ค ) = โฎ โฎ โฑ โฎ ๐๐๐ฃ(๐๐๐ค , ๐0๐ค ) ๐๐๐ฃ(๐๐๐ค , ๐1๐ค ) โฆ ๐ฃ๐๐ ๐๐๐ค
= (๐ธ๐ป ๐ธ)โ๐ ๐๐ = (๐ฟ๐ป ๐ฝโ๐ ๐ฟ)โ๐ ๐๐
(52)
Jadi, diperoleh : ๐๐ค = ๐ฟ๐ป ๐ฝโ๐ ๐ฟ
โ๐
๐ฟ๐ป ๐ฝโ๐ ๐
๐ฃ๐๐ (๐๐ค ) = ๐ฟ๐ป ๐ฝโ๐ ๐ฟ
4.3
โ๐ ๐
๐
Deskripsi Data Penelitian ini menggunakan 33 data propinsi mengenai pengeluaran
wisatawan mancanegara selama di Indonesia tahun 2012 sebagai variabel respon (Y), sedangkan faktor-faktor yang dianggap berpengaruh terhadap variabel respon (Y) yaitu lama tinggal (๐1 ), akomodasi (๐2 ) dan jumlah objek wisata (๐3 ) .
27
Tabel 4.3 Deskripsi Data No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
Provinsi Aceh Sumatera Utara Sumatera Barat Riau Jambi Sumatera Selatan Bengkulu Lampung Kep Bangka Belitung Kepulauan Riau DKI Jakarta Jawa Barat Jawa Tengah DI Yogyakarta Jawa Timur Banten Bali Nusa Tenggara Barat Nusa Tenggara Timur Kalimantan Barat Kalimantan Tengah Kalimantan Selatan Kalimantan Timur Sulawesi Utara Sulawesi Tengah Sulawesi Selatan Sulawesi Tenggara Gorontalo
Pengeluaran 772,93 709,39 840,71 658,59 929,06
Lama tinggal 7,29 5,30 5,46 4,16 5,88
1114,78
5,96
46
1140,18 1137,51
7,75 6,75
5 9
1137,1
6,35
23
1161,35 793,5 922,81 1043,67 1059,04 1740,81 1711,99 1863,13
7,41 5,71 6,88 5,89 6,28 13,31 14,90 9,89
70 175 208 139 52 98 42 218
1646,66
12,92
43
1689,64
12,47
15
1487,29
10,04
25
1890,25
15,14
9
1718,21
15,26
35
1486,42
9,45
43
1632,11
14,53
28
1986,82
15,85
3
1610,97
10,14
57
1655,1
11,41
10
1454,13
9,20
1
Akomodasi Hiburan 22 42 83 31 45 300 41 489 20 80 43 43 308 47 39 219 245 117 73 8 88 67 41 51 83 94 425 126 16 88 34 47 33
28
29 30 31 32 33
Sulawesi Barat Maluku Maluku Utara Papua Barat Papua Jumlah Rata-Rata
1836,56 1617,36 1989,32 1597,52 1579,12 45614,03 1382,243333
13,03 11,07 14,02 9,08 10,24 319,0207923 9,667296735
6 19 3 19 11 1623 49,181818
39 14 23 17 20 3390 102,727
Berdasarkan Tabel 4.3. diperoleh total pengeluaran wisatawan dari 33 propinsi yang diamati yaitu sebanyak 45614,03 (๐๐ $) dengan rata-rata pengelurannya sebanyak 1382,24 (๐๐ $) dan simpangan baku 404,004 (๐๐ $) . Lama tinggal wisatawan di Indonesia selama tahun 2012 adalah 319,02 hari dengan rata-rata tinggalnya 9,67 hari dan simpangan baku 3,59. Jumlah akomodasi di Indonesia sebanyak 1623 dengan rata-ratanya 49,19 dan simpangan baku 59,403. Serta Jumlah objek wisata di Indonesia adalah sebanyak 3390 dan rata-rata 102,73 serta simpangan baku 120,69. Dapat dilihat pada variabel ๐1 yang mempunyai sumbangan cenderung besar terhadap variabel Y adalah Sulawesi Tengah dan yang mempunyai sumbangan terrendah adalah Riau. Pada variabel ๐2 yang mempunyai sumbangan cenderung besar terhadap variabel Y adalah Bali dan yang mempunyai sumbangan terrendah adalah Gorontalo. Pada variabel ๐3 yang mempunyai sumbangan cenderung besar terhadap variabel Y adalah Riau dan yang mempunyai sumbangan terrendah adalah Jawa Timur. Setelah mendeskripsikan data, maka langkah selanjutnya melakukan pengujian untuk mengetahui apakah data mengalami heteroskedastisitas atau tidak. Pengujian heteroskedastisitas tersebut dapat dilakukan dengan uji non
29
formal dan uji formal. Dalam penelitian ini, menggunakan uji non formal dan salah satu uji formal.
4.4
Pendeteksian Heteroskedastisitas
4.4.1 Uji non Formal Uji heteroskedastisitas secara non formal dilakukan dengan melihat ada tidaknya pola tertentu pada grafik estimasi OLS. Pengujian non formal dengan menggunakan software โMinitab 16โ, maka diperoleh:
Gambar 4.4a Plot antara Estimasi Y dengan Residual Berdasarkan Gambar 4.4a maka terlihat plot residual terhadap nilai dugaan menunjukkan pola yang sistematik, yaitu dimana sebaran titik-titik pada awalnya berada ditengah, menurun kemudian naik, ini mengindikasi asumsi eror identik tidak terpenuhi, atau terjadi kondisi heteroskedastisitas. Untuk memastikan data mengalami heteroskedastisitas atau tidak, maka dilakukan uji formal.
4.4.2 Uji Formal Dalam penelitian ini uji formal dengan menggunakan uji Bartlett, digunakan untuk memeriksa apakah data percobaan sudah memenuhi asumsi kehomogenan ragam. Uji ini wajib dilakukan sebelum memeriksa ragam data. 30
Pada uji ini, pertama-tama dilakukan pengelompokkan data, lalu dihitung variansi setiap kelompok. Hasil output Minitab pengelompokkan data dapat dilihat pada Lampiran 3 dan Lampiran 4. Adapun langkah-langkah pengelompokkannya, yaitu: ๏ท
Melakukan analisis komponen utama agar antar variabel X saling bebas. Hasil analisis komponen utama dapat dilihat pada Lampiran 3.
๏ท
Analisis gerombol dalam pengelompokkan pengeluaran wisatawan, yang bertujuan untuk mengelompokkan 33 unit pengamatan ke dalam beberapa gerombol berdasarkan ๐1 , ๐2 , ๐3 peubah, sehingga unit-unit pengamatan dalam satu gerombol mempunyai karakteristik yang lebih homogen dibandingkan unit pengamatan dalam gerombol lain. Lalu dihitung keragaman setiap kelompok yang inversnya akan menjadi pembobot bagi setiap data pengamatan. Data-data yang berada dalam satu kelompok mendapat pembobot yang sama. Analisis ini dengan software Minitab 16 menggunakan skor komponen utama yang menghasilkan suatu gerombol besar seperti diperlihatkan pada dendogram (Gambar 4.4b) dan tahapan penggerombolan dengan metode Ward dapat dilihat pada Lampiran 4.
Gambar 4.4b Dendogram metode Ward dengan jarak Euclid dari 33 propinsi. 31
Berdasarkan hasil dendogram, diperoleh 5 kelompok pengeluaran wisatawan (Tabel 4.4.2a) dan pengelompokkan ini akan digunakan juga pada tindakan perbaikan. Dari tabel 4.3.2a maka dapat ditentukan variansi pengeluaran wisatawan (Y) dari masing-masing kelompok. Tabel 4.4.2.a Pengelompokkan propinsi Kelompok Propinsi Aceh, Sumatera Utara, Jambi, Sumatera Selatan, 1 Kep. Bangka Belitung, DIY Bengkulu, Kalimantan Barat, Kalimantan Timur, Sulawesi Selatan, Sulawesi Tenggara, Gorontalo, 2 Maluku, Papua Barat, Papua Jawa Timur, Banten, NTB, NTT, Kalimantan Barat, Sulawesi Utara, Sulawesi Tengah, Sulawesi 3 Barat, Maluku Utara Sumatera Barat, Riau, Lampung, Kalimatan 4 Selatan 5 DKI Jakarta, Jawa Barat, Jawa Tengah, Bali
๐2 33433,99
24501,41
27440,57 215052,96 232811,49
Hipotesis statistik untuk pengujian homogenitas variansi adalah: H0 : ๐12 = ๐22 = ๐32 = ๐42 = ๐52 H1 : paling sedikit ada satu tanda sama dengan tidak berlaku Langkah-langkah perhitungan: 1.
Variansi dari setiap kelompok ๐ 12 =
๐ ๐=1
๐๐ โ๐ 2
๐ โ1
๐ 12 = 33433,99 Dengan cara yang sama, diperoleh variansi untuk ๐ 22 , ๐ 32 , ๐ 42 dan ๐ 52 berturutturut sebagai berikut: ๐ 22 = 24501,41 , ๐ 23 = 27440,57 , ๐ 42 = 215052,97 dan ๐ 52 = 232811,5
32
2.
Tabel proses perhitungan homogenitas variansi
Tabel 4.4.2.b Homogenitas variansi Kelompok dk 1/dk S^2 1 6 0,167 33433,99 2 8 0,125 24501,41 3 8 0,125 27440,57 4 3 0,33 215052,97 5 3 0,33 232811,5 Jum 28 0,036 3.
log S^2 4,524188208 4,389191099 4,438393101 5,332545436 5,367004425
dk log S^2 dk S^2 27,14512925 200604 35,11352879 196011 35,50714481 219525 15,99763631 645159 16,10101328 698434 129,8644524 1959733
Menghitung variansi gabungan ๐ 2 =
(๐๐ ๐ ๐2 ) 1959733 = = 69990,47 ๐๐ 28
log ๐ 2 = 4,845 4.
Menghitung nilai B ๐ต=
5.
๐๐ log ๐ 2 = 135,66
Menghitung nilai ๐ 2 ๐ 2 = ln 10 ๐ต โ
๐๐ ๐๐๐ ๐ ๐2
๐ 2 = 2,303 ร {135,66 โ 129,864} ๐ 2 = 2,303 ร 5,796 = 13,35 Jadi, untuk ๐ผ = 5% dari daftar distribusi ๐ 2 dengan ๐๐ = 5 โ 1 = 4 didapat
๐ 2 ๐ก๐๐๐๐ = 9,48773
yang
ternyata
bahwa
๐ 2 ๐๐๐ก๐ข๐๐ (13,35) >
๐ 2 ๐ก๐๐๐๐ (9,48773) sehingga hipotesis yang menyatakan variansi homogen ditolak dalam taraf ๐ผ = 5%. Dengan menggunakan software Minitab 16 dapat dilihat pada Lampiran 10.
33
4.5
Tindakan Perbaikan Untuk melakukan tindakan perbaikan model regresi yang mengalami
heteroskedastisitas dapat dilakukan dengan proses pemodelan regresi terboboti atau regresi WLS dengan mengikuti langkah-langkah sebagai berikut: 1.
Menentukan matriks rancangan X sesuai persamaan, yaitu: 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ๐= 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
7,29 5,30 5,46 4,16 5,88 5,96 7,75 6,75 6,35 7,41 5,71 6,88 5,89 6,28 13,31 14,90 9,89 12,92 12,47 10,04 15,14 15,26 9,45 14,53 15,85 10,14 11,41 9,20 13,03 11,07 14,02 9,08 10,24
22 83 45 41 20 46 5 9 23 70 175 208 139 52 98 42 218 43 15 25 9 35 43 28 3 57 10 1 6 19 3 19 11
42 31 300 489 80 43 43 308 47 39 219 245 117 73 8 88 67 41 51 83 94 425 126 16 88 34 47 33 39 14 23 17 20
34
2.
Menentukan matriks pembobot ๐โ1 Matriks pembobot ๐โ1 diperoleh dengan melakukan pengelompokkan.
Proses pengelompokkannya dapat dilihat pada sub bab (4.3.2) Setelah variansi variansi pengeruaran (Y) untuk setiap kelompok diperoleh sehingga pada akhirnya diperoleh nilai matriks pembobot ๐โ1 . Tabel 4.5.a Hasil Pengelompokkan Pengeluaran Wisatawan Berdasarkan indikator Lama Tinggal, Akomodasi dan Jumlah Objek Wisata Kelompok
๐โ1
Propinsi Aceh, Sumatera Utara, Jambi, Sumatera Selatan,
1
Kep. Bangka Belitung, DIY
0,005468974
Bengkulu, Kalimantan Barat, Kalimantan Timur, Sulawesi Selatan, Sulawesi Tenggara, Gorontalo, 2
Maluku, Papua Barat, Papua
0,006388582
Jawa Timur, Banten, NTB, NTT, Kalimantan Barat, Sulawesi Utara, Sulawesi Tengah, Sulawesi 3
Barat, Maluku Utara Sumatera Barat,
3.
Riau,
0,006036754 Lampung,
Kalimatan
4
Selatan
0,00215639
5
DKI Jakarta, Jawa Barat, Jawa Tengah, Bali
0,002072516
Merancang matriks Q Setelah diperoleh matriks X dan ๐โ1 , maka dapat ditentukan matriks Q,
dimana: ๐ = ๐โ1 ๐ Setelah melalui proses perkalian, maka diperoleh matriks Q:
35
0,005469 0,005469 0,002156 0,002156 0,005469 0,005469 0,006389 0,002156 0,005469 0,005469 0,002073 0,002073 0,002073 0,005469 0,007191 0,007191 ๐ = 0,002073 0,007191 0,007191 0,006389 0,007191 0,002156 0,006389 0,007191 0,007191 0,006389 0,006389 0,006389 0,007191 0,006389 0,007191 0,006389 0,006389
4.
0,039863 0,028987 0,01177 0,008974 0,032148 0,032586 0,049529 0,014551 0,034738 0,040535 0,011843 0,014268 0,0122 0,034325 0,095675 0,107115 0,020507 0,092907 0,089692 0,064162 0,108864 0,032912 0,060401 0,10447 0,113968 0,064758 0,072918 0,058775 0,093662 0,070737 0,100791 0,058031 0,065389
0,120317 0,453925 0,097038 0,088412 0,109379 0,251573 0,031943 0,019408 0,125786 0,382828 0,36269 0,431083 0,28808 0,284387 0,704701 0,302015 0,451808 0,309205 0,107862 0,159715 0,064717 0,075474 0,274709 0,201343 0,021572 0,364149 0,063886 0,006389 0,043145 0,121383 0,021572 0,121383 0,070274
0,229697 0,169538 0,646917 1,054475 0,437518 0,235166 0,274709 0,664168 0,257042 0,21329 0,453881 0,507766 0,242484 0,399235 0,057527 0,632792 0,138859 0,294824 0,366732 0,530252 0,675937 0,916466 0,804961 0,115053 0,632792 0,217212 0,300263 0,210823 0,280442 0,08944 0,165389 0,108606 0,127772
Menghitung Penaksiran Parameter Koefisien WLS
Setelah serangkaian perhitungan juga diperoleh ๐0๐ค ๐ ๐ ๐๐ค = 1๐ค โฎ = ๐ ๐ ๐๐๐ค
โ1
๐๐ ๐
2,28 =
118 โ 1,64 โ1,83
36
dengan:
๐ฃ๐๐ ๐๐ค
13838,24 โ980,224 = โ45,3144 โ16,9447
โ980,224 82,65344 1,997644 0,322922
โ45,3144 1,997644 0,820774 โ0,03791
โ16,9447 0,322922 โ0,03791 0,259729
Sehingga persamaan regresi terboboti diperoleh: ๐๐ค = 2,28 + 118 X1 โ 1,64 X2 โ 1,83 X3
(53)
Tabel 4.5.b Rekapitulasi Hasil Analisis Regresi Berganda Terboboti
Variabel Lama Tinggal (๐1 ) Akomodasi (๐2 ) Jumlah Objek Wisata (๐3 ) Konstanta R square F hitung Sig F
Koefisien Regresi (๐ท) 118 -1,64 -1,83 2,28 0,956 210,76 0,000
T 23,25 -1,57 -2,66
sig 0,000 0,126 0,013
a. Pengaruh Secara Simultan Perumusan hipotesis ๐ป0 : signifikansi F > 0,05 (๐ผ), artinya pengaruh prediktor pada respon tidak bermakna. ๐ป1 : signifikansi F < 0,05 (๐ผ), artinya pengaruh prediktor pada respon bermakna. Hasil analisis regresi berganda : variabel lama tinggal (X1), akomodasi (X2) dan jumlah objek wisata (X3) berpengaruh terhadap pengeluaran wisatawan di Indonesia (Y) secara simultan/bersama-sama menunjukan hasil nilai Fhitung adalah sebesar 210,76 dengan Signifikan F sebesar 0.000 atau lebih kecil dari 0,05 (5%). Hasil ini menyatakan bahwa secara simultan semua variabel bebas yaitu variabel lama tinggal (X1), akomodasi (X2) dan jumlah objek wisata (X3)
37
berpengaruh signifikan secara simultan terhadap pengeluaran wisatawan di Indonesia (Y). Hasil R square didapat sebesar 0,956, angka ini menunjukkan bahwa kontribusi semua variabel bebas yaitu variabel lama tinggal (X1), akomodasi (X2) dan jumlah objek wisata (X3) terhadap pengeluaran wisatawan di Indonesia (Y) sebesar 95,6%, sisanya dipengaruhi oleh variabel lain yang tidak ada dalam penelitian ini dan ๐ป0 ditolak. b. Pengaruh Secara Parsial Berdasarkan Lampiran 8, pada uji parsial diperoleh hasil variabel bebas yaitu variabel lama tinggal (X1), akomodasi (X2) dan jumlah objek wisata (X3) terhadap pengeluaran wisatawan di Indonesia (Y) secara parsial dapat dijelaskan sebagai berikut : 1. Lama Tinggal (X1) Perumusan hipotesis berdasarkan nilai signifikansi, yaitu: H0 : sig. X1 < 0,05, artinya pengaruh prediktor pada respon bermakna. H1 :sig. X1 > 0,05, artinya pengaruh prediktor pada respon tidak bermakna. Analisis Regresi menunjukkan koefesien Regresi (B)
sebesar 118
terhadap pengeluaran wisatawan, dengan signifikansi 0,000. Hal ini berarti bahwa variabel lama tinggal (X1) memang berpengaruh secara signifikan terhadap pengeluaran wisatawan. Koefisien Regresi (B) sebesar 118 menyatakan bahwa setiap penambahan satu satuan variabel lama tinggal (X1), maka akan menambah pengeluaran wisatawan sebesar 118 dan ๐ป0 diterima.
38
2. Akomodasi (X2) Perumusan hipotesis berdasarkan nilai signifikansi, yaitu: H0 : sig. X 2 < 0,05, artinya pengaruh prediktor pada respon bermakna. H1 :sig. X 2 > 0,05, artinya pengaruh prediktor pada respon tidak bermakna. Analisis Regresi menunjukkan koefesien Regresi (B)
sebesar -1,64
terhadap pengeluaran wisatawan, dengan signifikansi 0,126. Hal ini berarti bahwa variabel akomodasi (X2) tidak
berpengaruh secara signifikan terhadap
pengeluaran wisatawan. Koefisien Regresi (B) sebesar -1,64 menyatakan bahwa setiap penambahan satu satuan akomodasi (X2), maka akan mengurangi pengeluaran wisatawan sebesar -1,64 dan ๐ป0 ditolak. 3. Jumlah Objek Wisata (X3) Perumusan hipotesis berdasarkan nilai signifikansi, yaitu: H0 : sig. X 3 < 0,05, artinya pengaruh prediktor pada respon bermakna. H1 :sig. X 3 > 0,05, artinya pengaruh prediktor pada respon tidak bermakna. Analisis Regresi menunjukkan koefesien Regresi (B)
sebesar -1,83
terhadap pengeluaran wisatawan, dengan signifikansi 0,013. Hal ini berarti bahwa variabel jumlah objek wisata (X3) memang berpengaruh secara signifikan terhadap pengeluaran wisatawan. Koefisien Regresi (B) sebesar -1,83 menyatakan bahwa setiap penambahan satu satuan jumlah objek wisata (X3), maka akan mengurangi pengeluaran wisatawan sebesar -1,83 dan ๐ป0 diterima. Dari uji parsial, diperoleh variabel bebas akomodasi (๐2 ) tidak berpengaruh secara signifikan terhadap variabel pengeluaran wisatawan (Y). Maka untuk mengatasi hal ini, variabel akomodasi dikeluarkan dari model regresi.
39
Langkah selanjutnya adalah memodelkan kembali persamaan regresi dengan variabel yang signifikan terhadap variabel Y, yaitu lama tinggal dan jumlah objek wisata. Persamaan regresi yang baru diperoleh dengan cara yang sama dengan persamaan terboboti sebelumnya (53), sehingga diperoleh persamaan regresi terboboti yang baru: ๐๐ค = 1,55 + 126 ๐1 โ 0,837 ๐2
(54)
Hasil output Minitab dapat dilihat pada Lampiran 9. 4.6
Pengujian Kembali Heteroskedastisitas
4.6.1. Uji non Formal Uji heteroskedastisitas secara non formal dilakukan dengan melihat ada tidaknya pola tertentu pada grafik estimasi WLS pada persamaan (54). Pengujian non formal dengan menggunakan software โMinitab 16โ, maka diperoleh:
Gambar 4.6 Plot antara Estimasi ๐๐ค dengan Residual Berdasarkan Gambar 4.6, maka terlihat plot residual terhadap nilai dugaan menunjukkan pola yang teratur, yaitu dimana sebaran titik-titik tidak berpencar dan terlihat lebih rapi, ini berarti asumsi eror identik terpenuhi, atau terjadi kondisi homoskedastisitas. Untuk memastikan data yang telah diboboti mengalami homoskedastisitas, maka dilakukan uji formal.
40
4.6.2. Uji Formal Untuk menguji kembali keadaan heteroskedastisitas dapat dilakukan kembali dengan menggunakan uji formal, yaitu uji Bartlett. Adapun langkahlangkah pengujiannya sama dengan pendeteksian yang awal yang mula-mula dilakukan pengelompokkan yang prosesnya sama dengan pengelompokkan pada sub bab 4.3.2, hanya pada uji ini dilakukan pada variabel yang sudah dibboboti. Hasil output Minitab pengelompokkan data dapat dilihat pada Lampiran 5 dan Lampiran 6. Adapun pengelompokkan data pengeluaran wisatawan di Indonesia 2012 dapat dilihat pada tabel berikut: Tabel 4.6.2a Pengelompokkan data Kelompok
1 2 3
4 5
Propinsi Aceh, Sumatera Utara, Jambi, Sumatera Selatan, Bengkulu, Kep. Bangka Belitung, Kep. Riau, DIY Sumatera Barat, Lampung, DKI Jakarta, Jawa Barat, Jawa Tengah Riau, Kalimantan selatan Jawa Timur, NTB, NTT, Sulawesi Utara, Sulawesi Selatan, Sulawesi Tenggara, Gorontalo, Sulawesi Barat, Maluku, Maluku Utara, Papua Barat, Papua Banten, Bali, Kalimantan Barat, Kalimantan Tengah, Kalimantan Timur, Sulawesi Tengah
๐2
1,13533 3,03285 3,87479
0,61252 1,677546
Hipotesis statistik untuk pengujian homogenitas variansi adalah: H0 : ๐12 = ๐22 = ๐32 = ๐42 = ๐52 H1 : paling sedikit ada satu tanda sama dengan tidak berlaku Langkah-langkah perhitungan:
41
1. Variansi dari setiap kelompok Diperoleh dengan rumus: ๐ 12
=
๐ ๐ =1
๐๐ โ ๐ ๐โ1
2
Sehingga diperoleh nilai ๐ 12 = 1,13533 Dengan cara yang sama, diperoleh variansi untuk ๐ 22 dan ๐ 32 berturut-turut sebagai berikut: ๐ 22 = 3,03285, ๐ 32 = 3,8748, ๐ 42 = 0,61252 dan ๐ 52 = 1,67755 2. Tabel proses perhitungan homogenitas variansi Tabel 4.6.2b. Homogenitas variansi No ๐๐ 1/๐๐ ๐2 1 7 0,14286 1,13533 2 4 0,25 3,03285 3 1 1 3,8748 4 11 0,09091 0,61252 5 5 0,2 1,67755 jum 28 0,03571 3.
๐๐๐ ๐ 2 0,0551237 0,48185124 0,58824912 -0,2128821 0,22467449
๐๐ ๐๐๐ ๐ 2 0,385865899 1,927404955 0,588249122 -2,341702712 1,123372454 1,683189718
๐๐ ๐ 2 7,94734 12,1314 3,8748 6,73768 8,38773 39,079
Menghitung variansi gabungan ๐ 2 =
(๐๐ ๐ ๐2 ) 39,079 = = 1,39677 ๐๐ 28
log ๐ 2 = 0,14478 4.
Menghitung nilai B ๐ต=
5.
๐๐ log ๐ 2 = 4,054
Menghitung nilai ๐ 2 ๐ 2 = ln 10 ๐ต โ
๐๐ ๐๐๐ ๐ ๐2
๐ 2 = 2,303 ร {4,054 โ 1,683189718} ๐ 2 = 2,303 ร 2,37079 = 5,4589
42
Jadi, untuk ๐ผ = 5% dari daftar distribusi ๐ 2 dengan ๐๐ = 5 โ 1 = 4 ๐ 2 ๐ก๐๐๐๐ = 9,48773
didapat
yang
ternyata
bahwa
๐ 2 ๐๐๐ก๐ข๐๐ (5,4589) <
๐ 2 ๐ก๐๐๐๐ (9,48773) sehingga hipotesis yang menyatakan variansi homogen diterima dalam taraf ๐ผ = 5%. Dengan menggunakan software Minitab 16 dapat dilihat pada Lampiran 11. 4.7
Pembahasan Setelah dilakukan perbaikan model dengan estimasi Weighted Least
Square, langkah selanjutnya adalah membahas model tersebut. Seperti yang telah dijelaskan pada bab sebelumnya, suatu asumsi yang kritis dari model regresi linear klasik adalah bahwa kesalahan pengganggu ๐๐ semuanya harus mempunyai varian
yang
sama.
Apabila
asumsi
ini
tak
terpenuhi
berarti terjadi
heteroskedastisitas dan tidak lagi mempunyai sifat BLUE (Best Linear Unbiased Estimator). Namun sebelum membuat estimasi dengan weighted least squares, akan dilakukan transformasi pada model yang asli, yaitu transformasi variabel, sehingga model yang telah ditransformasikan tersebut akan menghasilkan kesalahan pengganggu yang mempunyai varian tetap/konstan, sehingga akan tercapai keadaan yang homoskedastisitas. Tabel 4.7 Analisa perbandingan ๐
2 , S dan ๐ 2 dengan dua uji estimasi Estimasi OLS
Estimasi WLS
๐
2
0,85
0,907
๐
164,489
1,3978
๐2
Ada heteroskedastisitas
Homoskedastisitas
43
Berdasarkan hasil perbandingan dari dua estimasi di atas, dapat dilihat bahwa nilai ๐
2 pada masing-masing estimasi sudah baik dimana pada OLS 0,85 dan pada WLS 0,907. Namun jika dilihat dari nilai ๐, pada estimasi OLS mempunyai nilai ๐ yang tinggi yaitu sebesar 164,489 dan setelah diboboti pada estimasi WLS nilai ๐ mengalami penurunan menjadi 1,3978 yang disertai dengan kenaikan nilai ๐
2 yang menunjukkan model baik. Jika dilihat juga pada nilai ๐ 2 , pada OLS mengalami heteroskedastisitas dan setelah data mengalami estimasi WLS menjadi homoskedastisitas. Selain itu dapat dilihat juga pada tingkat signifikansi < 0,05 yang menunjukkan hasil perhitungan secara statistik bermakna.
Jadi,
dapat
disimpulkan bahwa
setelah data
ditransformasi
menggunakan metode Weighted Least Squares, maka model regresi berganda tersebut telah memenuhi asumsi homoskedastisitas. Selain itu pada Lampiran 7, dapat dilihat data mengalami sebaran normal dimana nilai p value 0,082 > 0,05. Selain itu, pada Lampiran 9 juga diperlihatkan bahwa data tidak mengalami multikolinearitas dimana nilai ๐๐ผ๐น < 5 dan juga tidak terjadi autokorelasi.
44
BAB V PENUTUP 5.1 Kesimpulan Berdasarkan pembahasan pada Bab IV, maka kesimpulan pada penelitian ini adalah sebagai berikut: 1. Metode Weighted Least Square efektif digunakan dalam mengatasi masalah heteroskedastisitas karena melalui prosedur pembobotan pada error OLS ๐ yang menghasilkan varian error WLS ๐ menjadi homoskedastisitas. 2. Efektifitas WLS dapat juga dilihat dari studi kasus dimana pada OLS terdapat
masalah
heteroskedastisitas
dan
pada
WLS
menjadi
homoskedastisitas. Serta nilai ๐
2 OLS < ๐
2 WLS dan nilai ๐ 2 OLS > ๐ 2 WLS.
5.2 Saran Pada penelitian ini, untuk menentukan matriks pembobot dilakukan pengelompokkan dengan mencari variansi setiap kelompok dan pada penelitian selanjutnya diharapkan menggunakan teknik atau metode yang berbeda.
45
DAFTAR PUSTAKA Badan Pusat Statistik. 2014. Sulawesi Tenggara dalam Angka. Sulawesi Tenggara. Gujarati, N. D. 2003. Basic Econometrics. 4th ed. New York: McGraw-Hill Companies, Inc. Gujarati, D.N. 2006. Dasar-Dasar Ekonometrika, Erlangga: Jakarta. Hardle, W. 1995. Applied Nonparametric Regression. United State: Cambridge University Press. Hariscom. 2013. Jasa Pengolahan Analisis Data Uji Homogenitas. (http://harisco mpwt.blogspot.co.id/2013/01/uji-homogenitas.html.
Diakses
tanggal
25
Januari 2013). Nachrowi,D.N. 2008. Penggunaan Teknik Ekonometrika. Jakarta: Raja Grafindo Persada. Sembiring, R.K. 1995. Analisis Regresi. Bandung: ITB. Tirta, I M. 2009. Analisis Regresi dengan R. Jember: UPT Penerbitan Universitas Jember. Uthami,I. A.P., Sukarsa, I.K.G., Kencana, I.P.K. 2013. Regresi Kuantil Median untuk Mengatasi Heteroskedastisitas pada Analisis Regresi. E-Jurnal Matematika Vol. 2. No. 1, Januari 2013, 6-13. Widarjono. 2005. Analisis Statistika Multivariat Terapan. UPP STIM YKPN. Yogyakarta. Winahju, Wiwiek Setya.2015. Regresi Terboboti (Weighted Regression/ Weighted Least Square). (http://oc.its.ac.id/jurusan.php?fid=1&jid=3. Diakses tanggal 16 Februari 2015).
46
47
Lampiran 1. Data Pengeluaran Wisatawan
No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
Provinsi Aceh Sumatera Utara Sumatera Barat Riau Jambi Sumatera Selatan Bengkulu Lampung Kep Bangka Belitung Kepulauan Riau DKI Jakarta Jawa Barat Jawa Tengah DI Yogyakarta Jawa Timur Banten Bali Nusa Tenggara Barat Nusa Tenggara Timur Kalimantan Barat Kalimantan Tengah Kalimantan Selatan Kalimantan Timur Sulawesi Utara Sulawesi Tengah Sulawesi Selatan Sulawesi Tenggara Gorontalo
Pengeluaran Lama tinggal 772,93 7,29 709,39 5,30 840,71 5,46 658,59 4,16 929,06 5,88
Akomodasi 22 83 45 41 20
1114,78
5,96
46
1140,18 1137,51
7,75 6,75
5 9
1137,1
6,35
23
1161,35 793,5 922,81 1043,67 1059,04 1740,81 1711,99 1863,13
7,41 5,71 6,88 5,89 6,28 13,31 14,90 9,89
70 175 208 139 52 98 42 218
1646,66
12,92
43
1689,64
12,47
15
1487,29
10,04
25
1890,25
15,14
9
1718,21
15,26
35
1486,42
9,45
43
1632,11
14,53
28
1986,82
15,85
3
1610,97
10,14
57
1655,1
11,41
10
1454,13
9,20
1
Objek Wisata 42 31 300 489 80 43 43 308 47 39 219 245 117 73 8 88 67 41 51 83 94 425 126 16 88 34 47 33 48
29 30 31 32 33
Sulawesi Barat Maluku Maluku Utara Papua Barat Papua
1836,56 1617,36 1989,32 1597,52 1579,12
13,03 11,07 14,02 9,08 10,24
6 19 3 19 11
39 14 23 17 20
49
Lampiran 2. Hasil Output OLS Regression Analysis: Y versus X1; X2; X3 The regression equation is Y = 454 + 101 X1 + 0,242 X2 - 0,550 X3 Predictor Constant X1 X2 X3
Coef 454,5 100,577 0,2422 -0,5496
S = 164,489
SE Coef 108,0 8,897 0,5373 0,2514
R-Sq = 85,0%
T 4,21 11,30 0,45 -2,19
P 0,000 0,000 0,656 0,037
VIF 1,161 1,120 1,083
R-Sq(adj) = 83,4%
Analysis of Variance Source Regression Residual Error Total Source DF X1 1 X2 1 X3 1 Obs X1 1 7,3 2 5,3 3 5,5 4 4,2 5 5,9 6 6,0 7 7,8 8 6,7 9 6,4 10 7,4 11 5,7 12 6,9 13 5,9 14 6,3 15 13,3 16 14,9 17 9,9 18 12,9 19 12,5 20 10,0 21 15,1 22 15,3 23 9,5 24 14,5 25 15,8 26 10,1 27 11,4 28 9,2 29 13,0 30 11,1 31 14,0 32 9,1 33 10,2
DF 3 29 32
SS 4438372 784641 5223013
Seq SS 4307755 1312 129306 Y Fit 772,9 1169,8 709,4 990,6 840,7 849,5 658,6 614,2 929,1 1006,6 1114,8 1041,3 1140,2 1211,8 1137,5 966,0 1137,1 1073,1 1161,3 1195,5 793,5 951,2 922,8 1062,6 1043,7 1015,9 1059,0 1058,2 1740,8 1812,0 1712,0 1914,5 1863,1 1465,6 1646,7 1741,8 1689,6 1684,6 1487,3 1425,0 1890,3 1927,7 1718,2 1764,4 1486,4 1346,6 1632,1 1913,7 1986,8 2000,9 1611,0 1469,1 1655,1 1579,0 1454,1 1361,9 1836,6 1744,5 1617,4 1565,0 1989,3 1852,3 1597,5 1363,3 1579,1 1475,6
MS 1479457 27057
SE Fit 44,5 54,4 62,9 104,1 50,9 48,8 46,5 67,8 49,5 40,7 72,7 88,2 57,4 43,2 58,3 53,2 96,9 40,6 38,8 31,3 54,9 107,6 29,5 50,6 60,0 33,9 36,9 42,5 42,8 37,8 48,6 39,9 38,8
F 54,68
Residual -396,9 -281,2 -8,7 44,3 -77,5 73,5 -71,6 171,5 64,0 -34,1 -157,7 -139,8 27,8 0,8 -71,2 -202,5 397,5 -95,2 5,0 62,3 -37,4 -46,2 139,9 -281,6 -14,1 141,9 76,1 92,2 92,0 52,3 137,0 234,2 103,5
P 0,000
St Resid -2,51R -1,81 -0,06 0,35 X -0,50 0,47 -0,45 1,14 0,41 -0,21 -1,07 -1,01 0,18 0,01 -0,46 -1,30 2,99R -0,60 0,03 0,39 -0,24 -0,37 X 0,86 -1,80 -0,09 0,88 0,47 0,58 0,58 0,33 0,87 1,47 0,65
50
Lampiran 3. Pengelompokkan data dengan komponen Utama Principal Component Analysis: X1; X2; X3 Eigenanalysis of the Correlation Matrix Eigenvalue Proportion Cumulative Variable X1 X2 X3
1,5011 0,500 0,500 PC1 -0,627 0,576 0,525
0,8278 0,276 0,776 PC2 0,132 -0,586 0,800
0,6710 0,224 1,000 PC3 -0,768 -0,570 -0,292
51
Lampiran 4. Pengelompokkan Data dengan metode Ward Cluster Analysis of Observations: C7; C8; C9 Euclidean Distance, Ward Linkage Amalgamation Steps
Step 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
Number of clusters 32 31 30 29 28 27 26 25 24 23 22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1
Similarity level 95,302 95,084 94,548 94,340 94,240 93,073 92,002 90,758 90,632 89,859 89,810 86,978 86,184 85,871 85,424 85,242 84,120 82,957 79,299 74,382 68,974 68,501 68,151 67,076 59,404 56,805 56,431 24,739 1,252 -79,005 -118,471 -234,192
Distance level 0,2325 0,2433 0,2698 0,2801 0,2851 0,3428 0,3958 0,4574 0,4636 0,5019 0,5043 0,6445 0,6837 0,6993 0,7214 0,7304 0,7859 0,8435 1,0245 1,2679 1,5355 1,5589 1,5762 1,6294 2,0091 2,1377 2,1562 3,7246 4,8870 8,8589 10,8121 16,5391
Clusters joined 21 25 19 29 1 9 30 33 6 14 28 32 27 30 1 5 24 31 7 28 20 23 2 10 16 18 11 12 19 24 3 8 2 6 20 26 16 19 7 27 16 21 11 13 1 2 7 20 3 4 15 16 11 17 3 22 1 7 3 11 1 15 1 3
New cluster 21 19 1 30 6 28 27 1 24 7 20 2 16 11 19 3 2 20 16 7 16 11 1 7 3 15 11 3 1 3 1 1
Number of obs. in new cluster 2 2 2 2 2 2 3 3 2 3 2 2 2 2 4 2 4 3 6 6 8 3 7 9 3 9 4 4 16 8 25 33
Final Partition Number of clusters: 1
Cluster1
Number of observations 33
Within cluster sum of squares 96
Average distance from centroid 1,51086
Maximum distance from centroid 3,57283
52
Lampiran 5. Pengelompokkan Komponen Utama pada Data yang diboboti Principal Component Analysis: X1w; X2w; X3w Eigenanalysis of the Correlation Matrix Eigenvalue Proportion Cumulative Variable X1w X2w X3w
1,2768 0,426 0,426 PC1 0,207 0,626 -0,752
1,1300 0,377 0,802 PC2 0,839 -0,509 -0,193
0,5932 0,198 1,000 PC3 -0,504 -0,591 -0,630
53
Lampiran 6. Pengelompokkan Metode Ward pada Data yang diboboti Cluster Analysis of Observations: C7; C8; C9 Euclidean Distance, Ward Linkage Amalgamation Steps
Step 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
Number of clusters 32 31 30 29 28 27 26 25 24 23 22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1
Similarity level 96,825 95,304 94,228 93,689 93,499 93,251 92,177 91,999 91,366 89,570 89,167 87,754 85,997 84,937 83,540 82,961 82,880 78,486 75,584 74,804 72,024 66,741 64,506 60,881 60,098 53,799 51,427 23,066 21,360 -15,683 -88,223 -133,757
Distance level 0,1896 0,2804 0,3447 0,3769 0,3882 0,4030 0,4671 0,4778 0,5155 0,6228 0,6469 0,7312 0,8361 0,8994 0,9828 1,0174 1,0222 1,2846 1,4579 1,5045 1,6705 1,9859 2,1194 2,3358 2,3826 2,7587 2,9003 4,5938 4,6957 6,9075 11,2389 13,9578
Clusters joined 1 9 2 17 21 25 30 33 30 32 7 28 11 12 3 8 29 31 19 27 6 13 10 26 6 14 4 22 1 5 18 24 19 29 20 23 7 30 2 10 16 20 6 11 3 4 18 19 1 7 2 6 16 21 2 15 1 18 3 16 1 3 1 2
New cluster 1 2 21 30 30 7 11 3 29 19 6 10 6 4 1 18 19 20 7 2 16 6 3 18 1 2 16 2 1 3 1 1
Number of obs. in new cluster 2 2 2 2 3 2 2 2 2 2 2 2 3 2 3 2 4 2 5 4 3 5 4 6 8 9 5 10 14 9 23 33
Final Partition Number of clusters: 1
Cluster1
Number of observations 33
Within cluster sum of squares 96
Average distance from centroid 1,58747
Maximum distance from centroid 3,49654
54
Lampiran 7. Plot Normal Residual
55
Lampiran 8. Hasil Output WLS Regression Analysis: Yw versus X1w; X2w; X3w The regression equation is Yw = 2,28 + 118 X1w - 1,64 X2w - 1,83 X3w Predictor Constant X1w X2w X3w
Coef 2,2778 118,352 -1,642 -1,8332
S = 0,927427
SE Coef 0,5562 5,091 1,043 0,6885
R-Sq = 95,6%
Analysis of Variance Source DF SS Regression 3 543,83 Residual Error 29 24,94 Total 32 568,78 Source DF Seq SS X1w 1 537,19 X2w 1 0,55 X3w 1 6,10
T 4,10 23,25 -1,57 -2,66
P 0,000 0,000 0,126 0,013
VIF 1,084 1,125 1,145
R-Sq(adj) = 95,2% MS 181,28 0,86
Obs X1w Yw Fit SE Fit 1 0,040 4,227 6,377 0,247 2 0,029 3,880 4,653 0,328 3 0,012 1,813 2,326 0,315 4 0,009 1,420 1,262 0,488 5 0,032 5,081 5,101 0,225 6 0,033 6,097 5,290 0,229 7 0,050 7,284 7,584 0,270 8 0,015 2,453 2,751 0,342 9 0,035 6,219 5,711 0,248 10 0,041 6,351 6,056 0,259 11 0,012 1,645 2,252 0,304 12 0,014 1,913 2,328 0,348 13 0,012 2,163 2,804 0,298 14 0,034 5,792 5,142 0,206 15 0,096 12,518 12,339 0,588 16 0,107 12,311 13,299 0,427 17 0,021 3,861 3,709 0,352 18 0,093 11,841 12,226 0,279 19 0,090 12,150 12,044 0,241 20 0,064 9,502 8,637 0,199 21 0,109 13,592 13,817 0,393 22 0,033 3,705 4,369 0,387 23 0,060 9,496 7,500 0,372 24 0,104 11,736 14,101 0,314 25 0,114 14,287 14,571 0,402 26 0,065 10,292 8,946 0,244 27 0,073 10,574 10,253 0,231 28 0,059 9,290 8,837 0,302 29 0,094 13,206 12,778 0,285 30 0,071 10,333 10,286 0,278 31 0,101 14,305 13,868 0,341 32 0,058 10,206 8,748 0,273 33 0,065 10,088 9,667 0,288 Durbin-Watson statistic = 1,98653
F 210,76
P 0,000
Residual -2,150 -0,773 -0,513 0,158 -0,020 0,806 -0,299 -0,298 0,507 0,296 -0,607 -0,416 -0,641 0,650 0,179 -0,989 0,153 -0,385 0,106 0,864 -0,224 -0,664 1,996 -2,364 -0,284 1,346 0,321 0,453 0,428 0,046 0,437 1,458 0,421
St Resid -2,41R -0,89 -0,59 0,20 -0,02 0,90 -0,34 -0,35 0,57 0,33 -0,69 -0,48 -0,73 0,72 0,25 X -1,20 0,18 -0,44 0,12 0,95 -0,27 -0,79 2,35R -2,71R -0,34 1,50 0,36 0,52 0,49 0,05 0,51 1,65 0,48
56
Lampiran 9. Output WLS baru Regression Analysis: Yw versus X1w; X2w The regression equation is Yw = 1,55 + 126 X1w - 0,837 X2w Predictor Constant X1w X2w
Coef 1,5457 125,580 -0,8371
S = 1,39780
SE Coef 0,7947 8,080 0,8616
R-Sq = 90,7%
Analysis of Variance Source DF SS Regression 2 572,07 Residual Error 30 58,62 Total 32 630,69 Source DF X1w 1 X2w 1 Obs X1w 1 0,044 2 0,032 3 0,014 4 0,011 5 0,035 6 0,036 7 0,046 8 0,018 9 0,038 10 0,044 11 0,015 12 0,018 13 0,035 14 0,038 15 0,096 16 0,107 17 0,081 18 0,093 19 0,090 20 0,082 21 0,109 22 0,040 23 0,077 24 0,104 25 0,114 26 0,083 27 0,093 28 0,075 29 0,094 30 0,090 31 0,101 32 0,074 33 0,084
Seq SS 570,23 1,84 Yw 4,623 4,243 2,209 1,730 5,557 6,668 6,820 2,988 6,802 6,947 2,085 2,424 6,243 6,335 12,518 12,311 15,228 11,841 12,150 12,156 13,592 4,514 12,149 11,736 14,287 13,167 13,528 11,885 13,206 13,219 14,305 13,057 12,907
Fit 6,811 5,372 2,687 1,843 5,561 5,806 7,154 3,095 6,082 6,918 2,949 3,278 5,382 5,895 13,512 14,468 11,243 12,966 12,502 11,286 14,651 5,646 10,388 14,569 15,328 11,717 12,939 10,763 13,073 12,815 14,065 10,753 11,915
T 1,94 15,54 -0,97
P 0,061 0,000 0,039
VIF 1,155 1,155
R-Sq(adj) = 90,1% MS 286,04 1,95
F 146,40
P 0,000
SE Fit 0,374 0,477 0,466 0,726 0,333 0,413 0,357 0,456 0,387 0,380 0,443 0,423 0,348 0,329 0,423 0,492 0,302 0,331 0,311 0,370 0,525 0,581 0,593 0,428 0,538 0,299 0,329 0,288 0,337 0,383 0,396 0,354 0,346
Residual -2,187 -1,129 -0,478 -0,113 -0,003 0,862 -0,334 -0,106 0,720 0,029 -0,865 -0,854 0,861 0,440 -0,995 -2,157 3,985 -1,125 -0,352 0,870 -1,059 -1,132 1,761 -2,833 -1,041 1,450 0,588 1,122 0,133 0,405 0,240 2,304 0,992
St Resid -1,62 -0,86 -0,36 -0,09 -0,00 0,65 -0,25 -0,08 0,54 0,02 -0,65 -0,64 0,64 0,32 -0,75 -1,65 2,92R -0,83 -0,26 0,65 -0,82 -0,89 1,39 -2,13R -0,81 1,06 0,43 0,82 0,10 0,30 0,18 1,70 0,73
57
Lampiran 10. Lavene test untuk Heteroskedastisitas Tests Method F Test (normal) Levene's Test (any continuous)
DF1 32 1
DF2 32 64
Test Statistic 0,18 28,10
P-Value 0,000 0,001
Lampiran 11. Lavene test untuk Homoskedastisitas Tests Method F Test (normal) Levene's Test (any continuous)
DF1 32 1
DF2 32 64
Test Statistic 10,16 1,91
P-Value 0,001 0,182
58