PERBANDINGAN METODE REGRESI KUADRAT TERKECIL DENGAN METODE KEKAR
HENDRA YULFI
DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2011
ABSTRACT HENDRA YULFI. Comparison of Least Squares Regression Methods with Robust Methods. Supervised by N.K. KUTHA ARDANA and HADI SUMARNO. Ordinary least squares method is generally used to estimate parameter of a linear model. However, ordinary least squares is vulnerable against outliers because this method treats every element of data with equal weight. To overcome this problem, several studies have been done to find methods that produce more robust estimator. The robust methods being studied in this paper are weighted least squares, least absolute deviations, least median squares, and least trimmed squares methods. The comparison among those methods indicates that the method of least absolute deviation and weighted least squares are more resistant in case of the presence of outliers in the dependent variable. Meanwhile, least median squares and least trimmed squares methods are resistant to the presence of outliers both in the dependent and independent variable.
ABSTRAK HENDRA YULFI. Perbandingan Metode Regresi Kuadrat Terkecil dengan Metode Kekar. Dibimbing oleh N.K. KUTHA ARDANA dan HADI SUMARNO. Metode Kuadrat Terkecil secara umum digunakan dalam pendugaan model linear. Namun metode Kuadrat Terkecil kurang cocok digunakan pada kasus gugus data yang berisi pencilan, karena metode ini memperlakukan semua data pengamatan dengan bobot yang sama. Untuk mengatasi masalah tersebut, dilakukan penelitian pendugaan parameter lain yang lebih kekar (robust) dalam mengatasi pencilan, yaitu Metode Kuadrat Terkecil Terboboti, metode Simpangan Mutlak Terkecil, metode Median Terkecil Kuadrat Terkecil, dan metode Kuadrat Terkecil Terpangkas. Hasil pembandingan antar metode menunjukkan metode Simpangan Mutlak Terkecil dan metode Kuadrat Terkecil Terboboti lebih tahan akan keberadaan pencilan namun hanya pencilan terhadap peubah tidak bebas (Y), sedangkan metode Median Terkecil Kuadrat dan metode Kuadrat Terkecil Terpangkas tahan akan keberadaan pencilan baik pencilan terhadap peubah tidak bebas (Y) maupun terhadap peubah bebas (X) sehingga menghasilkan dugaan parameter yang baik.
PERBANDINGAN METODE REGRESI KUADRAT TERKECIL DENGAN METODE KEKAR
HENDRA YULFI
Skripsi sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains pada Departemen Matematika
DEPERTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR BOGOR 2011
Judul Skripsi : Perbandingan Metode Regresi Kuadrat Terkecil dengan Metode Kekar Nama : Hendra Yulfi NIM : G54063014
Menyetujui,
Pembimbing I,
Ir. Ngakan Komang Kutha Ardana,M.Sc. NIP. 19640823 198903 1 001
Pembimbing II,
Dr. Ir. Hadi Sumarno,MS. NIP. 19590926 198501 1 001
Mengetahui, Ketua Departemen Matematika
Dr. Dra. Berlian Setiawaty, MS. NIP. 19650505 198903 2 004
Tanggal Lulus:
RIWAYAT HIDUP Penulis dilahirkan di Payakumbuh pada tanggal 22 November 1988 dari Bapak Firmansyah dan Ibu Yulhaida. Penulis merupakan anak pertama dari empat bersaudara. Tahun 2006 penulis lulus dari SMA Negeri 1 Curug Tangerang dan pada tahun yang sama lulus seleksi masuk IPB melalui jalur Ujian Seleksi Masuk Institut Pertanian Bogor (USMI). Penulis melanjutkan studi di Departemen Matematika, Fakultas Matematika dan Ilmu Pengetahuan Alam. Selama mengikuti perkuliahan, penulis aktif dalam himpunan profesi Gugus Mahasiswa Matematika IPB sebagai Anggota pada tahun 2007.
PRAKATA Puji dan syukur penulis panjatkan kepada Allah SWT yang selalu memberikan rahmat, hidayat dan karunia-Nya sehingga penulis dapat menyelesaikan karya ilmiah yang berjudul “Perbandingan Metode Regresi Kuadrat Terkecil dengan Metode Kekar”. Banyak suka dan duka yang telah penulis alami selama penyusunan karya ilmiah ini. Tapi berkat dorongan dari keluarga, teman dan dosen pembimbing, akhirnya penulis berhasil menyelesaikan karya ilmiah ini. Penulis menyadari keterbatasan dan kekurangan yang dimiliki, oleh karena itu penulis membutuhkan banyak bantuan dan dukungan dari berbagai pihak yang telah memberikan kontribusi dalam penyusunan karya ilmiah ini, baik secara langsung maupun tak langsung. Penulis bermaksud mengucapkan terima kasih yang sebesar-besarnya kepada: kedua orang tua (ayah dan ibu) yang selalu memberikan kasih sayang, semangat, bekal dan do’a; Anggi Dwi Putri yang terus mendorong penulis agar tetap semangat; Bapak Ir. Ngakan Komang Kutha Ardana, M.Sc dan Bapak Dr. Ir. Hadi Sumarno, MS selaku pembimbing yang telah memberikan pengarahan, masukan, serta semangat dalam penelitian dan penulisan karya ilmiah ini; Ibu Ir. Retno Budiarti, MS atas masukan-masukannya yang bermanfaat; Bapak dan Ibu dosen; Staf TU Matematika (Pak Yono, Bu Ade, Bu Susi, Mas Heri, Mas Deny, Mas Bono, dkk.) yang telah membantu kelancaran administrasi; Apri, Manto, dan Boy sebagai rekan diskusi yang telah memberikan banyak pencerahan; Rekan-rekan Math 43 (Emta, Peli, Albrian, Andruw, Resti, Zul); Rekan-rekan Math 42, 44, dan 45; Bocah-bocah Pondok Wina (Tukul, Bete, Nodi, Hengky, Ijo, Miftah, Ongkrek, Koko, Abok, Riqi, Kris, Ekay, Bayu, Gondes, Nanang); Bocah-bocah Jojoba (Dono, Risal, Ipank, Fiul, Ridho, Tedi, Tito, Onta, Wahyu); Adik-adik tersayang; Semua sahabat atas do’a, saran, motivasi, masukan, serta dukungannya kepada penulis; serta seluruh pihak yang tak dapat penuis sebutkan satu per satu. Semoga karya ilmiah ini bermanfaat.
Bogor, Mei 2010
Hendra Yulfi
DAFTAR ISI Halaman DAFTAR ISI .............................................................................................................................. vii DAFTAR TABEL ..................................................................................................................... viii DAFTAR GAMBAR ................................................................................................................ viii DAFTAR LAMPIRAN ............................................................................................................. viii I
PENDAHULUAN .................................................................................................................. 1 1.1 Latar Belakang .................................................................................................................. 1 1.2 Tujuan ............................................................................................................................... 1
II LANDASAN TEORI .............................................................................................................. 1 2.1 2.2 2.3 2.4 2.5 2.6 2.8 2.9 2.10 2.11 2.12 2.13 2.14 2.15 2.16 2.17 2.18
Regresi Linear ................................................................................................................ Regresi Linear Sederhana .............................................................................................. Persamaan Regresi Linear .............................................................................................. Pendugaan Koefisien Regresi Linear Sederhana ........................................................... Pencian ........................................................................................................................... Regresi Kekar ................................................................................................................ Metode Kekar ................................................................................................................ Metode Median Kuadrat Terkecil .................................................................................. Prosedur Metode Median Kuadrat Terkecil ................................................................... Prosedur Metode Kuadrat Terkecil Terboboti ............................................................... Metode Simpangan Mutlak Terkecil .............................................................................. Metode Penyelesaian Simpangan Mutlak Terkecill ....................................................... Prosedur Metode Iteratif Kuadrat Terkecil Terboboti .................................................... Prosedur Metode Kuadrat Terkecil Terpangkas ............................................................. Rataan Persentase Galat Mutlak (Mean Absolut Percentage Error, MAPE) ................. Koefisien Determinasi ................................................................................................... Box-and-Whisker-Plot ....................................................................................................
1 1 2 2 2 2 2 3 3 3 3 4 4 4 4 4 4
III METODOLOGI PENELITIAN .............................................................................................. 5 IV HASIL DAN PEMBAHASAN ............................................................................................... 6 4.1 Pembangkitan Data ........................................................................................................... 6 4.2 Proses Pengolahan Data .................................................................................................... 6 4.3 Hasil .................................................................................................................................. 7 4.4 Pembahasan .................................................................................................................... 11 V SIMPULAN DAN SARAN .................................................................................................. 13 5.1 Simpullan ........................................................................................................................ 13 5.2 Saran ............................................................................................................................... 14 DAFTAR PUSTAKA ................................................................................................................ 14 LAMPIRAN ............................................................................................................................... 15
DAFTAR TABEL Halaman Tabel 1 Q1, Q2, Q3, nilai max, nilai min dan rataan dari galat untuk data tanpa pencilan ........... 12 Tabel 2 Q1, Q2, Q3, nilai max, nilai min dan rataan dari galat untuk data dengan pencilan terhadap Y ...................................................................................................................... 12 Tabel 3 Q1, Q2, Q3, nilai max, nilai min dan rataan dari galat untuk data dengan pencilan terhadap X ...................................................................................................................... 19
DAFTAR GAMBAR Halaman Gambar 1 Gambar 2 Gambar 3 Gambar 4 Gambar 5 Gambar 6 Gambar 7 Gambar 8 Gambar 9 Gambar 10 Gambar 11 Gambar 12 Gambar 13 Gambar 14 Gambar 15 Gambar 16 Gambar 17 Gambar 18 Gambar 19 Gambar 20 Gambar 21 Gambar 22 Gambar 23 Gambar 24
Bentuk umum box-and-whisker-plot .................................................................. Diagram alur penelitian .................................................................................... Model linear dengan metode OLS untuk data tanpa pencilan .................................. Model linear dengan metode LMS untuk data tanpa pencilan .................................. Model linear dengan metode LAD untuk data tanpa pencilan .................................. Model linear dengan metode LTS untuk data tanpa pencilan ................................... Model linear dengan metode WLS untuk data tanpa pencilan ................................. Model linear perbandingan metode OLS, LMS, LAD, LTS, dan WLS tanpa pencilan .................................................................................................................... Model linear dengan metode OLS untuk data dengan pencilan terhadap Y ............. Model linear dengan metode LMS untuk data dengan pencilan terhadap Y ............. Model linear dengan metode LAD untuk data dengan pencilan terhadap Y ............. Model linear dengan metode LTS untuk data dengan pencilan terhadap Y .............. Model linear dengan metode WLS untuk data dengan pencilan terhadap Y ............. Model linear perbandingan metode OLS, LMS, LAD, LTS, dan WLS dengan pencilan terhadap Y ................................................................................................... Model linear dengan metode OLS untuk data dengan pencilan terhadap X ............. Model linear dengan metode LMS untuk data dengan pencilan terhadap X ............. Model linear dengan metode LAD untuk data dengan pencilan terhadap X ............. Model linear dengan metode LTS untuk data dengan pencilan terhadap X .............. Model linear dengan metode WLS untuk data dengan pencilan terhadap X ............ Model linear perbandingan metode OLS, LMS, LAD, LTS, dan WLS dengan pencilan terhadap X .................................................................................................. Model linear dengan metode LAD untuk data simetris tanpa pencilan .................... Diagram kotak untuk setiap data awal tanpa pencilan .............................................. Diagram kotak untuk setiap data dengan pencilan terhadap Y .................................. Diagram kotak untuk setiap data dengan pencilan terhadap X .................................
4 5 7 7 7 8 8 8 8 8 9 9 9 9 10 10 10 10 11 11 11 12 13 13
DAFTAR LAMPIRAN Halaman Lampiran 1 Lampiran 2 Lampiran 3 Lampiran 4 Lampiran 5 Lampiran 6
Implementasi metode ke dalam pemograman fungsional Mathematica ................... Membangkitkan data hipotetik tanpa pencilan ......................................................... Membangkitkan data hipotetik dengan pencilan terhadap Y .................................... Membangkitkan data hipotetik dengan pencilan terhadap X .................................... Membangkitkan data hipotetik simetris tanpa pencilan ............................................ Mencari nilai persentase galat mutlak untuk setiap metode untuk data tanpa pencilan ....................................................................................................................
16 19 23 25 29 31
1
I PENDAHULUAN 1.1 Latar Belakang Dunia teknologi mengalami perkembangan yang sangat pesat. Hal ini ditandai dengan banyak penemuan yang dapat mempermudah kebutuhan hidup manusia. Seiring dengan berkembangnya matematika dan statistika, telah banyak metode komputasi yang diterapkan dalam berbagai bidang sebagai dasar bagi pengambilan keputusan seperti penganalisaan, peramalan dan lainnya. Kita dapat menggunakan berbagai metode yang memungkinkan untuk melihat jauh di luar data yang dikumpulkan dan masuk ke dalam wilayah pengambilan keputusan melalui penganalisaan dan peramalan. Salah satu model yang telah diterapkan secara luas di berbagai bidang adalah model regresi. Regresi dapat digunakan untuk memprediksi nilai peubah tidak bebas berdasarkan nilai peubah bebas yang diketahui. Sejak regresi menjadi populer dalam berbagai area penelitian, analisis regresi telah menerapkan berbagai teknik. Telah banyak metode regresi digunakan akan tetapi hasilnya terkadang kurang tepat untuk gugus data tertentu. Oleh karena itu, pencarian metode regresi yang terbaik untuk berbagai data adalah tujuan yang tidak pernah berakhir. Analisis regresi digunakan untuk menggambarkan hubungan antara dua atau lebih peubah, yang salah satu peubahnya
merupakan peubah tak bebas dan lainnya merupakan peubah bebas. Metode yang umum digunakan dalam menduga parameter regresi adalah Ordinary Least Squares (OLS). Adanya pencilan pada Regresi Linear Sederhana yang menggunakan metode Ordinary Least of Squares (OLS) atau metode Kuadrat Terkecil merupakan masalah karena penduga parameter pada OLS sensitif terhadap pencilan. Untuk mengatasi masalah tersebut, banyak penelitian dilakukan untuk mencari alternatif pendugaan parameter lain yang lebih kekar (robust) dalam mengatasi pencilan. Metodemetode tersebut antara lain adalah metode Kuadrat Terkecil Terboboti (Weighted Least Squares), metode Simpangan Mutlak Terkecil (Least Absolute Deviations), metode Median Terkecil Kuadrat (Least Median Squares), dan metode Kuadrat Terkecil Terpangkas (Least Trimmed Squares). 1.2 Tujuan 1. Mengkaji dan membandingkan metode regresi biasa OLS dengan metode regresi kekar LMS, LAD, LTS, dan WLS. 2. Menerapkan teknik komputasi Metode LMS, LAD, LTS, dan WLS dengan Pemograman Fungsional Mathematica.
II LANDASAN TEORI 2.1 Regresi Linear 1 Yi Xi
: peubah tak bebas : peubah bebas :vektor parameter regresi :vektor galat
; i = 1, 2, …, n ; i = 1, 2, …, n ; i = 1, 2, …, n ; i = 1, 2, …, n
2.2 Regresi Linear Sederhana Menurut Myers (1990), regresi linear sederhana adalah regresi yang hanya memiliki satu peubah regresor (peubah bebas), misalkan X. Diberikan deskripsi Yi = β0 + β1 Xi + εi i = 1, 2,…, n
2
Dengan menggunakan data berpasangan {(xi, yi)} untuk i = 1, 2, … , n, akan dicari dugaan parameter β0 dan β1.. Metode Kuadrat Terkecil dirancang untuk menghasilkan penduga b0 dan b1 untuk menduga β0 dan β1, dan nilai dugaan y= b 0 + b 1 xi i
3
yang meminimumkan jumlah kuadrat galat n
n
JKG= = yi -y i i=1
i=1
2
2
2.3 Persamaan Regresi Linear Model Regresi Linear dapat dinyatakan dalam persamaan:
4 Keterangan: :vektor peubah tak bebas berukuran n x 1 :vektor parameter regresi berukuran p x 1 :matriks peubah bebas berukuran n x p :vektor galat berukuran nx1 (Myers 1990) 2.4 Pendugaan Koefisien Regresi Linear Metode Kuadrat Terkecil adalah suatu metode untuk menghitung koefisien regresi sampel () sebagai penduga koefisien regresi populasi (), sedemikian rupa sehingga jumlah kuadrat galatnya memiliki nilai terkecil. Dengan bahasa matematik, dapat dinyatakan sebagai berikut: Model sebenarnya adalah Model estimasinya adalah
(6)
Jumlah kuadrat galat adalah
(7)
Jadi metode Kuadrat Terkecil adalah metode menghitung sedemikian rupa sehingga persamaan (7) minimum. Caranya adalah dengan membuat turunan parsial mula-mula terhadap dan menyamakan dengan nol. 2
0
2 0
2 2 0
Misalkan terdapat n buah data pengamatan y1, y2, ..., yn. Q1 dan Q3 berturutturut adalah kuartil pertama dan ketiga data pengamatan. Pencilan antara lain dapat dideteksi sebagai pengamatan yang lebih besar dari Q3 + 1.5 (Q3 – Q1) atau lebih kecil dari Q1 – 1.5 (Q3 – Q1). (Tukey 1979) 2.6 Regresi Kekar Regresi kekar ditujukan untuk mengatasi penyimpangan-penyimpangan sebagai pengganti metode OLS. Kelebihan metode tersebut adalah kurang peka dibandingkan kuadrat terkecil terhadap penyimpangan-penyimpangan yang sering terjadi dari asumsi ideal. (Huber 1981)
(5)
Galat (error) adalah
2.5 Pencilan Pencilan (outlier) didefinisikan sebagai suatu pengamatan yang tampak bertentangan atau tidak konsisten terhadap pengamatan yang lain. (Barnett & Lewis 1994)
(8) (9) (Draper & Smith 1992)
2.7 Metode Kekar Metode alternatif lainnya yang bersifat kekar atau tahan terhadap data pencilan antara lain: 1. Metode Kuadrat Terkecil Terboboti (Weighted Least Squares, WLS) 2. Metode Simpangan Mutlak Terkecil (Least Absolute Deviations, LAD) 3. Metode Kuadrat Terkecil Terpangkas (Least Trimmed Squares, LTS) 4. Metode Median Kuadrat Terkecil (Least Median of Squares, LMS) (Yaffee 2002) 2.8 Metode Median Kuadrat Terkecil Metode Median Kuadrat Terkecil adalah salah satu metode estimasi dari keluarga regresi kekar. Metode ini melakukan penghitungan dengan menghilangkan pengaruh-pengaruh residu. Dengan menggunakan penduga yang dihasilkan akan lebih kekar dalam menghadapi pencilan, sehingga untuk menghasilkan galat terkecil metode Kuadrat Median Terkecil memiliki fungsi minimize med % $
(Rousseeuw 1984)
3
2.9 Prosedur Metode Median Kuadrat Terkecil Misalkan diberikan sebuah gugus data sampel berukuran N, dan ingin diduga vektor θ berdimensi p yang berisi parameter dari gugus data tersebut. Langkah-langkah yang dilakukan adalah : 1. Tentukan ukuran subset n, tentukan jumlah subset M, dan tentukan juga batas kesalahan yang diinginkan γ 2. Secara acak, ambil M buah subset berukuran n dari sampel berukuran N. Cari dugaan parameter θ' j untuk setiap subset. Cari median dari kuadrat galat e2ij dari setiap subset. Indeks i adalah indeks untuk sampel, i = 1, 2, 3, …, n dan indeks j adalah untuk subset, j = 1, 2, 3, …, M 3. Definisikan m = arg min med (e2ij )
sehingga subset θ' m merupakan subset dengan median kuadrat galat terkecil dan {eim} adalah vektor galat yang dihasilkan subset tersebut, 4. Hitung 5 + ,medi e2im
10 S0 = 1.4826 *1+ N-p 5. Hitung bobot wi, misalkan dengan j
wi =1 , - - ≤ γ dan wi = ei
S0
i
s0
|ei |
, lainnya
6. Berikan bobot wi kepada setiap sampel. 7. Lakukan pengepasan dengan menggunakan metode Weighted Least Squares menggunakan {wi} sebagai bobot untuk mendapatkan /' final. (Yingying C 2009) 2.10 Prosedur Metode Kuadrat Terkecil Terboboti 1. Hitung galat model 0 123 4 , 6 dengan: 0 = data pengamatan ke-i, 123 4 , 6 = data hasil pendugaan ke-i, i = 1, 2 ,…, n 2. Hitung bobot data pengamatan ke-i ( wi ) yang didefinisikan sebagai berikut: 1 jika < = ? 7 8= jika > = dengan: m = 1.345σ ; i = 1, 2, …, n σ = simpangan baku galat 3. Minimumkan jumlah kuadrat terkecil terboboti :
12
galat
min 8@ 6 7 B A
(Huber 1981)
Pada metode Kuadrat Terkecil Terboboti ini, data pencilan diberi bobot < 1 sehingga memiliki peranan yang kecil pada saat peminimuman jumlah kuadrat galat. Oleh karena itu, metode ini menjadi tahan terhadap pengaruh pencilan (bersifat robust). 2.11 Metode Simpangan Mutlak Terkecil Metode ini merupakan bentuk lain dari metode Kuadrat Terkecil Terboboti [Tanika, 2006]. Paramater p diduga dengan cara meminimumkan jumlah nilai mutlak galat sebagai berikut:
min 8@ 6 C0 g23 4 , 6CB dengan:
A
0 = data pengamatan ke-i, 1x3 4 , 6 = data hasil pendugaan ke-i, i = 1, 2,…, n (Huber 1981) 2.12 Metode Penyelesaian Simpangan Mutlak Terkecil Untuk menyelesaikan metode Simpangan Mutlak Terkecil sudah banyak metode yang dipergunakan antara lain: metode Modifikasi Simplex, metode Iteratif Kuadrat Terkecil. Walaupun ide dasar dari metode Simpangan Mutlak Terkecil sekilas terlihat lebih mudah dari metode Kuadrat Terkecil. Namun ternyata tidak mudah untuk menghitungnya secara efisien. Hal ini dikarenakan metode Simpangan Mutlak Terkecil tidak memiliki metode penyelesaian secara analitik. Oleh sebab itu pendekatan secara iteratif dibutuhkan untuk menyelesaikannya. Terdapat beberapa teknik penyelesaian metode Simpangan Mutlak Terkecil antara lain: 1. Metode Modifikasi Simpleks dengan algoritma Barrodale-Roberts. (Barrodale-Roberts, 1973) 2. Metode Iteratif Kuadrat Terkecil Terboboti (Iteratively Re-weighted Least Squares). (Schlossmacher, 1973) 3. Metode Turunan Langsung Wesolowsky’s (Wesolowsky’s Direct Descent Method). (Wesolowsky, 1981)
4
4.
Metode Pendekatan Maximum Likelihood Li-Arce’s (Li-Arce’s Maximum Likelihood Approach). (Li-Arce, 2003) (Pfeil 2006)
2.13 Prosedur Metode Iteratif Kuadrat Terkecil Terboboti Metode Iteratif Kuadrat Terkecil Terboboti (IRLS) digunakan untuk menyelesaikan masalah optimasi tertentu. Metode ini menyelesaikan fungsi objektif dalam bentuk:
arg min 7 |0 G | , A
Metode iteratif ini setiap langkahnya melibatkan penyelesaian masalah kuadrat terkecil terboboti dalam bentuk: HI
arg min 7 H |0 G | A
2.14 Prosedur Metode Kuadrat Terkecil Terpangkas 1. Hitung galat model 0 123 4 , 6 dengan: 0 = data pengamatan ke-i, 123 4 , 6 = data hasil pendugaan ke-i, i = 1, 2 ,…, n 2. Urutkan kuadrat galat tersebut dari yang terkecil sampai dengan yang terbesar: 3.
JK , JK , … , JK
Minimumkan jumlah dari q kuadrat galat terkecil:
min 8@ 6 JK B A
dengan: PI M N O N O, P = banyaknya parameter; Q2R bilangan bulat terbesar < 2 (Cizek 2002)
2.15 Rataan Persentase Galat Mutlak (Mean Absolute Percentage Error, MAPE) MAPE digunakan untuk membandingkan tingkat akurasi penduga antar model. MAPE didefinisikan oleh rumus: 1 0 0^ XYZ[ ] ] _ 100% 13 \ 0 A
dengan 0 adalah nilai aktual dan 0^ adalah nilai pendugaan. Rentang norma MAPE adalah [0,100]. Semakin kecil nilai MAPE, model dinilai semakin baik.
2.16 Koefisien Determinasi Koefisien determinasi, R2, menyatakan proporsi keragaman data yang dapat dijelaskan oleh model. Untuk model linear sederhana, R2 merupakan kuadrat dari koefisien korelasi, sehingga R2 Є [0,100] %. Makin tinggi nilai R2 makin representatif model tersebut. (Rodgers & Nicewander 1988) 2.17 Box-and-Whisker-Plot Box-and-whisker plot digunakan untuk melihat bentuk tebaran dan keragaman dari suatu gugus data. Box-and-whisker plot terdiri atas: • sebuah kotak yang mewakili data yang terletak diantara kuartil ke-1(Q1) dan kuartil ke-3(Q3), • whisker yang mewakili data yang terletak diantara data terkecil dan kuartil ke-1(Q1), dan • whisker yang mewakili data yang terletak diantara kuartil ke-3(Q3) dan data terbesar. Di dalam kedua whisker bisa terdapat pencilan.
Dari prosedur ini terlihat bahwa beberapa galat terbesar (yang diantaranya dihasilkan oleh pencilan) dipangkas (diberi bobot nol) pada saat peminimuman jumlah kuadrat galat. Oleh karena itu, Metode Kuadrat Terkecil Terpangkas menjadi tahan terhadap pengaruh pencilan (bersifat robust). Gambar 1 Bentuk umum box-and-whiskerplot (Weisstein 199
5
III METODOLOGI PENELITIAN
MEMBANGKITKAN DATA
TANPA PENCILAN
OLS
LMS
DENGAN PENCILAN
LAD
LTS
WLS
MEMBANDINGKAN HASIL DUGAAN PARAMETER OLS, LMS, LAD, LTS, DAN WLS
STOP Gambar 2 Diagram alur penelitian Alur penelitian dapat diuraikan sebagai berikut: 1.
Tahap pembangkitan Data Dilakukan pembangkitan 3 gugus data berukuran n = 20 berdasarkan model regresi Y = β0 + β1X + ei. Gugus data 1 merupakan data tanpa pencilan. Gugus data 2 merupakan data dengan pencilan terhadap Y. Gugus data 3 merupakan data dengan pencilan terhadap X. 2.
Tahap pengolahan dengan metode OLS Meregresikan gugus data 1, 2, dan 3 dengan menggunakan Ordinary Least Square (OLS) dan menentukan nilai , , dan . 3.
Tahap pengolahan dengan metode LMS Pada metode ini akan dilakukan penentuan sampel sebanyak N dari data yang telah dibangkitkan. Kemudian akan diperoleh M kali pengambilan sampel yang
akan diperoleh M subset. Subset-subset tersebut akan diregresikan antar peubah X dan Y dengan OLS. Dari masing-masing subset akan diperoleh hasil regresi dan mencari nilai median kuadrat galat yang paling kecil. Dugaan parameter subset dengan median kuadrat galat terkecil akan digunakan sebagai hasil LMS. 4.
Tahap pengolahan dengan metode LAD Pada metode ini akan dilakukan penentuan sampel sebanyak N dari data yang telah dibangkitkan. Peubah X dan Y diregresikan dengan OLS sehingga diperoleh galat. Kemudian dihitung bobot data pengamatan dan diregresikan kembali. Itu semua dilakukan secara berulang. Selanjutnya meminimumkan jumlah dari nilai mutlak galat. 5.
Tahap pengolahan dengan metode LTS Pada metode ini akan dilakukan penentuan sampel sebanyak N dari data yang
6
telah dibangkitkan. Kemudian peubah X dan Y diregresikan dengan OLS sehingga diperoleh kuadrat galat. Kuadrat galat diurutkan dari yang terkecil sampai dengan yang terbesar, lalu dilakukan pemangkasan. Langkah terakhir minimumkan jumlah dari kuadrat galat terkecil. 6.
Tahap pengolahan dengan metode WLS Pada metode ini akan dilakukan penentuan sampel sebanyak N dari data yang telah dibangkitkan. Peubah X dan Y diregresikan dengan OLS sehingga
diperoleh kuadrat galat. Bobot data pengamatan dihitung dan diregresikan kembali. Jumlah kuadrat galat terboboti, kemudian diminimumkan. 7.
Tahap pembandingan hasil pendugaan parameter Pada tahap akhir ini akan dibandingkan Rataan Persentase Galat Mutlak (MAPE) dan hasil dari dugaan kelima metode di atas. Dugaan parameter yang dihasilkan akan ditampilkan dalam bentuk tebaran data (scatter plot) dan persamaan regresi.
IV HASIL DAN PEMBAHASAN 4.1 Pembangkitan Data Pada kasus ini dilakukan pembangkitan 3 gugus data berukuran n = 20 berdasarkan model regresi Y = β0 + β1X + ei dengan cara sebagai berikut : • Gugus data 1. Data tanpa pencilan. a. Ditentukan β0 = 10 & β1 = 10 dan ei ~ N (0,5) b. Dibangkitkan nilai Y dengan memasukkan nilai X = 1,2,…20 • Gugus data 2. Data dengan pencilan terhadap X. a. Ditentukan β0 = 10 & β1 = 10 dan ei ~ N (0,5) b. Dibangkitkan nilai X = 1,2,…,20 kemudian mengubah nilai X = 17 menjadi X = 30 dan X = 19 menjadi X = 40. • Gugus data 3. Data dengan pencilan terhadap Y. a. Ditentukan β0 = 10 & β1 = 10 dan ei ~ N (0,5) b. Dibangkitkan nilai Y dengan memasukkan nilai X = 1,2,…20 kemudian mengubah nilai Y = 17 menjadi Y = 300 dan Y = 19 menjadi Y = 500. 4.2 Proses Pengolahan Data 4.2.1 Pengolahan Data dengan OLS Gugus data 1, 2, dan 3 diregresikan dengan metode OLS. Tentukan nilai , , , dan MAPE. 4.2.2 Pengolahan Data dengan LMS a. Meregresikan gugus data 1, 2, dan 3 dengan metode OLS. Menentukan nilai , , , dan MAPE.
b. c.
d. e.
f. g. h.
Membagi setiap gugus data secara random kedalam 5 anak gugus data. Meregresikan setiap anak gugus data dengan metode OLS dan dicari mediannya. Menentukan minimum median dari tiap anak gugus. Mnentukan menggunakan dari hasil regresi gugus data yang mempunyai median yang paling minimum. Menentukan kuadrat galat
. Menentukan S0 dan hitung bobot wi untuk mendapatkan dan final. Menentukan MAPE.
4.2.3 Pengolahan Data dengan LAD a. Meregresikan gugus data 1, 2, dan 3 dengan metode OLS. Menentukan nilai , , , dan MAPE. b. Menentukan standar deviasi dari . c. Menghitung bobot wi. d. Meregresikan kembali. e. Lakukan secara berulang (iteratively) sampai mendapatkan yang relatif stabil. f. Menentukan MAPE. 4.2.4 Pengolahan Data dengan LTS a. Meregresikan gugus data 1, 2, dan 3 dengan metode OLS. Menentukan nilai , , , dan MAPE. b. Menentukan kuadrat galat
. c. Mengurutkan kuadrat galat tersebut dari yang terkecil sampai dengan yang terbesar.
7
Melakukan pemangkasan sebesar a \ 1b dari data. Kemudian meregresikan kembali hingga mendapatkan dan final. Menentukan MAPE.
e. f.
4.2.5 Pengolahan Data dengan WLS a. Meregresikan gugus data 1, 2, dan 3 dengan metode OLS. Menentukan nilai , , , dan MAPE. b. Menentukan kuadrat galat
. c. Menentukan standar deviasi dari . d. Menghitung bobot wi. e. Meregresikan kembali hingga mendapatkan dan final. f. Menentukan MAPE.
200
150
y
d.
100
50
5
15
20
x
Gambar 4 Model linear dengan metode LMS untuk data tanpa pencilan 4.3.3 Metode LAD untuk data tanpa pencilan (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LAD yaitu: 'drs 10.8228 9.9661
4.3 Hasil
MAPE 9.8 %
4.3.1 Metode OLS untuk data tanpa pencilan (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode OLS yaitu: 'cde 11.6346 9.9577
10
200
150
y
MAPE 7.3 %
100
R 99.2860
50
5
200
10
15
20
x
Gambar 5 Model linear dengan metode LAD untuk data tanpa pencilan
y
150
4.3.4 Metode LTS untuk data tanpa pencilan (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LTS yaitu:
100
50
5
10
15
20
x
Gambar 3 Model linear dengan metode OLS untuk data tanpa pencilan 4.3.2 Metode LMS untuk data tanpa pencilan (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LMS yaitu: 'dqe 9.8636 10.0765 MAPE 8.1 %
'de 10.1312 10.0163
MAPE 6.6 %
8
4.3.6 Metode OLS untuk data dengan pencilan terhadap Y (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode OLS yaitu:
200
150
y
'cde 19.9975 14.9672
100
MAPE 29.9 %
50
5
10
15
R2 65.4448
20
x
500
Gambar 6 Model linear dengan metode LTS untuk data tanpa pencilan
300
y
4.3.5 Metode WLS untuk data tanpa pencilan (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode WLS yaitu:
400
200
100
'tde 10.7187 9.9975
0
MAPE 8.7 %
5
10
15
20
x
Gambar 9 Model linear dengan metode OLS untuk data dengan pencilan terhadap Y
200
4.3.7 Metode LMS untuk data dengan pencilan terhadap Y (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LMS yaitu:
y
150
100
'dqe 10.851 10.0297
50
5
10
15
MAPE 16.3 %
20
x 500
Gambar 7 Model linear dengan metode WLS untuk data tanpa pencilan
400
200
y
300
200
150
y
100 100
0 5 50
10
15
20
x
5
10
15
20
Gambar 10 Model linear dengan metode LMS untuk data dengan pencilan terhadap Y
x
Gambar 8 Model linear perbandingan metode OLS (▬), LMS (▬), LAD (▬), LTS (▬), dan WLS (▬) tanpa pencilan Gambar 8 menunjukkan grafik OLS, LMS, LAD, LTS, dan WLS terlihat berhimpit. Dapat disimpulkan untuk data yang tidak mengandung pencilan, tidak ada perbedaan antara kelima metode tersebut.
4.3.8 Metode LAD untuk data dengan pencilan terhadap Y (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LAD yaitu : 'drs 20.0096 9.4257 MAPE 20.5 %
9
500
400
400
300
300
y
y
500
200
200
100
100
0
0 5
10
15
5
20
10
15
20
x
x
Gambar 11 Model linear dengan metode LAD untuk data dengan pencilan terhadap Y
Gambar 13 Model linear dengan metode WLS untuk data dengan pencilan terhadap Y 500
4.3.9 Metode LTS untuk data dengan pencilan terhadap Y (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LTS yaitu:
300
y
'de 7.4702 10.69
400
200
MAPE 11.2 %
100
0
500
5
10
15
20
x
400
Gambar 14 Model linear perbandingan metode OLS (▬), LMS (▬), LAD (▬), LTS (▬), dan WLS (▬) dengan pencilan terhadap Y
y
300
200
100
0 5
10
15
20
x
Gambar 12 Model linear dengan metode LTS untuk data dengan pencilan terhadap Y 4.3.10 Metode WLS untuk data dengan pencilan terhadap Y (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode WLS yaitu: 'tde 13.4787 10.8963 MAPE 19.4 %
Gambar 14 menunjukkan perubahan grafik OLS. Garis regresi metode Kuadrat Terkecil bergeser ke atas menuju titik pencilan, sedangkan LMS, LAD, LTS, dan WLS tidak mengalami pergeseran. Disimpulkan metode LMS, LAD, LTS, dan WLS lebih kekar dibandingkan dengan metode OLS untuk data yang mengandung pencilan terhadap Y. 4.3.11 Metode OLS untuk data dengan pencilan terhadap X (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode OLS yaitu: 'cde 74.3304 3.1712 MAPE 68.4 % R 26.5784
10
200
150
150
y
y
200
100
100
50
50
10
20
30
40
10
x
20
30
40
x
Gambar 15 Model linear dengan metode OLS untuk data dengan pencilan terhadap X
Gambar 17 Model linear dengan metode LAD untuk data dengan pencilan terhadap X
4.3.12 Metode LMS untuk data dengan pencilan terhadap X (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LMS yaitu:
4.3.14 Metode LTS untuk data dengan pencilan terhadap X (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LTS yaitu: 'de 11.704 10.1302
'dqe 3.3536 10.4923 MAPE 12.6 %
MAPE 36.2 % 400
300
300
y
y
400
200
200
100
100
0
0
10
20
30
40
10
20
30
40
x
x
Gambar 16 Model linear dengan metode LMS untuk data dengan pencilan terhadap X
Gambar 18 Model linear dengan metode LTS untuk data dengan pencilan terhadap X
4.3.13 Metode LAD untuk data dengan pencilan terhadap X (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode LAD yaitu:
4.3.15 Metode WLS untuk data dengan pencilan terhadap X (n = 20) Persamaan regresi yang diperoleh dengan menggunakan metode WLS yaitu:
'drs 74.3914 3.1634 MAPE 68.4 %
'tde 74.3914 3.1634 MAPE 68.4 %
11
200
150
100
y
y
200
100
0
50
100
10
20
30
40
x
400
y
300
200
100
10
20
30
40
x
Gambar 20 Model linear perbandingan metode OLS (▬), LMS (▬), LAD (▬), LTS (▬), dan WLS (▬) dengan pencilan terhadap X Gambar 20 menunjukkan perubahan grafik OLS, LAD, dan WLS. Garis OLS, LAD, dan WLS bergeser ke bawah menuju titik pencilan, sedangkan LMS, dan LTS tidak mengalami pergeseran. Disimpulkan metode LMS dan LTS lebih kekar dibandingkan dengan metode OLS, LAD, dan WLS untuk data yang mengandung pencilan terhadap X. 4.3.16 Metode LAD untuk data simetris tanpa pencian (n = 20) Minimum galat mutlak yang yang diperoleh dengan menggunakan metode LAD yaitu:
uYv |̂ | 45.9 A
uYv |̂ | 45.9 A
5
10
15
20
x
Gambar 19 Model linear dengan metode WLS untuk data dengan pencilan terhadap X
0
200
Gambar 21 Model linear dengan metode LAD untuk data simetris tanpa pencilan 4.4 Pembahasan Dari hasil di atas dapat dilihat perilaku garis regresi OLS, LMS, LAD, LTS, dan WLS. Untuk data tanpa pencilan, dugaan parameter metode OLS, LMS, LAD, LTS, dan WLS tidak jauh berbeda. Namun ketika terdapat pencilan terhadap Y terjadi pembiasan dugaan parameter pada metode OLS. Hal ini ditunjukkan pada Gambar 9, grafik regresi tergeser ke arah pencilan. metode LMS, LAD, LTS, dan WLS tidak mengalami pergeseran sebesar metode OLS. Hal ini dapat dilihat pada gambar 10, Gambar 11, Gambar 12, dan Gambar 13. Begitu pula ketika terdapat pencilan terhadap X terjadi pembiasan dugaan parameter pada metode OLS, LAD, dan WLS. Hal ini ditunjukan pada Gambar 15, Gambar 17, dan Gambar 19 grafik regresi tergeser ke arah pencilan. metode LMS dan LTS tidak mengalami pergeseran sebesar metode OLS, LAD, dan WLS. Hal ini dapat dilihat pada Gambar 16 dan Gambar 18. Gambar 14 dan Gambar 20 menunjukkan keunggulan metode LMS dan LTS dibandingkan metode OLS, LAD, dan WLS. Metode LMS dan LTS lebih baik dalam mengatasi adanya pencilan baik terhadap Y maupun terhadap X. Pada umumnya LAD tidak konsisten dan tidak unik. Pada kasus ini juga terihat bahwa LAD dan WLS tidak konsisten dan tidak unik, karena ketika terdapat pencilan terhadap Y, grafik regresi tidak mengalami pergeseran ke arah pencilan. Namun ketika terdapat pencilan terhadap X grafik regresi mengalami pergeseran ke arah pencilan. Hal ini dapat dilihat pada Gambar 14 dan Gambar 20. Metode LAD menghasilkan penduga yang tidak unik pada kasus data simetris. Hal ini dapat dilihat pada Gambar 21.
12
Cara lain untuk melihat hasil galat untuk setiap metode adalah menggunakan diagram kotak (box-and-whisker-plot). Diagram kotak ditampilkan Gambar 21 untuk data tanpa pencilan, Gambar 22 untuk data dengan pencilan terhadap Y, dan Gambar 23 untuk data dengan pencilan terhadap X.
besar nilainya maka data semakin beragam. Data yang digunakan dalam diagram kotak ini adalah persentase galat mutlak dari masing-masing metode. Untuk lebih memperjelas diagram kotak, diberikan juga tabel tentang Q1, Q2, Q3, nilai maksimum, nilai minimum dan rataan dari galat untuk setiap metode.
Selisih Q3 dan Q1 menggambarkan tingkat keragaman suatu data. Semakin Tabel 1 Q1, Q2, Q3, nilai max, nilai min dan rataan dari galat untuk data tanpa pencilan Metode OLS LMS LAD LTS WLS
Q1 (%) 1.3 1.2 1.5 1.6 1.4
Q2 (%) 3.2 3.2 3.0 3.0 3.3
Q3 (%) 6.7 5.7 10.3 5.9 7.5
Max (%) 67.0 54.2 60.8 55.8 60.2
Min (%) 0.2 0.3 0.1 0.1 0.1
Rataan (%) 7.3 8.1 9.8 6.6 8.7
Gambar 22 Diagram kotak untuk setiap data awal tanpa pencilan Dari diagram kotak dan tabel untuk data tanpa pencilan yang ditunjukkan pada Gambar 21 dan Tabel 1 di atas dapat dilihat bahwa kesalahan relatif hasil dugaan
parameter yang ditunjukkan oleh rentang Q1 dengan Q3 untuk metode OLS, LMS, LAD, LTS, dan WLS mempunyai tingkat keragaman yang relatif sama.
Tabel 2 Q1, Q2, Q3, nilai max, nilai min dan rataan dari galat untuk data dengan pencilan terhadap Y Metode OLS LMS LAD LTS WLS
Q1 (%) 13.2 1.9 2.8 2.6 7.8
Q2 (%) 23.0 3.7 4.3 5.2 11.4
Q3 (%) 35.3 8.3 14.3 8.4 17.8
Max (%) 138.9 96.7 127.7 57.9 88.5
Min (%) 1.4 0.2 0.3 0.5 1.5
Rataan (%) 29.9 16.3 20.5 11.2 19.4
13
Gambar 23 Diagram kotak untuk setiap data dengan pencilan terhadap Y dengan Q3 untuk metode WLS, LMS, LAD, dan LTS mempunyai tingkat keragaman yang relatif sama kecil, sedangkan metode OLS mempunyai tingkat keragaman yang relatif besar.
Dari diagram kotak dan tabel untuk data tanpa pencilan yang ditunjukkan pada Gambar 22 dan Table 2 di atas dapat dilihat bahwa kesalahan relatif hasil dugaan parameter yang ditunjukkan oleh rentang Q1
Tabel 3 Q1, Q2, Q3, nilai max, nilai min, dan rataan dari galat untuk data dengan pencilan terhadap X Metode OLS LMS LAD LTS WLS
Q1 (%) 21.4 1.3 21.5 1.8 21.5
Q2 (%) 30.9 3.8 31.0 3.7 31.0
Q3 (%) 65.1 11.0 65.2 11.2 65.2
Max (%) 499.5 76.5 499.9 300.6 499.9
Min (%) 4.4 0.1 4.4 0.3 4.4
Rataan (%) 68.3 12.6 68.4 36.2 68.4
Gambar 24 Diagram kotak untuk setiap data dengan pencilan terhadap X Dari diagram kotak dan tabel untuk data tanpa pencilan yang ditunjukkan pada Gambar 23 dan Table 3 di atas dapat dilihat bahwa kesalahan relatif hasil dugaan parameter yang ditunjukkan oleh rentang Q1
dengan Q3 untuk metode LMS, dan LTS mempunyai tingkat keragaman yang relatif sama kecil, sedangkan metode LAD, OLS, dan WLS mempunyai tingkat keragaman yang relatif sama besar.
V SIMPULAN DAN SARAN 5.1 Simpulan 1. Pemeriksaan ada atau tidaknya data pencilan merupakan hal yang penting
untuk menentukan metode apa yang sesuai.
14
2.
Metode OLS, LMS, LAD, LTS, dan WLS sama baiknya dalam menduga parameter untuk data yang tidak mengandung pencilan. Metode OLS kurang dapat digunakan dalam menduga parameter pada data yang mengandung pencilan karena tidak tahan terhadap pencilan tersebut.
LAD dan WLS lebih tahan akan keberadaan pencilan namun hanya pencilan terhadap Y, sedangkan metode LMS dan LTS sangat tahan akan keberadaan pencilan baik pencilan terhadap Y maupun terhadap X sehingga menghasilkan dugaan parameter yang baik.
3.
Ukuran pembanding antar metode yang digunakan di sini yaitu MAPE. MAPE di sini hanya digunakan untuk membandingkan, tidak bisa digunakan untuk akurasi model. MAPE menunjukkan bahwa metode LMS, LAD, LTS, dan WLS lebih cocok digunakan pada pendugaan parameter yang melibatkan data pencilan. Metode
5.2 Saran Gugus data yang tidak terdapat pencilan (outlier) sebaiknya menggunakan metode OLS, karena metode ini lebih efektif dan lebih umum, sedangkan untuk gugus data yang mengandung pencilan sebaiknya menggunakan metode kekar LMS, LAD, LTS, atau WLS.
DAFTAR PUSTAKA Barnett V and Lewis T. 1994. Outliers in Statistical Data. New York: John Wiley & Sons. Inc. Cizek P. 2002. Nonlinear Least Trimmed Square.www.statspol.cz/robust/200 2_cizek.pdf (20 Oktober 2005). Draper N and H Smith. 1992. Analisis Regresi Terapan. Ed. ke-2. Jakarta: PT Gramedia Pustaka Utama. Huber P. 1981. Robust Statistics. New York: John Wiley & Sons. Inc. Myers R H. 1990. Classical and Modern Regression with Applications. Boston: PWS-KENT Publishing Company. Rodgers J L and Nicewander W A. 1988. Thirteen ways to look at the correlation coefficient. The American Statistician 42: 59–66. doi:10.2307/2685263. Rousseuw P J. 1984. Least Median of Squares Regression. Journal of the
American Statistician Association Vol.76, No. 388: 871-880. Tukey J W. 1979. Exploratory Data Analysis. London: Addison – Wesley Publishing Company. Weisstein E W. 1999. Box-andWhiskerPlot.http://mathworld.Wolf ram.com/Box-andWhiskerPlot.html (19 Mei 2006). Pfeil W A. 2006. Statistical Teaching Aids, Bachelor of Science thesis, Worcester Polytechnic Institute. Yaffee R A. 2002. Robust Regression Analysis: Some Popular Statistical Package Options. www.nyu.edu/its/socsci/Docs/Robu st Reg2. Pdf ( 13 September 2005). Yingying C. 2009. Securing Emerging Wireless Systems, Lower Layer Approaches. New York: Springer Science Bussiness Media.
15
LAMPIRAN
16
Lampiran 1 Implementasi metode ke dalam pemrograman fungsional Mathematica OLSFit[data_List]:=Module[{a,data1,data2,betaols,ydugaols,eduga,r, rk,m,MAPE}, a=Table[1,{i,Length[data]}]; data1=Transpose[{a,data[[All,1]]}]; data2=data[[All,2]]; betaols=Inverse[Transpose[data1].data1].Transpose[data1].data2; ydugaols=data1.betaols; eduga=data2-ydugaols; r=Correlation[ydugaols,data2]; rk=r^2*100; MAPE[y1_,yduga_]:=(m=Length[yduga];1/m*Plus@@Abs[(y1yduga)/y1]*100); {betaols,MAPE[data2,ydugaols],data2,ydugaols,eduga,rk} ] LMSFit[data_List,part_]:=Module[{a,data1,data2,betaduga,yduga,part x,party,i,Trpx,InTrpx,Trpy,betadugap,med,ydugap,errorp,errorkuadp, minmed,pos,ydugalms,edugalms,edugalmskuad,medduga,s0,w,ylmsterbobo ti,xlmsterbobot,xlmsterboboti,betalmsterboboti,ydugalmsterboboti,e dugalmsterboboti,m,MAPE}, a=Table[1,{i,Length[data]}]; data1=Transpose[{a,data[[All,1]]}]; data2=data[[All,2]]; betaduga=Inverse[Transpose[data1].data1].Transpose[data1].data2; yduga=data1.betaduga; partx=Partition[data1,part]; party=Partition[data2,part]; med=Table[0,{k,part}]; betadugap=Table[0,{k,part}]; For[i=1,i<=part,i++,(Trpx=Transpose[partx[[i]]].partx[[i]];InTrpx= Inverse[Trpx];Trpy=Transpose[partx[[i]]].party[[i]];betadugap[[i]] =InTrpx.Trpy;ydugap=partx[[i]].betadugap[[i]];errorp=party[[i]]ydugap;errorkuadp=errorp^2;med[[i]]=Median[errorkuadp];) ]; minmed=Min[med]; pos=Position[med,minmed]//Flatten; ydugalms=data1.Flatten[betadugap[[pos]]]; edugalms=data2-ydugalms; edugalmskuad=edugalms^2; medduga=Median[edugalmskuad]; s0=1.4826(1+(5/(Length[data]-2)))Sqrt[medduga]; w=Table[If[Abs[edugalms[[i]]/s0]<= 2,1,s0/Abs[edugalms[[i]]]],{i,Length[data]}]; ylmsterboboti=w*data2; xlmsterbobot=Flatten[w*Transpose[{data[[All,1]]}]]; xlmsterboboti=Transpose[{a,xlmsterbobot}]; betalmsterboboti=Inverse[Transpose[xlmsterboboti].xlmsterboboti].T ranspose[xlmsterboboti].ylmsterboboti; ydugalmsterboboti=xlmsterboboti.betalmsterboboti; edugalmsterboboti=data2-ydugalmsterboboti; MAPE[y1_,yduga_]:=(m=Length[yduga];1/m*Plus@@Abs[(y1yduga)/y1]*100); {betalmsterboboti,MAPE[data2,ydugalmsterboboti],data2,ydugalmsterb oboti,edugalmsterboboti } ]
17
LADFit[data_List]:=Module[{a,data1,data2,betaduga,yduga,eduga,s1,w 1,yterboboti1,xterboboti1,betaterboboti1,ydugaterboboti1,edugaterb oboti1,s2,w2,yterboboti2,xterboboti2,betaterboboti2,ydugaterboboti 2,edugaterboboti2,s3,w3,yterboboti3,xterboboti3,betaterboboti3,ydu gaterboboti3,edugaterboboti3,s4,w4,yterboboti4,xterboboti4,betater boboti4,ydugaterboboti4,edugaterboboti4,s5,w5,yterboboti5,xterbobo ti5,betaterboboti5,ydugaterboboti5,edugaterboboti5,m,MAPE}, a=Table[1,{i,Length[data]}]; data1=Transpose[{a,data[[All,1]]}]; data2=data[[All,2]]; betaduga=Inverse[Transpose[data1].data1].Transpose[data1].data2; yduga=data1.betaduga; eduga=data2-yduga; s1=1.345*StandardDeviation[eduga]; w1=Table[If[eduga[[i]]<=s1,1,s1/eduga[[i]]],{i,Length[data]}]; yterboboti1=w1*data2; xterboboti1=Flatten[w1*Transpose[{data[[All,1]]}]]; xterboboti1=Transpose[{a,xterboboti1}]; betaterboboti1=Inverse[Transpose[xterboboti1].xterboboti1].Transpo se[xterboboti1].yterboboti1; ydugaterboboti1=xterboboti1.betaterboboti1; edugaterboboti1=yterboboti1-ydugaterboboti1; s2=1.345*StandardDeviation[edugaterboboti1]; w2=Table[If[edugaterboboti1[[i]]<=s2,1,s2/edugaterboboti1[[i]]],{i ,Length[data]}]; yterboboti2=w2*yterboboti1; xterboboti1=Flatten[w1*Transpose[{data[[All,1]]}]]; xterboboti2=Flatten[w2*xterboboti1]; xterboboti2=Transpose[{a,xterboboti2}]; betaterboboti2=Inverse[Transpose[xterboboti2].xterboboti2].Transpo se[xterboboti2].yterboboti2; ydugaterboboti2=xterboboti2.betaterboboti2; edugaterboboti2=yterboboti2-ydugaterboboti2; s3=1.345*StandardDeviation[edugaterboboti2]; w3=Table[If[edugaterboboti2[[i]]<=s3,1,s2/edugaterboboti2[[i]]],{i ,Length[data]}]; yterboboti3=w3*yterboboti2; xterboboti2=Flatten[w2*xterboboti1]; xterboboti3=Flatten[w3*xterboboti2]; xterboboti3=Transpose[{a,xterboboti3}]; betaterboboti3=Inverse[Transpose[xterboboti3].xterboboti3].Transpo se[xterboboti3].yterboboti3; ydugaterboboti3=xterboboti3.betaterboboti3; edugaterboboti3=yterboboti3-ydugaterboboti3; s4=1.345*StandardDeviation[edugaterboboti3]; w4=Table[If[edugaterboboti3[[i]]<=s4,1,s4/edugaterboboti3[[i]]],{i ,Length[data]}]; yterboboti4=w4*yterboboti3; xterboboti3=Flatten[w3*xterboboti2]; xterboboti4=Flatten[w4*xterboboti3]; xterboboti4=Transpose[{a,xterboboti4}]; betaterboboti4=Inverse[Transpose[xterboboti4].xterboboti4].Transpo se[xterboboti4].yterboboti4; ydugaterboboti4=xterboboti4.betaterboboti4; edugaterboboti4=yterboboti4-ydugaterboboti4; s5=1.345*StandardDeviation[edugaterboboti4]; w5=Table[If[edugaterboboti4[[i]]<=s5,1,s4/edugaterboboti4[[i]]],{i ,Length[data]}]; yterboboti5=w5*yterboboti4;
18
xterboboti4=Flatten[w4*xterboboti3]; xterboboti5=Flatten[w5*xterboboti4]; xterboboti5=Transpose[{a,xterboboti5}]; betaterboboti5=Inverse[Transpose[xterboboti5].xterboboti5].Transpo se[xterboboti5].yterboboti5; ydugaterboboti5=xterboboti5.betaterboboti5; edugaterboboti5=yterboboti5-ydugaterboboti5; MAPE[y1_,yduga_]:=(m=Length[yduga];1/m*Plus@@Abs[(y1yduga)/y1]*100); {betaterboboti5,MAPE[data2,ydugaterboboti5],data2,ydugaterboboti5, edugaterboboti5} ] LTSFit[data_List]:=Module[{a,data1,data2,betaduga,yduga,eduga,edug akuad,h,sorth,k,trimsorth,xlts,ylts,betalts,ydugalts,edugalts,m,MA PE}, a=Table[1,{i,Length[data]}]; data1=Transpose[{a,data[[All,1]]}]; data2=data[[All,2]]; betaduga=Inverse[Transpose[data1].data1].Transpose[data1].data2; yduga=data1.betaduga; eduga=data2-yduga; edugakuad=eduga^2; h=Transpose[{a,data[[All,1]],data2,edugakuad}]; sorth=SortBy[h,Last]; k=Ceiling[Dimensions[h][[1]]*0.5]+1; trimsorth=Take[sorth,k]; xlts=trimsorth[[All,{1,2}]]; ylts=trimsorth[[All,3]]; betalts=Inverse[Transpose[xlts].xlts].Transpose[xlts].ylts; ydugalts=data1.betalts; edugalts=data2-ydugalts; MAPE[y1_,yduga_]:=(m=Length[yduga];1/m*Plus@@Abs[(y1yduga)/y1]*100); {betalts,MAPE[data2,ydugalts],data2,ydugalts,edugalts } ] WLSFit[data_List]:=Module[{a,data1,data2,betaduga,yduga,eduga,s,w, ywlsterboboti,xwlsterbobot,xwlsterboboti,betawlsterboboti,ydugawls terboboti,edugawlsterboboti,m,MAPE}, a=Table[1,{i,Length[data]}]; data1=Transpose[{a,data[[All,1]]}]; data2=data[[All,2]]; betaduga=Inverse[Transpose[data1].data1].Transpose[data1].data2; yduga=data1.betaduga; eduga=data2-yduga; s=1.345*StandardDeviation[eduga]; w=Table[If[eduga[[i]]<=s,1,s/eduga[[i]]],{i,Length[data]}]; ywlsterboboti=w*data2; xwlsterbobot=Flatten[w*Transpose[{data[[All,1]]}]]; xwlsterboboti=Transpose[{a,xwlsterbobot}]; betawlsterboboti=Inverse[Transpose[xwlsterboboti].xwlsterboboti].T ranspose[xwlsterboboti].ywlsterboboti; ydugawlsterboboti=xwlsterboboti.betawlsterboboti; edugawlsterboboti=data2-ydugawlsterboboti; MAPE[y1_,yduga_]:=(m=Length[yduga];1/m*Plus@@Abs[(y1yduga)/y1]*100); {betawlsterboboti,MAPE[data2,ydugawlsterboboti],data2,ydugawlsterb oboti,edugawlsterboboti }
19
]
Lampiran 2 Membangkitkan data hipotetik tanpa pencilan beta={10,10}; x=Range[1,20]; SeedRandom[12340] erorawal=RandomReal[NormalDistribution[0,5],20]; y=erorawal+Table[beta[[1]]+beta[[2]]*i,{i,20}]; data = Transpose[{x, y}] {{1,12.9281},{2,28.6933},{3,50.3104},{4,53.1875},{5,56.1752},{6,70 .7942},{7,78.7733},{8,87.8241},{9,109.896},{10,110.967},{11,128.16 4},{12,129.436},{13,145.734},{14,152.712},{15,166.589},{16,170.278 },{17,183.43},{18,184.401},{19,197.226},{20,206.296}}
Menduga parameter data tanpa pencilan OLSFit[data] {{11.6346,9.95773},7.34308,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{21.5923,3 1.55,41.5077,51.4655,61.4232,71.3809,81.3387,91.2964,101.254,111.2 12,121.17,131.127,141.085,151.043,161.,170.958,180.916,190.874,200 .831,210.789},{-8.66418,-2.85671,8.80267,1.722,-5.24797,-0.586701, -2.56536,-3.47224,8.64173,-0.245152,6.99431,-1.69144,4.64847,1.66 912,5.58878,-0.680458,2.51378,-6.47225,-3.60517,-4.49324},99.286} ply=ListPlot[y]; p1=Plot[OLSFit[data][[1,1]]+t*OLSFit[data][[1,2]],{t,1,Length[y]}, PlotStyle->Black,Axes->False,Frame->True,FrameLabel->{"x","y"},Pl ot Range->All]; Show[p1,ply] 200
y
150
100
50
5
10
15
20
x
LMSFit[data,4] {{9.86361,10.0765},8.13333,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{19.9401,3 0.0166,24.3213,50.1696,60.2461,70.3226,80.3991,90.4756,100.552,110 .629,120.705,130.782,140.858,150.935,161.011,171.088,181.164,191.2 41,201.317,211.394},{-7.012,-1.3233,25.9891,3.01787,-4.07087,0.471
20
618,-1.62581,-2.65147,9.34373,0.33808,7.45877,-1.34575,4.87539,1.7 7727,5.57815,-0.809857,2.26561,-6.83919,-4.09088,-5.09773}} ply=ListPlot[y]; p2=Plot[LMSFit[data,4][[1,1]]+t*LMSFit[data,4][[1,2]],{t,1,Length[ y]},PlotStyle->Blue,Axes->False,Frame->True,FrameLabel->{"x","y"}, PlotRange->All]; Show[p2,ply] 200
y
150
100
50
5
10
15
20
x
LADFit[data] {{10.8228,9.96612},9.76561,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{20.7889,3 0.755,33.6454,50.6873,60.6534,70.6195,80.5856,90.5517,80.5656,110. 484,99.3685,130.416,141.348,150.348,145.407,170.281,180.247,190.21 3,200.179,210.145},{-7.86082,-2.06173,4.75851,2.5002,4.47816,0.174 716,-1.81233,-2.72761,4.88441,0.482709,4.14915,0.980353,5.47176,2. 36343,4.56971,-0.00293161,3.18292,-5.8115,-2.95281,-3.84927}} ply=ListPlot[y]; p3=Plot[LADFit[data][[1,1]]+t*LADFit[data][[1,2]],{t,1,Length[y]}, PlotStyle->Red,Axes->False,Frame->True,FrameLabel->{"x","y"},Plot Range->All]; Show[p3,ply] 200
y
150
100
50
5
10
15
20
x
LTSFit[data] {{10.1312,10.0163},6.65638,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{20.1476,3
21
0.1639,40.1802,50.1965,60.2128,70.2292,80.2455,90.2618,100.278,110 .294,120.311,130.327,140.343,150.36,160.376,170.392,180.409,190.42 5,200.441,210.458},{-7.21945,-1.47057,10.1302,2.99095,4.03761,0.56 506,-1.47219,-2.43767,9.61771,0.672238,7.85311,0.891232,5.39008,2. 35214,6.2132,-0.114626,3.02102,-6.02361,-3.21512,-4.16178}} ply=ListPlot[y]; p4=Plot[LTSFit[data][[1,1]]+t*LTSFit[data][[1,2]],{t,1,Length[y]}, PlotStyle->Green,Axes->False,Frame->True,FrameLabel->{"x","y"},Plo tRange->All]; Show[p4,ply] 200
y
150
100
50
5
10
15
20
x
WLSFit[data] {{10.7187,9.99755},8.66948,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{20.7163,3 0.7138,33.6133,50.7089,60.7065,70.704,80.7016,90.6991,80.6815,110. 694,116.37,130.689,140.687,150.684,160.682,170.68,180.677,190.675, 200.672,210.67},{-7.78816,-2.02051,16.6971,2.47855,4.53124,0.09020 35,-1.92828,-2.87499,29.2143,0.272459,11.7942,-1.25347,5.04661,2.0 2744,5.90727,-0.401787,2.75263,-6.27323,-3.44597,-4.37386}} ply=ListPlot[y]; p5=Plot[WLSFit[data][[1,1]]+t*WLSFit[data][[1,2]],{t,1,Length[y]}, PlotStyle->Pink,Axes->False,Frame->True,FrameLabel->{"x","y"},Plot Range->All]; Show[p5,ply] 200
y
150
100
50
5
10 x
15
20
22
Perbandingan antar metode Show[p1,p2,p3,p4,p5,ply] 200
y
150
100
50
5
10
15
20
x
Lampiran 3 Membangkitkan data hipotetik dengan pencilan terhadap Y beta={10,10}; x=Range[1,20]; SeedRandom[12340] Erorawal=RandomReal[NormalDistribution[0,5],20]; y=erorawal+Table[beta[[1]]+beta[[2]]*i,{i,20}]; ypencilan=ReplacePart[y,{17->300,19->500}]; datapencilan=Transpose[{x,ypencilan}] {{1,12.9281},{2,28.6933},{3,50.3104},{4,53.1875},{5,56.1752},{6,70 .7942},{7,78.7733},{8,87.8241},{9,109.896},{10,110.967},{11,128.16 4},{12,275},{13,145.734},{14,152.712},{15,250},{16,170.278},{17,18 3.43},{18,300},{19,197.226},{20,206.296}}
Menduga parameter data dengan pencilan terhadap Y OLSFit[datapencilan] {{19.9975,14.9672},29.8693,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,300,184.401,500,206.296},{-5.03028,9.9369, 24.9041,39.8713,54.8384,69.8056,84.7728,99.74,114.707,129.674,144. 641,159.609,174.576,189.543,204.51,219.477,234.445,249.412,264.379 ,279.346},{17.9584,18.7564,25.4063,13.3162,1.3368,0.988619,-5.9994 9,-11.9158,-4.8113,-18.7076,-16.4776,-30.1728,-28.8424,-36.8312,-3 7.9209,-49.1996,65.5554,-65.0103,235.621,-73.0502},65.4448} plypencilan=ListPlot[ypencilan]; p6=Plot[OLSFit[datapencilan][[1,1]]+t*OLSFit[datapencilan][[1,2]], {t,1,Length[ypencilan]},PlotStyle->Black,Axes->False,Frame->True, FrameLabel->{"x","y"},PlotRange->All]; Show[p6,plypencilan]
23
500
400
y
300
200
100
0 5
10
15
20
x
LMSFit[datapencilan,4] {{10.851,10.0297},16.272,{12.9281,28.6933,50.3104,53.1875,56.1752, 70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734,15 2.712,166.589,170.278,300,184.401,500,206.296},{20.8808,30.9105,40 .9402,50.9699,60.9996,71.0293,81.059,91.0887,101.118,111.148,121.1 78,131.208,141.237,151.267,161.297,171.326,23.6976,191.386,16.5632 ,211.445},{-7.95264,-2.21715,9.37024,2.2176,-4.82435,-0.235067,-2. 28571,-3.26457,8.77742,-0.18144,6.98604,-1.77169,4.49624,1.44491,5 .29258,-1.04863,276.302,-6.98439,483.437,-5.14933}} plypencilan=ListPlot[ypencilan]; p7=Plot[LMSFit[datapencilan,4][[1,1]]+t*LMSFit[datapencilan,4][[1, 2]],{t,1,Length[ypencilan]},PlotStyle->Blue,Axes->False,Frame->Tru e,FrameLabel->{"x","y"},PlotRange->All]; Show[p7,plypencilan] 500
400
y
300
200
100
0 5
10
15
20
x
LADFit[datapencilan] {{20.0096,9.4257},20.5222,{12.9281,28.6933,50.3104,53.1875,56.1752 ,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734,1 52.712,166.589,170.278,300,184.401,500,206.296},{29.4353,38.861,48 .2867,57.7124,67.1381,76.5638,85.9895,95.4152,104.841,114.267,123. 692,133.118,142.544,151.969,161.395,170.821,75.6196,189.672,47.131 7,208.524},{-16.5072,-10.1677,2.02372,-4.52492,-10.9629,-5.76956,7.21619,-7.59104,5.05496,-3.29989,4.4716,-3.68211,3.18983,0.742509 ,5.19419,-0.543011,28.495,-5.27074,28.591,-2.22767}} plypencilan=ListPlot[ypencilan];
24
p8=Plot[LADFit[datapencilan][[1,1]]+t*LADFit[datapencilan][[1,2]], {t,1,Length[ypencilan]},PlotStyle->Red,Axes->False,Frame->True,Fra meLabel->{"x","y"},PlotRange->All]; Show[p8,plypencilan] 500
400
y
300
200
100
0 5
10
15
20
x
LTSFit[datapencilan] {{7.47024,10.69},11.1697,{12.9281,28.6933,50.3104,53.1875,56.1752, 70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734,15 2.712,166.589,170.278,300,184.401,500,206.296},{18.1602,28.8502,39 .5402,50.2302,60.9202,71.6102,82.3002,92.9902,103.68,114.37,125.06 ,135.75,146.44,157.13,167.82,178.51,189.2,199.89,210.58,221.27},{5.23213,-0.156927,10.7702,2.95724,-4.745,-0.81601,-3.52694,-5.1661 ,6.2156,-3.40355,3.10364,-6.31438,-0.706743,-4.41837,-1.23098,-8.2 3249,110.8,-15.4888,289.42,-14.9744}} plypencilan=ListPlot[ypencilan]; p9=Plot[LTSFit[datapencilan][[1,1]]+t*LTSFit[datapencilan][[1,2]], {t,1,Length[ypencilan]},PlotStyle->Green,Axes->False,Frame->True, FrameLabel->{"x","y"},PlotRange->All]; Show[p9,plypencilan] 500
400
y
300
200
100
0 5
10
15
20
x
WLSFit[datapencilan] {{13.4787,10.8963},19.429,{12.9281,28.6933,50.3104,53.1875,56.1752 ,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734,1 52.712,166.589,170.278,300,184.401,500,206.296},{24.375,35.2712,46 .1675,57.0638,67.9601,78.8563,89.7526,100.649,111.545,122.441,133. 338,144.234,155.13,166.026,176.923,187.819,198.715,209.612,89.517, 231.404},{-11.4469,-6.57793,4.1429,-3.87631,-11.7848,-8.06209,-10.
25
9793,-12.8247,-1.64928,-11.4747,-5.17378,-14.7981,-9.3967,-13.3146 ,-10.3335,-17.5413,101.285,-25.2101,410.483,-25.1082}} plypencilan=ListPlot[ypencilan]; p10=Plot[WLSFit[datapencilan][[1,1]]+t*WLSFit[datapencilan][[1,2]] ,{t,1,Length[ypencilan]},PlotStyle->Pink,Axes->False,Frame->True, FrameLabel->{"x","y"},PlotRange->All]; Show[p10,plypencilan] 500
400
y
300
200
100
0 5
10
15
20
x
Perbandingan antar metode Show[p6,p7,p8,p9,p10,plypencilan] 500
400
y
300
200
100
0 5
10
15
20
x
Lampiran 4 Membangkitkan data hipotetik dengan pencilan terhadap X beta={10,10}; x=Range[1,20]; SeedRandom[12340] erorawal=RandomReal[NormalDistribution[0,5],20]; y=erorawal+Table[beta[[1]]+beta[[2]]*i,{i,20}]; xpencilan=ReplacePart[x,{7->30,9->40}]; datapencilan=Transpose[{xpencilan,y}]; {{1,12.9281},{2,28.6933},{3,50.3104},{4,53.1875},{5,56.1752},{6,70 .7942},{7,78.7733},{8,87.8241},{30,109.896},{10,110.967},{11,128.1 64},{25,129.436},{13,145.734},{14,152.712},{35,166.589},{16,170.27 8},{17,183.43},{18,184.401},{19,197.226},{20,206.296}}
26
Menduga parameter data dengan pencilan terhadap X OLSFit[datapencilan] {{74.3304,3.17123},68.3785,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{77.5017,8 0.6729,83.8441,87.0154,90.1866,93.3578,169.467,99.7003,201.18,106. 043,109.214,112.385,115.556,118.728,121.899,125.07,128.241,131.413 ,134.584,137.755},{-64.5736,-51.9796,-33.5337,-33.8279,-34.0114,22.5636,-90.6941,-11.8762,-91.2839,4.92393,18.9499,17.0506,30.177, 33.9842,44.6903,45.2076,55.1883,52.9888,62.6424,68.5408},26.5784} plx=ListPlot[Table[{xpencilan[[i]],y[[i]]},{i,1,Length[xpencilan]} ]]; p11=Plot[OLSFit[datapencilan][[1,1]]+t*OLSFit[datapencilan][[1,2]] ,{t,1,Max[xpencilan]},PlotStyle->Black,Axes->False,Frame->True,Fra meLabel->{"x","y"},PlotRange->All]; Show[p11,plx] 200
y
150
100
50
10
20
30
40
x
LMSFit[datapencilan,4] {{3.3536,10.4923},12.5792,{12.9281,28.6933,50.3104,53.1875,56.1752 ,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734,1 52.712,166.589,170.278,183.43,184.401,197.226,206.296},{13.8459,24 .3382,34.8305,45.3228,55.815,66.3073,24.641,87.2919,25.8545,108.27 6,118.769,129.261,139.753,150.246,160.738,171.23,181.722,192.215,2 02.707,213.199},{-0.91778,4.35513,15.4799,7.86472,0.360196,4.4869, 54.1323,0.532239,84.0413,2.69021,9.39511,0.17481,5.98016,2.46625,5 .85134,-0.95245,1.70723,-7.81336,-5.48084,-6.90347}} plx=ListPlot[Table[{xpencilan[[i]],y[[i]]},{i,1,Length[xpencilan]} ]]; p12=Plot[LMSFit[datapencilan,4][[1,1]]+t*LMSFit[datapencilan,4][[1 ,2]],{t,1,Max[xpencilan]},PlotStyle->Blue,Axes->False,Frame->True, FrameLabel->{"x","y"},PlotRange->All]; Show[p12,plx]
27
400
y
300
200
100
0
10
20
30
40
x
LADFit[datapencilan] {{74.3914,3.16342},68.4212,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{77.5548,8 0.7183,83.8817,87.0451,90.2085,93.372,169.294,99.6988,200.928,106. 026,109.189,112.352,115.516,118.679,121.843,125.006,128.17,131.333 ,134.496,137.287},{-64.6267,-52.025,-33.5713,-33.8576,-34.0333,-22 .5777,-90.5208,-11.8747,-91.0325,4.94104,18.9748,17.0834,30.2176,3 4.0325,44.7465,45.2716,55.2601,53.0684,62.7298,67.7939}} plx=ListPlot[Table[{xpencilan[[i]],y[[i]]},{i,1,Length[xpencilan]} ]]; p13=Plot[LADFit[datapencilan][[1,1]]+t*LADFit[datapencilan][[1,2]] ,{t,1,Max[xpencilan]},PlotStyle->Red,Axes->False,Frame->True,Frame Label->{"x","y"},PlotRange->All]; Show[p13,plx] 200
y
150
100
50
10
20
30
40
x
LTSFit[datapencilan] {{11.704,10.1302},36.2515,{12.9281,28.6933,50.3104,53.1875,56.1752 ,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734,1 52.712,166.589,170.278,183.43,184.401,197.226,206.296},{21.8342,31 .9644,42.0946,52.2248,62.3549,72.4851,315.609,92.7455,416.911,113. 006,123.136,133.266,143.396,153.527,163.657,173.787,183.917,194.04 7,204.177,214.308},{-8.9061,-3.27108,8.21584,0.962721,-6.1797,-1.6 9089,-236.836,-4.92133,-307.015,-2.03914,5.02786,-3.83033,2.33712, -0.814677,2.93252,-3.50916,-0.487376,-9.64586,-6.95123,-8.01175}} plx=ListPlot[Table[{xpencilan[[i]],y[[i]]},{i,1,Length[xpencilan]} ]];
28
p14=Plot[LTSFit[datapencilan][[1,1]]+t*LTSFit[datapencilan][[1,2]] ,{t,1,Max[xpencilan]},PlotStyle->Green,Axes->False,Frame->True,Fra meLabel->{"x","y"},PlotRange->All]; Show[p14,plx] 400
y
300
200
100
0
10
20
30
40
x
WLSFit[datapencilan] {{74.3914,3.16342},68.4212,{12.9281,28.6933,50.3104,53.1875,56.175 2,70.7942,78.7733,87.8241,109.896,110.967,128.164,129.436,145.734, 152.712,166.589,170.278,183.43,184.401,197.226,206.296},{77.5548,8 0.7183,83.8817,87.0451,90.2085,93.372,169.294,99.6988,200.928,106. 026,109.189,112.352,115.516,118.679,121.843,125.006,128.17,131.333 ,134.496,137.287},{-64.6267,-52.025,-33.5713,-33.8576,-34.0333,-22 .5777,-90.5208,-11.8747,-91.0325,4.94104,18.9748,17.0834,30.2176,3 4.0325,44.7465,45.2716,55.2601,53.0684,62.7298,69.0085}} plx=ListPlot[Table[{xpencilan[[i]],y[[i]]},{i,1,Length[xpencilan]} ]]; p15=Plot[WLSFit[datapencilan][[1,1]]+t*WLSFit[datapencilan][[1,2]] ,{t,1,Max[xpencilan]},PlotStyle->Pink,Axes->False,Frame->True,Fram eLabel->{"x","y"},PlotRange->All]; Show[p15,plx] 200
y
150
100
50
10
20 x
Perbandingan antar metode Show[p11,p12,p13,p14,p15,plx]
30
40
29
400
y
300
200
100
0
10
20
30
40
x
Tabel perbandingan dugaan parameter KASUS
Y = β0 + β1 X (tanpa pencilan)
Y = β0 + β1 X (dengan pencilan terhadap Y)
Y = β0 + β1 X (dengan pencilan terhadap X)
METODE
β0
β1
MAPE
OLS
11.6346
9.9577
7.3430
LMS
9.8636
10.0765
8.1333
LAD
10.8228
9.9661
9.7656
LTS
10.1312
10.0163
6.6563
WLS
10.7187
9.9975
8.6694
OLS
-19.9975
14.9672
29.8693
LMS
10.8510
10.0297
16.2720
LAD
20.0096
9.4257
20.5222
LTS
7.4702
10.6900
11.1697
WLS
13.4787
10.8963
19.4290
OLS
74.3304
3.1712
68.3785
LMS
3.3536
10.4923
12.5792
LAD
74.3914
3.1634
68.4212
LTS
11.704
10.1302
36.2515
WLS
74.3914
3.1634
68.4212
Lampiran 5 Membangkitkan data hipotetik simetris tanpa pencilan beta={10,10}; x=Range[1,20]; erorawal=RandomReal[NormalDistribution[0,5],20]; SeedRandom[1] y=erorawal+Table[beta[[1]]+beta[[2]]*i,{i,20}];
30
data1=Transpose[{x,y}] data2=Transpose[{x,12.928109955309369`-(y-12.928109955309369`)}] {{1,22.4284},{2,32.0457},{3,41.3094},{4,53.1783},{5,67.7215},{6,73 .384},{7,80.6535},{8,95.4931},{9,97.9162},{10,103.521},{11,119.926 },{12,121.191},{13,140.103},{14,156.559},{15,160.489},{16,169.043} ,{17,178.262},{18,189.072},{19,202.042},{20,217.565}} {{1,3.42783},{2,-6.18948},{3,-15.4532},{4,-27.3221},{5,-41.8653},{ 6,-47.5278},{7,-54.7973},{8,-69.6369},{9,-72.06},{10,-77.665},{11, -94.0694},{12,-95.335},{13,-114.247},{14,-130.703},{15,-134.633},{ 16,-143.187},{17,-152.405},{18,-163.216},{19,-176.185},{20,-191.70 9}}
Menduga parameter data simetris tanpa pencilan LADFit[data1] {{12.8072,9.78634},4.84648,{22.4284,32.0457,41.3094,53.1783,67.721 5,73.384,80.6535,95.4931,97.9162,103.521,119.926,121.191,140.103,1 56.559,160.489,169.043,178.262,189.072,202.042,217.565},{22.5935,3 2.3799,42.1662,51.9525,57.4051,71.5252,81.3116,91.0979,100.884,110 .671,120.457,130.243,140.03,123.502,159.602,169.389,179.175,188.96 1,198.748,161.843},{-0.165137,-0.334169,-0.856797,1.22576,4.31843, 1.85881,-0.658053,4.39526,-2.968,-7.14931,-0.531239,-9.05198,0.073 6854,2.98867,0.886565,-0.345509,-0.913223,0.110567,3.29391,3.82177 }} ply=ListPlot[y]; p3=Plot[LADFit[data1][[1,1]]+t*LADFit[data1][[1,2]],{t,1,Length[y] },PlotStyle->Red,Axes->False,Frame->True,FrameLabel->{"x","y"},Plo tRange->All]; Show[p3,ply]
200
y
150
100
50
5
10
15
20
x
LADFit[data2] {{13.3204,-9.94165},6.2911,{3.42783,-6.18948,-15.4532,-27.3221,41.8653,-47.5278,-54.7973,-69.6369,-72.06,-77.665,-94.0694,95.335,-114.247,-130.703,-134.633,-143.187,-152.405,-163.216,176.185,-191.709},{3.37879,-6.56286,-16.5045,-26.4462,-36.3878,46.3295,-56.2711,-66.2128,-73.6694,-59.5386,-96.0377,-54.881,115.921,-125.863,-135.804,-145.746,-155.688,-165.629,-175.571,185.513},{0.0490388,0.373383,1.05132,-0.875918,-5.47746,1.19835,1.47383,-
31
3.42417,3.61072,2.62048,1.96827,0.379765,1.67397,4.84056,1.17171,2.5591,3.28212,2.41365,-0.614381,-6.19652}} p2y=ListPlot[12.928109955309369`- (y-12.928109955309369`)]; p4=Plot[LADFit[data2][[1,1]]+t*LADFit[data2][[1,2]],{t,1,Length[y] },PlotStyle->Red,Axes->False,Frame->True,FrameLabel->{"x","y"},Plo tRange->All]; Show[p4,p2y] 0
y
50
100
150
5
10
15
20
x
Kesimetrisan Show[p3,ply,p4,p2y] 200
y
100
0
100
200
5
10
15
20
x
Mencari nilai minimum galat mutlak untuk data simetris tanpa pencilan Minedata1=Plus@@Abs[LADFit[data1][[5]]] 45.9 minedata2=Plus@@Abs[LADFit[data2][[5]]] 45.9
Lampiran 6 Mencari nilai persentase galat mutlak untuk setiap metode untuk data tanpa pencilan Quartiles[galat1];Max[galat1];Min[galat1];Mean[galat1];
32
Quartiles[galat2];Max[galat2];Min[galat2];Mean[galat2]; Quartiles[galat3];Max[galat3];Min[galat3];Mean[galat3]; Quartiles[galat4];Max[galat4];Min[galat4];Mean[galat4]; Quartiles[galat5];Max[galat5];Min[galat5];Mean[galat5]; Metode OLS LMS LAD LTS WLS
Q1 (%) 1.3 1.2 1.5 1.6 1.4
Q2 (%) 3.2 3.2 3 3 3.3
Q3 (%) 6.7 5.7 10.3 5.9 7.5
Max (%) 67 54.2 60.8 55.8 60.2
Min (%) 0.2 0.3 0.2 0.1 0.1
Rataan (%) 7.3 8.1 9.8 6.6 8.7
galat1= Abs[(y–OLSFit[data][[3]])/y]*100 {67.0181,9.956,17.4967,3.23761,9.34213,0.828741,3.25664,3.95363,7. 86356,0.220924,5.45732,1.30678,3.18971,1.09299,3.35482,0.399617,1. 37043,3.50987,1.82794,2.17806} galat2=Abs[(y–LMSFit[data,4][[3]])/y]*100 {54.2384,4.61188,51.6575,5.67401,7.24674,0.666182,2.06391,3.01907, 8.50235,0.304668,5.81971,1.0397,3.34541,1.1638,3.34844,0.47561,1.2 3514,3.70886,2.07421,2.47108} galat3=Abs[(y–LADFit[data][[3]])/y]*100 {60.8041,7.18542,33.1244,4.70072,7.97177,0.246794,2.30069,3.10576, 26.6891,0.435003,22.4676,0.757405,3.00905,1.54764,12.7152,0.001721 66,1.73522,3.15155,1.49717,1.8659}} galat4=Abs[(y–LTSFit[data][[3]])/y]*100 {55.8431,5.12514,20.1354,5.62341,7.18753,0.798173,1.8689,2.77563,8 .75166,0.605802,6.12739,0.688551,3.69859,1.54025,3.72965,0.0673171 ,1.64696,3.26657,1.63017,2.01738} galat5=Abs[(y–WLSFit[data][[3]])/y]*100 {60.242,7.04174,33.1882,4.66003,8.06626,0.127416,2.44788,3.27357,2 6.5836,0.245532,9.20246,0.968411,3.46291,1.32762,3.54601,0.23596,1 .50064,3.40194,1.74722,2.12019} Needs["StatisticalPlots"] BoxWhiskerPlot[b4,b1,b2,b5,b3,BoxOutliers->All,BoxLabels->{"LTS"," OLS","LMS","WLS","LAD"},FrameLabel->{None,"%"}]
33
Mencari nilai persentase galat mutlak untuk setiap metode untuk data dengan pencilan terhadap Y Quartiles[galat6];Max[galat6];Min[galat6];Mean[galat6]; Quartiles[galat7];Max[galat7];Min[galat7];Mean[galat7]; Quartiles[galat8];Max[galat8];Min[galat8];Mean[galat8]; Quartiles[galat9];Max[galat9];Min[galat9];Mean[galat9]; Quartiles[galat10];Max[galat10];Min[galat10];Mean[galat10]; Metode OLS LMS LAD LTS WLS
Q1 (%) 13.2 1.9 2.8 2.6 7.8
Q2 (%) 23 3.7 4.3 5.2 11.4
Q3 (%) 35.3 8.3 14.3 8.4 17.8
Max (%) 138.9 96.7 127.9 57.9 88.5
Min (%) 1.4 0.2 0.3 0.5 1.5
Rataan (%) 29.9 16.3 20.5 11.2 19.4
galat6=Abs[(ypencilan–OLSFit[datapencilan][[3]])/ypencilan]*100 {138.91,65.3686,50.4992,25.0364,2.3797,1.39647,7.61614,13.5678,4.3 7805,16.8588,12.8567,23.311,19.7912,24.1181,22.7631,28.8938,21.851 8,35.2548,47.1242,35.4104} galat7=Abs[(ypencilan–LMSFit[datapencilan,4][[3]])/ypencilan]*100 {61.5143,7.72706,18.6249,4.1694,8.58804,0.332043,2.90163,3.71717,7 .98704,0.163509,5.45086,1.36877,3.08525,0.946168,3.17703,0.615835, 92.1008,3.7876,96.6874,2.49609} galat8=Abs[(ypencilan–LADFit[datapencilan][[3]])/ypencilan]*100 {127.684,35.4357,4.02246,8.50748,19.5155,8.14976,9.1607,8.64346,4. 59978,2.97376,3.48897,2.84474,2.18881,0.486215,3.11796,0.318897,74 .7935,2.8583,90.5737,1.07984} galat9=Abs[(ypencilan–LTSFit[datapencilan][[3]])/ypencilan]*100 {40.4709,0.54691,21.4074,5.56003,8.44679,1.15265,4.47733,5.88232,5 .6559,3.06718,2.42162,4.87838,0.484956,2.89327,0.738934,4.83474,36 .9333,8.39952,57.884,7.25868} galat10=Abs[(ypencilan–WLSFit[datapencilan][[3]])/ypencilan]*100
34
{88.5425,22.925,8.23467,7.28801,20.9787,11.3881,13.9378,14.6027,1. 50077,10.3407,4.03685,11.4327,6.44787,8.71877,6.20297,10.3016,33.7 616,13.6713,82.0966,12.171} Needs["StatisticalPlots"] BoxWhiskerPlot[b9,b7,b8,b10,b6,BoxOutliers->All,BoxLabels->{"LTS", "LMS","LAD","WLS","OLS"},FrameLabel->{None,"%"}]
Mencari nilai persentase galat mutlak untuk setiap metode untuk data dengan pencilan terhadap X Quartiles[galat11];Max[galat11];Min[galat11];Mean[galat11]; Quartiles[galat12];Max[galat12];Min[galat12];Mean[galat12]; Quartiles[galat13];Max[galat13];Min[galat13];Mean[galat13]; Quartiles[galat14];Max[galat14];Min[galat14];Mean[galat14]; Quartiles[galat15];Max[galat15];Min[galat15];Mean[galat15]; Metode OLS LMS LAD LTS WLS
Q1 (%) 21.4 1.3 21.5 1.8 21.5
Q2 (%) 30.9 3.8 31 3.7 31
Q3 (%) 65.1 11 65.2 11.2 65.2
Max (%) 499.5 76.5 499.9 300.6 499.9
Min (%) 4.4 0.1 4.4 0.3 4.4
Rataan (%) 68.3 12.6 68.4 36.2 68.4
Galat11=Abs[(xpencilan–OLSFit[datapencilan][[3]])/xpencilan]*100 {499.482,181.156,66.6536,63.6012,60.5451,31.8721,115.133,13.5227,8 3.064,4.4373,14.7857,13.173,20.707,22.2538,26.8267,26.5493,30.0869 ,28.7356,31.7617,33.2245} Galat12=Abs[(xpencilan–LMSFit[datapencilan,4][[3]])/xpencilan]*100 {7.0991,15.1782,30.7689,14.7868,0.6412,6.33795,68.7191,0.606028,76 .4736,2.42434,7.33055,0.135055,4.10349,1.61497,3.51244,0.559351,0. 930726,4.23715,2.77896,3.34639} Galat13=Abs[(xpencilan–LADFit[datapencilan][[3]])/xpencilan]*100
35
{499.893,181.314,66.7283,63.6572,60.5842,31.8921,114.913,13.521,82 .8352,4.45272,14.8051,13.1983,20.7348,22.2855,26.8604,26.5869,30.1 26,28.7787,31.806,33.4512} Galat14=Abs[(xpencilan–LTSFit[datapencilan][[3]])/xpencilan]*100 {68.8895,11.4002,16.3303,1.81005,11.0008,2.38845,300.655,5.60362,2 79.369,1.83762,3.923,2.95925,1.6037,0.533473,1.76033,2.06085,0.265 702,5.2309,3.52449,3.88362} galat15=Abs[(xpencilan–WLSFit[datapencilan][[3]])/xpencilan]*100 {499.893,181.314,66.7283,63.6572,60.5842,31.8921,114.913,13.521,82 .8352,4.45272,14.8051,13.1983,20.7348,22.2855,26.8604,26.5869,30.1 26,28.7787,31.806,33.4512} Needs["StatisticalPlots"] BoxWhiskerPlot[b12,b14,b11,b13,b15,BoxOutliers->All,BoxLabels->{"L MS","LTS","OLS","LAD","WLS"},FrameLabel->{None,"%"}]