VoLUME 12 Nouon
I
ISSN: I4ll.58gl
Mer 2A12
I SPASIAL UNTT", K M e hI E T.IT UAN FaT
S
PEnIaKSIRAN PenannETER MoDEL REGRESI BETA UNTUK MenaonELKAN Darn PnopoRsr Nusar Hajarisman
ILruaUsA FCILA Arue Iru PeRTwuxAuAN DI BANDAR UDARA DEPRN ANAIN PAruCXELF|NANG FERIOEE JANUNNI ZOOO nEsErdtsER ao t I Akhmad Fadkoli
PnEpIT
PqnSANBINGAN T\4EToDE PRnTInL LEAST SQunne (PLS) trENGAN REe neSI KorrapoNEN Urarran UNTUK METUcaTASI MUITIxCILINEAFIITAS Nwrhasanah, Muhamrnad Subianto, dan Rikct Fitriani MEMEANGKITKRNI
Dnre Klalna InrpryIou
Asu RAI.I sI KE T* pARAAN Klarna AeREear Aceng Kamarudin Mutaqin
B
E
RMo
FenneGANG
Folls
Ton Be n DAsAR KAru DaTa
Diterbitkan oleh: JUNUSATV STATISTIKA F,qrcuTIRs MaTeMATIKA & IInau PehIcgTA,HUAN Amna UNIveRSITAS Isleru BentouNc
VoruNae
l2
I
NoMoR
MEt
2Ol2
F*za**,*, Ta,*ta AM
ISSN:l4l I -549t
A
PnrrNpuNc Rsrron Uxrvrnsrres Israv BeNpuNc
Drm,N Rrpexsr
PnNexccuNc ]nw,tr
.
Dekan Fakultas Matematika dan llm'u Pengetahuan Alam, Universitas Islam Bandung
PrupnlN Urr,ruWItnDAKSr . Ketua ]urusan Statistika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Islam
Bandung.
Snrnnrenrs
.
. . . .
REDAKST
Aceng Komarudin Mutaqin, MT., MS.
. .
BENoaHRnR
.
.
Suliadi, S.Si., M.Si., Ph.D.
.
Rnonrun PnrlxslNl . Nusar Hajarisman, MS. . Lisnur Wachidah, Dra., M.Si. . Yayat Karyana, Drs., M.Si. . R. Dachlan Muchlis, MT. . Anneke Iswani Ahmad, Dra., M.Si. . Teti Sofia Yanti, Dra., M.Si. . Siti Sunendiari, Dra., MS.
Prof. Dr. Ir. Khairil Anwar Notodiputro, MS. (Institut Pertanian Bogor). Prof. Dr. Ismail bin Mohd. (Universiti Malaysia Terengganu). Prof. Dr. Ahmad Fauzy (Universitas Islam Indonesia). Dr. Ir. Asep Saefuddiry MSc. (Institut Pertanian Bogor). Septiadi Padmadisastra, Ph.D. (Universitas Padjadjaran).
Dr. Anton Abdulbasah Kamil (Universiti Sains Malaysia). Dr. Suwanda,iDrs., M.Si. (Universitas Islam Bandung). Abdul Kudus, S.Si., M.Si., Ph.D. (Universitas
IslamBandung).
Srmutesl . Nina,Lusiana . Mastur
Junxel STATISTIKA: FoRuvt TEoRI DAN APLIKASI diterbitkan oleh furusan Statistika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Islam Bandung (FMIPA - UNISBA) sebagai media penuangan dan pembahasan karya ilmiah dalam bidang ilmu statistika beserta aplikasinya, baik berupa hasil penelitian, bahasan teori, metodologi, komputasi, maupun tinjauan buku. Terbit dua kali setahun setiap bulan Mei dan November. Redaksi mengundang para pakar dan praktisi, dari dalam dan luar lingkungan Universitas Islam'Bandung, untuk menuliskan karya ilmiahnya yang relevan dengan bidang ilmu statistika. Naskah hendaknya dikirim dalam bentuk printout beserta softcopynya dengan format yang telah ditentukan Redaksi, dan disertai biodata penulis. Redaksi berhak mengubah naskah sepanjang tidak mengubah substansi isinya. Iuran Tahunan untuk berlangganan jurnal adalah sebesar Rp. 175.000,00 atau USD 20. Untuk biaya percetakan, setiap penulis dikenakan biaya sebesar Rp. 10.000,00 atau USD 1 per halaman.
Ar.euer Rrp^RxsI: |unNnr SrlrrsrxAv FMIPA - UNISBA Jalan Purnawarman No. 63, Bandung 4011,6 3368 Ext. 136/1.60 r Fax. 0224263895
. Telp. 022420
E-mail:
[email protected]
VoLUME I 2, NoMoR I , MEt
2Ol2
ISSN
: l4l 1_
Eag l
F*on"_ Tc^_i /a"r* Age;lr_*l 9*dfufr*a Daftar lsi Pengantar Redaksi
lil
Daftar lsi Anik Djuraidah dan Aji Hamim wigena, Regresi spasial untuk Menentuan Faktor-faktor Kemiskinan di provinsi Jawa Timur Nusar Hajarisman, penaksiran parameter Model Regresi Beta untuk Memodelkan Data p roporsi
r-8 g-18
Akhmad Fadholi, Anolisa pola Angin permukaan di Bandor rJdara Depati Amir Pangkalpinang periode Januari zooo Desember zott -
r9-zB
Erwin Harahap, Prediksi Kemacetan pada Jaringon Komputer
29-)2
Menggunakan Metode Naive Bayesian Classifier ad Subianto, dan Rika Fitriani, perbandingan uare (etS) dengan Regresi Komponen Utama
33-42
olinearitas Aceng Komarudin Mutaqin, Membongkitkan Data Klaim tndividu Pemegang Polis Asuransi Kendaraan Bermotor Berdasarkan Data Klaim Agregat
43-49
Statistika, Vol. 12 No. 1 , 33
Mei2012
-
42
Perbandingan Metod e Partial Least Square (PLS) dengan Regresi Komponen Utama untuk Mengatasi Multikolinearitas N URHASANAH, M UHAMMAD SU
[.
BIANTo, RIKA FITRIRI.II
Jurusan Matematika FMIPA UNSYIAH Syech Abdu] Rauf No.3 Darussalam, Banda Aceh
E-mail :
[email protected]
ABSTRAK Dalam mengatasi multikolinearitas pada suatu data, ada beberapa metode yang dapat digunakan,
tT"-"'Jffi J:.'T:lI"ffi :l;,:n"ffi
jffiI
an bahwa metode PLS lebih baik dari pada RKU berdasarkan nilai koefisien determinasi @r) yang tinggi, nilai Mean Suare Error prediction (MSEp) dan nilai Root Mean Sqtare Enor Predictron (RMSEP) yang minimum. Kata lotnci: multikolineaitas, metode Portial Least Square (PLS), regresi komponen utama (RKIJ), Rz, MSEP, RMSEP.
1.
PENDAHULUAN
Analisis regresi linear berganda yang mempunyai banyak variabel bebas, sering timbul masalah karena terjadinya hubungan antara dua atau lebih variabel bebasnya. Variabel bebas yang saling berkorelasi disebut multikolinearitas (multicollineantg). Safah satu dari asumsi model regresi linear adalah bahwa tidak terdapat multikolinearitas diantara variabel bebas yang
termasuk dalam model. Multikolinearitas teg'adi apabila terdapat hubungan atau korelasi diantara beberapa atau seluruh variabel bebas (Gonst and Mason; 1977 dalam Soemartini, 2008).
Untuk mengetahui adanya multikolinearitas yaitu dengal menghitung koefisien kbrelasi sederhana antara sesarna variabel bebas, jika terdapat koefisien korelasi sederhana yang hampir mendekati * I maka hal tersebut menunjukkin terjadinya masalah multikolinearitas d"lg1 regresi (Walpole, 1988). Selain itu, salah satu alat untuk mengukur adanya
multikolinearitas adalah Variance Inflation Factor (VIF). VIF adalah suatu fal
10 dapat digunakan sebagai petunjuk adanya multikolinearitas pada data. Gejala multikolinearitas menimbulkan masalah dalam model regresi. Korelasi altar variabel bebas yang sangat tinggi menghasilkan penduga model regresi yang berbias, tidak stabil, dan mungftin jauh dari tritai pt"aitsinya (Bilfarsah, 2OO5). Salah satu cara untuk mendapatkan koefisien regresi pada persamaan regresi linear berganda metode kuadrat terkecil. Metode ini menghasilkan penaksir terbaik (tak bias minimum) jika saja tidak ada korelasi antar variabel bebas. Namun jika hal itu berapa cara atau metode yang dapat digunakan untuk mengatasi masalah multikolinearitas yaitu regresi komponen utama, regresi ridge, metode kuadrat terkecil parsial @artial least squarQ dan bebrapa metode tainnya. Dalam penulisan ini hanya membandingkan metode Partial Least Square (PLS) dan regresi komponen utama. Metode Partial Least Square (PLS) merupakan proses pendugaan yang dilakukan secara iteratif dengal melibatkan struktur keragaman variabel bebas dan variabel tak bebas. Metode kedua yang dikaji dalam penelitian ini adalah regresi komponen utama yaitu regresi dengan mengambil komponen utama sebagai variabel bebas. Koefrsien penduga dari metode ini diperoleh melalui pen5rusutan dimensi variabel penduga komponen utama, dimaaa subset komponen utama yang dipilih harus tetap mempertahankan keragaman yang besar terhadap variabel tak bebasnya (Herwindiati, 19971. 33
34
Nurhasanah, dkk.
Dari pengkajian kedua metode tersebut akan dihitung nilai R2, Mean Sqtare Error Prediction (MSEP), dan Root Mean Square Error Prediction (RMSEP) dan kemudian didapatkan metode mana yang lebih baik diantara kedua metode tersebut dengan melihat nilai R2 yang lebih tinggi dan nilai MSEP dan RMSEP yang lebih rendah.
2. TINJAUAN
PUSTAKA
Partial Least Square (PLS) Metode Partial Least Square (PLS) merupakan so.i? model yang dapat menjelaskan struldur keragaman data. Partial Least Sqtare (PLS) dapat dilihat sebagai bentuk yang saling berkaitan dengan Prinsip Component Regression (PCR). Model yang dihasilkan oleh metode Partial Least Square (PLS) mengoptimalkan hubungan antara dua kelompok variabel. Pendugaan model hubungan Y dengan X dan pendugaan nilai Y tertentu menggu.nakal suatu algoritrna. Proses penentuan model dilakr,rkan secara iterasi dengan melibatkan keragaman pada variabel X dan Y. Struktur ragam dalam Y mempengaruhi perhitungan komponen kombinasi linear dalam X dan sebaliknya, struktur ragam dalam X berpengaruh terhadap kombinasi linear dalam Y (Bilfarsah, 2005). Pada dasarnya Partial least square (PLS) memodelkan hubungan variabel Ydengan variabel X berdasarkaa variabel internal. Variabel X dibagi ke dalam skor dinyatakan sebagai:
l,
dan loading Pr, YanE
X =trPt*tzP'z*tzP|+"'+ trp',+ En
(2'1)
dimana: X= variabel bebas
/o = vektor skor (score uectorl variabel X p
n = vel
E
n= rnatiks sisaan variabel X
Variabel Yjuga dibagi dalam skor
Y = urq,
*
lt,
dan loading
Q
n
* utel+'..+
uzQ'z
YanE dinyatakan sebagai:
uhq'h + Fh
(2.21
dimana: Y= variabel tak bebas
Ilo = vel
(score uector) variabel Y
n = vel
4
IZ
= matrit<s sisaan variabel Y
(Wigena dan Aunuddin, 1998).
Pemodelan Partial Least
Sqnre
(PLS) ditempuh melalui hubungan variabel
konvergen. Jika proses konvergensi dari skor variabel
X(/r)
I'tI dan th yfig
dan skor variabel tak bebas
Y(uhl
dihitung secara terpisah, maka model yang dihasilkan mempunyai hubungan yang lemah. Untuk memperbaiki kondisi tersebut, proses konvergensi dari u o dan t o dilakukan secara befsama-sama dengal cara melibatkan skor Ypada perhitungan loading X:
u*ot = Yj
p,
il'x uu
(2.3) (p sebagai fungsi dari u)
serta melibatkan skor Xpada perhitungaa loading Y:
Statistika, Yol. 12, No. 1, Mei 2012
(2.41
Perbandingan Metode PaftialLeasf Sguare (pLS) ...
,
Q =-
'
t'Y
(q sebagai fungsi dari l)
t't
35
(2.s)
Melalui cara tersebut, akan mempeicepat proses konvergensi, tetapi masih ada beberapa kelemahan lain skor X (t r,) yang dihasilkan ternyata tidak orthogonal. Jika t tid,ak h ^rLtara orthogonal akarr terjadi_korelasi yang cukup besar antara variabel bebas X. Untuk mengatasi
kendala tersebut, skor X perlu diskalakan lagi dengan suatu pembobot ut (loadingl
Regresi Komponen Utama Regresi komponen utama merupakan metode yang cukup baik untuk memperoleh koefisien penduga pada persamaan regresi yang mempunyai masalah multikolinearitai. Variabel bebas pada regresi komponen utama berupa hasil kombinasi linear dari variabel asal Z, yang disebut sebagai komponen utama. K
dimensi komponen utana,
mempertahankan keragaman variabel X. Adapun hasil normal baku yang dimaksud ad variabel bebas asal X; dengan rata-rata darl dibagi dengan si
setiap
(2.61
Cara penghapusan komponen utama dimulai dari prosedur seleksi akar
persarnaan:
lax-1rl:o Jika akar ciri
2,
ciri dari
suatu
(2.71
diurutkan dari nilai terbesar sampai nilai terkecil, maka pengaruh komponen
),r. tni berarti bahwa komponen-komponen tersebut menerangkan proporsi keragaman terhadap variabel tak bebas Y yang semakin lama semakin utama
W;
kecil. Komponen
berpadanal dengan pengaruh
utana W;saling orthogonal sesamanya dan dibentuk melalui suatu hubungan:
Wj=vrj Zr+v, Zr+vr, Zrrt...+vo, Vektor ciri
v,
diperoleh dari setiap akar
ciri ),,
yat
Zo
(2.8)
s memenuhi Suatu sistem persamaan
homogen:
I
dx - ),1lv, =o
(2.e)
.. I dimana y, = (yri , Vz j, vt j, ..., v pj )\ Jika terdapat m subset kor'.ponen utama yang akan masuk dalam persamaan regresi, maka persamaan tersebut dapat ditulis sebagai:
Y=W.i,*t
(2.rol
Perhitungan koefisien penduga regresi komponen utama dengaa penduga metode kuadrat terkecil, yaitu:
B
B
=@,w)-' w, y
dapat dilakukan secara analog
(2.Lrl
Untuk mendapatkan nilai t rritung pada nilai koefisien regresi komponen utama dapat dilakukan dengan menghitung nilai simpangan baku untuk masing-masing koefisien regresi dengan
menggunakan persamaan sebagai berikut:
t(r)=J-"iW
,i=t,2,...
(2.r2)
Statistika, Vol. 12, No. 1, Mei 2012
36
Nurhasanah, dkk.
dimana:
(4.o1,
2
var Qr,) =
.S
*...*';) 1'
12 Z(v, - v)' [2,
(2.13)
)
i=l
s2 li t
dimana:
= varians = variabel tak bebas = nilai rata-rata dari variabel tak bebas
air, Qtz, .,. , oij = nilai vektor ciri yang terpilih
4, Lt,
'-. ,
)i
= nilai akar ciri yang terpilih
Untuk mendapatkan nilai t hitung dari koefisien baku regresi kornponen utama dapat dihitung dengan persamaan sebagai berikut: koefisien pendugaQ,) ' hitung
t
(Y,) (2.14l'
(Jollife, 1986 dalam Herwindiati, 1997).
Seleksi ModelTerbaik
pemilihan model terbaik dapat dilakukan dengan melihat nilai determinasi (Rz). Model dikatakan baik jika nilai R2 tinggi, nilai Rz berkisar antara O sampai 1. Adapun cara untuk memperoleh nilai Rz adalah sebagai berikut: (2.15)
dimana:
Rz = Koefisien determinasi
j', y
= variabel tak bebas dugaan
= nilat rata-rata dari variabel tak bebas
(Sembiring, 1995).
Menurut (Andriyanto dan Basith, 1999), pemilihan model terbaik juga dapat dilakukan dengan melihat lai\ai Mean Square Error Prediction (MSEP) dan Root Mean Sqtare Enor Prediction (RMSEP). Metode terbaik adalah metode dengan nilai MSEP dan nilai RMSEP terkecil. Kriteria MSEP dan RMSEP dapat ditentukan dengan cara:
MSEP =
- v,)' >,6', i=l
RMSEP = dimana:
!,
= variabel takbebas dugaan
Statistika, Yol. 12, No. 1, Mei 2012
(2.161
(2.171
Perbandingan Metode partialLeasf Sguare
3.
/,
= variabel takbebas sebenarnya
n
= banyalo:rya data
(pLS)...
37
HASIL DAN PEMBAHASAN
Penyelesaian dengan Metode PariiatLeasf Square (pLS) Perhitungan vektor pembobot 'l4tr, vektor skor (score uectofl dari variabel X dan variabel y serta vektor muatan (Ioading uectorl dari variabel X dan variabel Y merupakan nilai- nilai yang diperlukan untuk menduga koefisien pada metode partial Least square .
FLs)
Selanjutn Error Pre
, Mean Square Error Prediction (MSEP), dan Root Mean Square setiap komponen dari metode Partial least Square lpLS)
disajikan
Tabel 3.1. Nilai R2, MSEP dan RMSEP pad,a partial Least Square (pI-S) Komponen ke
R2
MSEP
RMSEP
1
o.o7r97
12.6394
2
0.63231 o.69262 0.80321 0.93115
5.OO77
3,5552 2.2378 2.0461
3
4 5 6
o.94733
8
0.95499 0.95649
9
0.9s659
4.1863 2.6801
o.9377
r.637I
o.7r74
0.9683
0.6131
o.5926 0.s912
o.8470 0.7830 o.769a o.7689
Berdasarkan hasil nilai R2, MSEP dan RMSEP yang tercantum pada Tabel 3.1 terlihat bahwa pada komponen kelima sudah tercapai kondisi konvergen karena pada komponen tersebut nilai R2 mPonen kesembilal nilai R2 penduga model adalah
ko
yaitu sebagai berikut:
Tabel 3.2. Nilai R2 MSEP dan RMSEP pada Komponen Kelima
Nilai
Komponen Ke 5
R2
MSEP
RMSEP
0.93115
o.9377
0.9683
Statistika, Vol. 12, No. 1, Mei 2012
38
Nurhasanah, dkk.
Berdasarkan hasil yang diperoleh, koefisien penduga dan nilai t nitung pada komponen kelima adalah sebagai berikut: Tabel 3.3. Nilai Koefisien Penduga dan t rrit*g pada Komponen Kelima Koehsien Penduga
Nilai Koefisien
Xr
9r
Xz
pz
Xs
9s
X+
9+
69.7400 -23.7629 -98.s289 -73.2028
Xs
9s
Variabel
0.
r985
Xo
9o
74.7836
Xz Xa
$z pa
85.2408
Xs
Fs
-t2.5974
Keterangan: * Signifrkan pada Berdasarkan Tabel
t hitrrg
Penduga
1.7561
d=
1.6000 1.8356 * 3.6448 * 2.8396 *
0.0039 2.7270 * 0.9783 5.6926 " -0.3367
5Yo
3.3 menunjuklran bahwa koefrsien penduga pada metode Partial I'eost
pada taraf nyata O,05. Variabel-variabel yang , dan Xa, sedangkan variabel-variabel lainnya engan melihat nilai t hit'ng pada masing-masing
tidak nyata garuh
variabelXz,i3,X+,X6,dan)Gyanglebihbesardarinilaitttt=t(o.es,36) =1'70.Berdasarkan pengqjiandisimpulkanbahwaUoaitot"t karenanilai ltr,it.'gl > llt'u.tl sehinggapengujian nitai statistik uji t untuk regresi adalah nyata pada taraf nyata 0'05' Penyelesaian dengan Metode Regresi Komponen Utama Dalam analisis regresi komponen utama hal yang terlebih dahulu dilakukan menormal bakukan variabel-variabel X menjadi Z, kemudian menentukan nilai akar ciri dan vektor ciri dari matriks Z dapat dilihat pada Tabel 3.4 dan Tabel 3'5 berikut: Tabel 3.4. Nilai Akar Ciri,l;
Akar Ciri (,!)
Proporsi
Komulatif
7.L795
o.7977 0.1540 o.0332 o.0116 0.0025 0.0007 0.0002 8.7573x10-o 3.8658x10-o
o.7977 0.9517 0.9849 0.9966
t.3862 o.2987 0.1048 o.0226 0.0066 0.0016 7.8816x10-s 3.4793x10-s
Statistika, Vol. 12, No. 1, Mei2Q12
0.9991
o.9999 o.9999 o.9999 1.0000
Perbandingan Metode PartialLeasf Sguare (pLS) .:.
39
Tabel 3.5. Nilai Vektor Ciri Zr 74
vl
v2
v3
0.3688 0.3701
o.oa47
o.0423 -0.250
Zs
o.3712 o.3714 o.2L44
Za
o.3687
Zs
h Zt Ze Zs
o.0796 o.3702 0.3550
0.0689 0.0179
o.0494 0.0185 o.0554 0.5961 0.0879 o.7778 0.0836
v4
v5
v6
0.2806 o.2692
.o276t
0.6861
o.2939
0.1 104
0,1934
0,5400 0,4553
o.2719 0.1845 0.0683
o.7696
0.0756
o.0s66 o.6227
o.0277
0.0513
0.0020
0.1048
0.8710
0.0933 0.0136 0.7095
0.3100
0.0209
v9
0.1092
0.3750 0.6s95 o.1979
o.2770
0.49s3
o.6t27
0.6663
0.0365
-
1.2x10-
0.001 r
5
0.5834
0.0453 0.0007 -0.0879 o.oo27
0.0006
0.0393 0.0083 0.12
v8
o.o796 0.0500
0.0383
0.0073 o.4376
v7
0.7983 0.0154
11
0.4815 0.0021 0.0088
0.0037 0.0459 0.0033
0.0865
Berdasarkan Tabel 3.4 menunjukkan bahwa akar ciri pertama menjelaskan sekitar Tg3TVo keragaman yang terjadi, dan akar ciri yang kedua menjelaskan L5.4yo dan akar ciri yang berikutnya hanya menjelaskan sekitar O.33V" dan O.l17o saja. Berdasarkan Tabel 3.5 menunjukkan bahwa dari sembilan komponen utama yang diturunkan dari matriks korelasi antar variabel bebas, ada dua komponen utama yang memegang peranan penting dalam menerangkan keragaman total data, yaitu komponen utama pertama dan kedua atau dilihat d ciri yang lebih besar dari 1. Dengan demikian komponen utama pertama (Wr) d utama kedua (Wz) yang merupakan kombinasi linear dari Z dapit dinyatakan dari_
d an berikut: Wr= 0.3688 Zr + O.37OlZz+ O.37I2Zs+ O.37l4k + O.2t44% + 0.3687 k - 0.0T96Zz+ O.37O2 Ze + O.355O h wz = -0.0847 h-0.0689zz-Q.o494zs-o.o55424+ 0,s961 zs-o.oBZ9%+ o.TT78zz 0.0836 Ze - 0.0865
h
Matriks W; berisi skor komponen utama yang diperoleh dari persarnaan Wr dan
Wz.
Selanjutnya Y diregresikan terhadap skor komponen utama Wr dan Wz, hasilnya dapat dilihat pada Tabel 3.6 berikut: Tabel 3.6. Penduga Parameter Regresi Komponen Utama Variabel
DB
Pendugaan
I hittng
Konstanta Wr
I
40.6361
105.8s0
2x10-lo
1
1.0481
7.2I3
2.86x10-e
Wz
I
-0.898s
-2.7L7
0.0104
P
Value
Nilai VIF 1
I
Tabel 3.7 Tabel Sidik Ragam Regresi Komponen Utama Sumber Keragaman Model Galat
Total Rz = 0.6429
DB
Jumlah Kuadrat
2
315.2t4
L57.607
33 35
17s.089 490,303
5.306
Kuadrat Tengah
.F
hitr.g
29.7r
P Value
4.179-8
adj R2 = 0.6213
Statistika, Yol. 12, No. 1 , Mei 2012
Nurhasanah, dkk.
40
Berdasarkan Tabel 3,6 dan Tabel 3.7 terlihat bahwa nilai Rz yang dihasilkan oleh koehsien 97o, kemudian
nilai
disimpulkan bahwa
uji F untuk
regresi
Model yang sudah didapat selanjutnya ditransformasikan kembali ke variabel asalZ, sehingga diperoleh persarnaan regresi dalam variabel bam sebagai berikut:
Y Y
=
40 .6361 + 1 .048
=
Z, + 0.4498 Z, + 0.4334 Z, + 0.4390 Zn + 0.3109 + 0.4654 Zu + 1.0869 Z7 + 0.4631 Z, + 0.4498 Ze
I
W,
-
O.8gg5
l4/2
(3,1)
40.3631 + 0.4626
Z5
P.2)
Nilai simpangan baku dan nilai t r'it"g untuk masing-masing koehsien regresidapat rlilifuaf pada
Tabel 3,8 berikut:
Tabel 3.8. Analisis Signihkansi Koehsien Regresi parsial
Variabel
Nilai Koehsien
Simpangan Baku
Zt
0.0 r62
Zo
o.4626 o.4498 o.4334 0.4390 0.3109 o.4654
Zt
1.0869
Zz
Za
o.463r
0.0156 0.1506 0.0152 0.0533 0.0163 0.0688 o.o162
Zs
o.4498
0.0158
Zs Z+
Zs
Keteralgan : * Signihkan pada d,
=
5
f
nirrng
28.6329 * 28.8235 " 28.78L9 " 28.8293 * 5.8305 * 28.5772 * 15.7995 *
28.6576 * 28.5408 *
%o
regresi komponen utama disajikan dalam
en regresi nyata secara statistik pada taraf
nilai t
hituns
pada rnasing-masing variabel
,""Tiifft*rusi?T3ilffi
Jfl;a*#i'ff
Untuk memperoleh persamaan penduga dengan menggunakan variabel asli, ditransformasikan kembali ke model regresi f' = -f (w) r<e variabel asaloya f' = f (x) , yaitu:
'i
=
+ 0.4654 Zu + 1.0869 Y
=
Z, + 0.4334 Z, + 0.4390 Zn + O.3l0g Z5 Z, + 0.4631 Z, + 0.4499 Zs
40.3631+0.4626 Z, + 0.4498
2.7413 +3.7641X, + 3.9860
-
0.1689
X,
X,
+ 4.2835
+ 5.1074 Xu + 5.7933
X,
+ 4.32g3 X4
X, * 4.Btg3 X, + 7.7344 X,
(3.3)
Tabel 3.9 berikut ini merupakan nilai R2, MSEP dan RMSEP dari regresi komponen utama Tabel 3.9. Nilai R2, MSEP dan RMSEp dari Metode Regresi Komponen utama
Nilai
Metode Analisa Regresi Komponen Utama
Statistika, Yol. 12, No. 1 , Mei 2012
R2
MSEP
RMSEP
o.6429
5.2513
2.2916
:
Perbandingan Metode PaftialLeasf Square
(pLS)... 4j
Perbandingan Metode Dari hasil seluruh pembahasan, nilai koefisien penduga dan nilai I hitu,g dari kedua metode dapat dilihat pada Tabei 3.10 berikut: Tabel 3.10. Nilai Koehsien Penduga dan Nilai t rut,^g dari Kedua Metode
Nilai Koefrsien Penduga Koefisien Penduga
Nilai f rutu'g
Partial Least
Regresi
Sqtare
Komponen
Partial Least SEtare
Komponen
(PLS)
Utama
(PLS)
Utama
o.4626 o.4498 o.4334
1.6000 1.8356 * 3.6448 *
0.4390 0.3109
2.8396 "
Fo
69.7400 -23.7629 -98.5289 -73.2028 0.1985 74.7836
2.7270 *
9t
1.7561
o.4654 r.0869
28.6329 * 28.8235 * 28.78L9 * 28.8293 * 5.8305 * 28.5772 *
0.4631
5.6926 *
15.7995 * 28.6576 *
o.4498
-0.3367
28.5408 *
Fr Fz 9s 9q
9s
Fa
9s
8s.2408 -L2.5974
Keterangan: * Signihkan pada
0.0039 o.9783
Regresi
d = 5o/o
Berdasarkan Tabel 3.10 menunjukkan bahwa koefisien penduga pada metode partial Least SEtare (PLS) tidak semuarya berpengaruh nyata pada taraf nyata 0.05. Variabel-variabel yang berpengaruh nyata adalah variabel Xz, Xs, X+, X6, dan Xa, sedaagkan variabel-variabel lainnya tidak berpengaruh nyata. Hal ini ditunjukkan dengan melihat nilai / r,it*g pada masing-ttr^"itrg variabel Xz, Xa, X+, Xo, dan )G yang lebih besar dari nilai f t u.r = t (o.e5,36) = 1.70. Berdasarkan pengujian disimpulkan bahwa Ho ditolak karena nilai I t hitune | > | I t^ur I sehingga pengujian nilai statistik uji t untuk regresi adalah nyata pada taraf nyata 0.05. Sedangkan pada rigresi komponen utama menunjukkan bahwa semua koehsien rlgresi nyata secara statistik ;ada taraf nyata 0.05. Hal ini ditunjuld lt t"u.rl sehingga pengujian nilai statistik uji t untuk regresi adalah nyata pada tarafnyata O.05. Untuk mengeta-hui metode mana yang lebih baik, perlu dikaji nilai R2, MSEP dan RMSEp nya. Nilai R2, MSEP dan RMSEPyang diperoleh dari kedua metode dapat dilihat pada Tabel 3.ll
berilmt ini:
Tabel 3.11. Nilai R2, MSEP darr RMSEP dari Kedua Metode
Nilai
Metode Analisa Partial Lea.st SEtare (PLSI Regresi Komponen Utama
R2
MSEP
RMSEP
0.93115
o.9377 5.2513
0.9683
o.6429 2.2916 Berdasarkan Tabel 3. 1 1 , nilai Rz dari metode Partial Least Sqtare (PLS) memberikan nilai yang lebih besar dibandingkan dengaa metode regresi komponen utama. Hal ini berarti mCtoae Partial Least Square (PLS) memberikan ketepatan model yang lebih baik dari pada metode regresi komponen utama. Begitu juga jika ditinjau dari nilai MSEP dan nilai RMSEP, metode Paftial Least Square (PLS) mempunyai nilai yang lebih rendah dari pada metode regresi komponen utama sehingga metode Partial Lea.st Square (PLS) memberikan ketepatan model yang lebih baik dari pada metode regresi komponen utama.
Statistika, Yol. 12, No. 1, Mei 2012
42
Nurhasanah, dkk.
4,
KESIMPULAN DAN SARAN Berdasarkan hasil penelitian yang dilakukan terhadap kedua metode untuk mengatasi multikolinear yaitu metode Partial Least Square (PLS) dan metode regresi komponen utama dapat disimpulkan bahwa: (1) Pada Metode Partiol Leo,st Square (PLS) nilai koehsien penduga pada masing-masing variabel tidak semuanya berpengaruh nyata pada taraf nyata 0.05, sedangkan pada regresi komponen utama semua nilai koefrsien penduga pada masing-masing variabel semuanya berpengaruh nyata pada taraf nyata 0.05; (2) Metode Partial Least Square (PLS) memberikan hasil yang lebih baik jika dibandingkan dengan metode regresi komponen utama. Hal ini dapat disimpulkan dengan melihat nilai R2, Mean Square Error Prediction (MSEP), dan Root Mean Square Eror Prediction (RMSEP). Metode Partial Least Square IPLS) mempunyai nilai Rz yang lebih tinggi dan mempunyai nilai MSEP dan RMSEP yang lebih rendah jika dibandingkan terhadap metode regtesi komponen utama. Peneliti yang berkeinginan melanjutkan pengembangan tulisan ini diharapkan dapat menggunakan metode yang berbeda misalnya dengan menggunakan metode regresi, idge sebagai metode pembanding serta menggunakal data riil. DAFTAR PUSTAKA Dalam t1]. Bilfarsah, A. 2005. Efektihtas Metode Aditif Spline Kuadrat Terkecil Parsial Pendugaan Model Regresi. Makara, Sadns, 9 (i) : 28 - 33. 121. Herwindiati, D.E. f997. Pengkajian Regresi Komponen Utama, Regresi Ridge, dan Regresi Kuadrat Terkecil Parsial untuk Mengatasi Kolinearitas. ?esis. Institut pertanian Bogor. Bogor.
t3l. l4l. tsl. t6l 17l
tSl.
Analgsis. John Montgomery, D.C dan Peck, E.A. 1992. Introductionto Linier Regresston Willey & Sons. New York. Naes, T. 1985. Multivariate Calibration When The Error Covariance Matrix is Structured. Technometics, 27 (31 : 301 - 31 l. Noryanti. 2009. Pengaruh Hasil-hasil Ujian di Sekolah Terhadap Hasil Ujian Nasional di SMU Negeri 1 Limboto Kabupaten Gorontale" Teknologi Technoscientia. 2 (Ll:85 - 95. Sembiring, R. K. 1995. Analisi.s Regresi. ITB Bandung. Bandung. Soemartini. 2008. Penyelesaian Multikolinelaritas Melalui Metode Ridge Regression. ?esis. Universitas Padj aj aran. Wigena, A. H dan Aunuddin, 1998. Metode PLS untuk Mengatasi Kolinearitas dalam Kalibrasi Ganda. Forum SfatisfikadanKomputasi.3 (1) : f7-19'
Statistika, Yol. 12, No. 1, Mei 2012