7
BAB 2
LANDASAN TEORI
2.1.
Analisis Korelasi
Analisis korelasi adalah alat statistik yang dapat digunakan untuk mengetahui derajat hubungan linear antara satu variabel dengan variabel lain (Algifari, 1997). Umumnya analisis korelasi digunakan, dalam hubungannya dengan analisis regresi, untuk mengukur ketepatan garis regresi dalam menjelaskan variasi nilai variabel dependen.
Ukuran yang digunakan untuk mengukur derajat korelasi (hubungan) antara satu variabel dengan variabel lain dinamakan koefisien korelasi (correlation coefficient) yang disimbolkan dengan r. Jika koefisien korelasi dikuadratkan (r2) maka akan menjadi koefisien determinasi. Dalam konteks regresi, koefisien determinasi merupakan ukuran yang lebih bermakna dibandingkan koefisien korelasi. Koefisien determinasi mampu memberikan informasi mengenai variasi nilai variabel dependen yang dapat dijelaskan oleh model regresi yang digunakan. Sedangkan koefisien korelasi hanya merupakan ukuran mengenai derajat hubungan antara dua variabel.
Untuk mengetahui keeratan hubungan antara dua variabel dengan melalui koefisien korelasi adalah dengan menggunakan nilai absolut dari koefisien korelasi tersebut. Besarnya koefisien korelasi (r) antara dua macam variabel adalah nol sampai dengan ± 1. Apabila dua buah variabel mempunyai nilai r = 0, berarti antara dua variabel tersebut tidak ada hubungan. Sedangkan apabila dua buah variabel mempunyai r = ± 1, maka dua buah variabel tersebut mempunyai hubungan yang sempurna. Semakin tinggi nilai koefisien korelasi antara dua buah variabel (semakin mendekati 1), maka tingkat keeratan hubungan antara dua variabel tersebut semakin tinggi. Dan sebaliknya, semakin rendah koefisien korelasi antara dua macam variabel
8
(semakin mendekati nol) maka tingkat keeratan hubungan antara dua variabel tersebut semakin lemah.
Koefisien korelasi dapat juga digunakan untuk mengetahui arah hubungan antara dua variabel. tanda minus (-) pada nilai r menunjukkan hubungan yang berlawanan arah. artinya, apabila nilai vaariabel yang satu naik maka nilai variabel yang lain turun. Tanda plus (+) pada nilai r menunjukkan hubungan yang searah. Artinya, apabila nilai variabel yang satu naik, maka nilai variabel yang lain juga naik (Algifari, 1997).
2.2.
Matriks Korelasi
Matriks korelasi n peubah acak X1, ..., Xn adalah n × n matrik dimana i,j adalah corr(Xi, Xj). Jika ukuran korelasi yang digunakan adalah koefisien momen-produk, matriks korelasi akan sama dengan matrik kovarian peubah acak yang telah distandarkan Xi /SD(Xi) untuk i = 1, ..., n. Sehingga, matriks korelasi merupakan matriks definit tak-negatif. Matriks korelasi selalu simetris, yakni korelasi antara X i dan X j adalah sama dengan korelasi antara X j dan X i .
2.3.
Nilai Eigen dan Vektor Eigen
Kata “vektor eigen” adalah ramuan bahasa Jerman dan Inggris. Dalam bahasa Jerman “eigen” dapat diterjemahkan sebagai “sebenarnya” atau “karakteristik”. Oleh Karena itu, nilai eigen dapat juga dinamakan nilai sebenarnya atau nilai karakteristik. Dalam literatur lama kadang-kadang dinamakan akar-akar latent. Jika A adalah matriks n x n, maka vektor taknol x di dalam Rn dinamakan vektor eigen (eigenvector) dari A jika Ax adalah kelipatan skalar dari x; yakni,
9
Ax = λ x untuk suatu skalar λ . Skalar λ dinamakan nilai eigen (eigenvalue) dari A dan x dikatakan vektor eigen yang bersesuaian dengan λ (Anton, 1987) .
Nilai eigen merupakan bilangan real, yang berarti dapat bernilai nol, negatif, dan positif, sedangkan vektor eigen x merupakan anggota dari Rn untuk An x n dan x bukan vektor nol ( Mahmud, 2009 ). Jika λ adalah nilai eigen dari A yang bersesuaian dengan x. maka Ax = λ x, sehingga perkalian oleh A akan memperbesar x, atau membalik arah x, yang bergantung pada nilai λ . Untuk mencari nilai eigen matriks A yang berukuran n x n maka dituliskan kembali Ax = λ x sebagai Ax = λ I x atau secara ekivalen ( λ I – A)x = 0 Supaya λ menjadi nilai eigen, maka harus ada pemecahan taknol dari persamaan ini. Akan tetapi ( λ I – A)x = 0 akan mempunyai pemecahan tak nol jika dan hanya jika det( λ I – A) = 0 Ini dinamakan persamaan karakteristik A, skalar yang memenuhi persamaan ini adalah nilai eigen dari A. Bila diperluas, maka determinan det( λ I – A) adalah polinom λ yang dinamakan polinom karakteristik dari A (Anton, 1987). Vektor eigen A yang bersesuaian dengan nilai eigen λ adalah vektor taknol x yang memenuhi Ax = λ x. Secara ekivalen, vektor eigen yang bersesuaian dengan λ adalah vektor taknol dalam ruang pemecahan dari ( λ I – A)x = 0. Ruang pemecahan ini dinamakan sebagai ruang eigen (eigenspace) dari A yang bersesuaian dengan λ (Anton, 1987).
2.4.
Determinan
Determinan merupakan fungsi dari matriks bujur sangkar, n x n, ke bilangan real (Mahmud, 2009). Fungsi determinan didefenisikan det(A) (dengan notasi alternative
10
A ) sebagai jumlah semua hasil kali elementer bertanda dari A. Jumlah det(A)
dinamakan determinan A (Anton, 1987).
Determinan A secara simbolis ditulis sebagai det( A) = ∑ ± a1 j1 a 2 j2 ...a njn dimana
∑
menunjukkan bahwa suku-suku tersebut harus dijumlahkan terhadap
semua permutasi ( j1 , j 2 ,..., j n ) dan simbol + atau – dapat dipilih dalam masingmasing suku sesuai dengan apakah permutasi itu genap atau ganjil (Anton, 1987).
Jika A adalah matriks kuadrat, maka minor entri aij dinyatakan oleh M ij dan didefenisikan menjadi determinan submatriks yang tetap setelah baris ke i dan kolom ke j dicoret dari A. Bilangan (−1) i + j M ij dinyatakan oleh C ij dan dinamakan kofaktor entri aij .
Determinan matriks A yang berukuran n x n dapat dihitung dengan mengalikan entri-entri dalam suatu baris atau kolom dengan kofaktor-kofaktornya dan menambahkan hasil-hasil kali yang dihasilkan; yakni, untuk setiap 1 ≤ i ≤ n dan 1 ≤ j ≤ n , maka det (A) = a1 j C1 j + a 2 j C 2 j + ... + a nj C nj (ekspansi kofaktor sepanjang kolom ke j) det (A) = ai1C i1 + ai 2 C i 2 + ... + ain C in
(ekspansi kofaktor sepanjang baris ke i)
(Anton, 1987).
2.5.
Analisis Komponen Utama
Analisis komponen utama merupakan suatu teknik mereduksi data multivariat (banyak data) untuk mengubah (mentransformasi) suatu matrik data awal/asli menjadi suatu set kombinasi linear yang lebih sedikit akan tetapi menyerap sebagian besar jumlah varian dari data awal.
11
Analisis komponen utama tidak selalu bermanfaat. Analisis komponen utama digunakan untuk mereduksi banyaknya peubah asal menjadi beberapa peubah baru yang dapat menjelaskan dengan baik keragaman data asal. Bila tidak ada korelasi antara peubah asal, analisis komponen utama tidak akan memberikan hasil yang di inginkan, karena peubah baru yang diperoleh hanyalah peubah asal yang ditata berdasarkan besarnya keragamannya. Makin erat korelasi (baik positif maupun negatif) antara peubah, maka baik pula hasil yang diperoleh dari analisis komponen utama.
Analisis komponen utama mengekstrak dengan cara yaitu komponen pertama menyerap varian matriks korelasi paling banyak. kemudian diikuti komponen kedua yang menyerap varian terbanyak kedua terhadap sisa varian dan begitu seterusnya, sampai komponen yang terakhir menyerap varian matriks korelasi paling sedikit. Setiap komponen yang berikutnya juga harus orthogonal yaitu tidak berkorelasi sama sekali dengan komponen sebelumnya atau yang mendahuluinya. Akhirnya, ketika p mendekati k, jumlah varian yang dijelaskan oleh setiap komponen semakin kecil. Tujuannya ialah untuk mempertahankan sejumlah komponen yang diperoleh bisa dipergunakan sebagai variabel bebas (predictor) dalam analisis regresi/diskriminan atau analisis varian, yang sudah bebas dari multikolinearitas.
Kalau Ki = komponen ke i, maka diperoleh m persamaan berikut : K1
= γ 11 z1 + γ 12 z 2 + ... + γ 1 j z j + ... + γ 1 p z p
K2
= γ 21 z1 + γ 22 z 2 + ... + γ 2 j z j + ... + γ 2 p z p
. . . Ki
= γ i1 z1 + γ i 2 z 2 + ... + γ ij z j + ... + γ ip z p
. . . Km
= γ m1 z1 + γ m 2 z 2 + ... + γ mj z j + ... + γ mp z p .
dimana : Ki = komponen ke i
12
γ
= vektor eigen
z
= nilai standar variabel
Komponen yang ke-i yaitu Ki merupakan kombinasi linear dari X1, X2, …, Xj, …, Xp dengan timbangan (weight) yaitu γ 1 j , γ 2 j ,..., γ ij ,..., γ ip yang pemilihannya harus sedemikian rupa, sehingga memaksimumkan rasio dari varian komponen pertama (K1) dengan jumlah varian (total variance) data asli/awal. Komponen berikutnya yaitu K2, juga kombinasi linear yang ditimbang dari seluruh variabel asli, tidak berkorelasi dengan komponen atau faktor pertama (K1) dan harus menyerap secara maksimum sisa varian yang ada (Supranto, 2004)..
Langkah awal yang dilakukan dalam Analisis Komponen Utama adalah menentukan nilai eigen dan vektor eigen dari matriks R, matriks korelasi dari X. Dengan terlebih dahulu mengubah data yang distribusi normal umum menjadi distribusi normal baku dengan rumus
Dengan : Z = nilai variabel yang di bakukan x = nilai data berdistribusi normal nilai rata-rata variabel σ = standar devias Nilai eigen matriks korelasi ini adalah r solusi λ1 , λ 2 ,..., λ r dari persamaan determinan
= 0. dapat ditunjukkan bahwa jumlah akar-akar ciri matriks korelasi ini sama dengan tras (trace) matriks ZTZ. Untuk setiap akar ciri λ j terdapat vector ciri (Characteristic vector) γ j yang memenuhi sistem persamaan homogen ( Z T Z − λ j I )γ j = 0 .
13
Vektor ciri solusinya γ j = (γ 1 j , γ 2 j ,..., γ rj ) ' , yang dipilih dari sekian banyak solusi sebanding yang ada untuk setiap j, merupakan solusi yang ternormalkan sedemikian rupa sehingga γ 'j γ j = 1 . juga dapat diperlihatkan bahwa jika semua λ j berbeda, maka setiap pasangan vector ciri akan saling orthogonal sesamanya. Vektor γ j digunakan untuk membentuk Z ke dalam suku-suku komponen utama yaitu: K j = γ 1 j z1 + γ 2 j z 2 + ... + γ rj z r
Biasanya semua K j tidak digunakan melainkan mengikuti suatu aturan seleksi tertentu. McGraw-Hill, New York, 1976, menyarankan (hlm. 273) bahwa”… komponen-komponen dapat dihitung sampai sejumlah tertentu proporsi keragaman data yang cukup besar (mungkin 75 persen atau lebih) telah dijelaskan”, dengan kata lain, kita pilih k penyumbang terbesar yang menghasilkan
k
λj
j =1
r
∑
> 0,75. Aturan-
aturan semacam ini secara otomatis memberi k peubah K yang merupakan hasil trasformasi terhadap peubah-peubah asal Z i . Selanjutnya prosedur kuadrat terkecil digunakan untuk memperoleh persamaan peramalan bagi Y sebagai fungsi dari peubah-peubah K j yang terpilih itu. Urutan masuknya K j tidak ada pengaruhnya dalam hal ini, sebab semuanya orthogonal satu sama lain. Bila persamaan regresi dalam K j telah diperoleh, persamaan ini dapat dikembalikan menjadi fungsi peubah semula Z i bila dikehendaki, atau ditafsirkan berdasarkan peubah-peubah K j tadi (Draper and Smith, 1992).
Berlawanan dengan analisis komponen utama, analisis faktor didasarkan pada suatu anggapan, mendasari struktur kausal. Variabel yang terobservasi, dipercaya, disebabkan oleh beberapa konstrak laten yang tidak terlihat (unseen latent construct). Sebagai contoh, kemampuan untuk menghasilkan bahwa ujian matematika yang sukses
disebabkan
oleh
konstrak
atau
konsep
yang
tidak
terlihat
yang
disebut :analytical intelligence. Secara konseptual hal ini merupakan suatu pendekatan yang berbeda dibandingkan dengan analisis komponen utama. Di dalam analisis akhir, analisis komponen utama menghasilkan reduksi dimensionalitas dari data set, sedangkan analisis faktor mencari untuk menjelaskan konstrak latent yang mungkin menjadi penyebab variabel yang dikumpulkan (Supranto, 2004).
14
2.6.
Regresi Linear Berganda
Regresi linear berganda adalah regresi dimana variabel terikatnya (Y) dihubungkan atau dijelaskan dengan lebih dari satu variabel bebas (X1, X2……..Xn ) dengan syarat variabel bebas masih menunjukkan hubungan yang linear dengan variabel tak bebas. Hubungan fungsional antara variabel dependen (Y) dengan variabel independent (X1, X2……..Xn ) secara umum dapat dituliskan sebagai berikut: Y = f(X1, X2……..Xn ) dengan : Y
= variabel dependen
X1, X2……..Xn
= variabel independent.
Model regresi linear berganda merupakan suatu model yang dapat dinyatakan dalam persamaan linear yang memuat peubaha dan parameter. Parameter ini pada umumnya tidak diketahui dan dapat ditaksir. Hubungan linear lebih dari dua peubah bila dinyatakan dalam bentuk persamaan matematis adalah: ∧
Y = β 0 + β1 X 1i + β1 X 2i + ... + β pi X pi ∧
dengan Y = nilai estimasi Y Xj = peubah bebas
β i = parameter Koefisien-koefisien β 0 , β1 ,..., β p dapat ditentukan dengan menggunakan metode kuadrat terkecil (least square method). Metode kuadrat terkecil untuk menentukan
persamaan linear estimasi, berarti memilih satu kurva linear dari
beberapa kemungkinan kurva linear yang dapat dibuat dari data yang ada yang mempunyai error paling kecil dari data aktual dengan data estimasinya (Algifari, 1997).