BAB II KAJIAN TEORI
Bab
ini
berisi
teori-teori
pendukung
Analisis
Profil
dengan
Multidimensional Scaling (PAMS) dan aplikasinya yang akan dibahas dalam bab selanjutnya. Yang akan dibahas dalam bab ini adalah matriks, ruang vektor euclidean, analisis multivariat, analisis profil, multidimensional scaling, distribusi empiris, prinsip plug-in, standar error dan regresi linier ganda. A. MATRIKS 1. Pengertian Matriks Menurut Howard Anton (1997: 22) matriks adalah susunan segi empat siku-siku dari bilangan-bilangan. Bilangan-bilangan dalam susunan tersebut dinamakan entri dari matriks. Matriks dilambangkan dengan huruf besar, sedangkan entri (elemen matriks) dilambangkan dengan huruf kecil. Dalam matriks dikenal ukuran matriks yang disebut ordo, yaitu banyaknya baris × banyaknya kolom. Contoh 1
Matriks
berordo 3×2, dengan entri
.
7
8
Secara umum sebuah matriks dapat ditulis:
Penulisan yang lebih singkat:
dengan i=1,2,…, m dan j=1,2,…, n.
Indeks pertama (i) menyatakan baris ke-i dan indeks kedua (j) menyatakan kolom ke-j. Dua matriks dikatakan sama, jika ordonya sama dan entri-entri yang bersesuaian dalam kedua matriks tersebut sama. Jika matriks
seperti bentuk umum di atas yaitu
i=1,2,…, m dan j=1,2,…, n, dan
dan
, maka berlaku
dengan
.
Contoh 2 Jika
dan
, dan
, hanya dipenuhi oleh
. 2. Matriks Bujursangkar Matriks dengan ordo
disebut matriks bujur sangkar, yaitu matriks
yang memiliki jumlah baris sama dengan jumlah kolom. Dalam matriks bujursangkar dikenal diagonal utama, yaitu entri-entri yang mempunyai nomor baris sama dengan nomor kolom. Contoh 3 Diagonal utama
Matriks di atas mempunyai ordo terletak pada diagonal utama adalah
, dan ditulis .
, sedangkan entri yang
9
Matriks bujur sangkar yang diagonal utamanya berupa bilangan 1 dan yang di luar diagonal utama berupa bilangan 0 disebut matriks identitas, dilambangkan dengan I. Jika ukuran penting untuk ditekankan, maka ditulis dengan
untuk matriks ukuran
.
3. Penjumlahan Matriks Menurut Howard Anton (1997: 23), jika matriks yang ukurannya sama, maka jumlah
dan
adalah sebarang dua
adalah matriks yang diperoleh
dengan menambahkan bersama-sama entri yang bersesuaian dalam kedua matriks tersebut. Matriks-matriks yang ukurannya berbeda tidak dapat dijumlahkan. Contoh 4
maka
sedangkan ordo
dan ordo
, tidak terdefinisi, karena ordo
tidak sama dengan
tidak sama dengan ordo .
4. Perkalian Matriks dengan Skalar Menurut Howard Anton (1997: 24), jika adalah skalar, maka hasil kali (product) mengalikan masing-masing entri dari
adalah suatu matriks dan
adalah matriks yang diperoleh dengan oleh .
10
Contoh 5 Jika terdapat matriks
maka
Jika
adalah sebarang matriks, maka –
Jika
akan menyatakan hasil kali
adalah matriks yang ordonya sama, maka
sebagai jumlah
.
didefinisikan
.
Contoh 6 Berdasarkan Contoh 4 sebelumnya, maka
5. Perkalian Matriks Menurut Howard Anton (1997: 25), jika adalah matriks
, maka hasil kali
adalah matriks
adalah matriks
dan yang entri-
entrinya ditentukan sebagai berikut. Untuk mencari entri dalam baris dan kolom dari
, pilihlah baris i dari matriks
dan kolom j dari matriks
. Kalikanlah
entri-entri yang bersesuaian dari baris dan kolom tersebut bersama-sama dan kemudian tambahkanlah hasil kali yang dihasilkan.
11
Jika
dan
dengan
. Perkalian matriks memenuhi syarat: banyak kolom Aturan:
dan
,
yang dinyatakan oleh,
yang
sama dengan banyak baris .
(jumlah dari semua perkalian antara elemen
baris ke- dengan elemen
dan
pada
pada kolom ke- )
Dengan aturan tersebut, dikaitkan dengan vektor kolom dan vektor baris, jika vektor baris ke- dari matriks elemen-elemen matriks
dan
adalah:
vektor kolom ke- dari matriks
, maka
.
Contoh 7
Karena
adalah matriks
adalah matriks
dan
adalah matriks
, maka hasil kali
. Berikut merupakan perhitungan-perhitungan untuk hasil
kali dengan mengalikan entri-entri yang bersesuaian bersama-sama dan menambah hasil kali; Entri
pada baris ke-1 dan kolom ke-1
Entri
pada baris ke-1 dan kolom ke-2
12
Entri
pada baris ke-2 dan kolom ke-1
Entri
pada baris ke-2 dan kolom ke-2
Maka,
6. Transpose Matriks Menurut Howard Anton (1997: 27), jika maka transpose
dinyatakan oleh
adalah sebarang matriks
,
dan didefinisikan dengan matriks
yang kolom pertamanya adalah baris pertama dari
, kolom keduanya adalah
baris kedua dari , demikian juga dengan kolom ketiga adalah baris ketiga dari , dan seterusnya. Sifat-sifat transpose matriks: 1. 2. 3. Contoh 8 Jika
maka didapatkan transpose matriks
13
7. Determinan Matriks Menurut Howard Anton (1997: 63), misalkan Fungsi determinan dinyatakan oleh
adalah matriks kuadrat.
, dan didefinisikan
sebagai jumlah
semua hasil perkalian elementer bertanda dari . Sebuah hasil perkalian elementer bertanda dari suatu matriks sebuah hasil perkalian elementer pada suatu kolom dengan
atau
adalah
.
a. Determinan matriks Determinan dari
didefinisikan sebagai
b. Determinan matriks Determinan dari
didefinisikan sebagai
c. Matriks Minor Diberikan matriks
. Minor dari
, ditulis
sebagai determinan dari submatriks
didefinisikan
yang didapatkan dengan cara
menghilangkan baris ke-i dan kolom ke-j. d. Matriks Kofaktor Diberikan matriks didefinisikan sebagai
. Kofaktor dari .
dinyatakan dengan
,
14
Matriks
dinamakan matriks kofaktor.
e. Matriks Adjoint Matriks adjoint dari
, ditulis
matriks kofaktor dari . Contoh 9 Misalkan,
Minor
Kofaktor
adalah
adalah
, didefinisikan sebagai transpose dari
15
f. Determinan matriks Teorema 2.1: (Anton, 1997: 79) Determinan matriks
yang berukuran
dapat dihitung dengan
mengalikan entri-entri dalam suatu baris (atau kolom) dengan kofaktorkofakornya dan menambahkan hasil-hasil kali yang dihasilkan; yakni, untuk setiap
dan
, maka (ekspansi
kofaktor
di
(ekspansi
kofaktor
di
sepanjang baris ke-i), dan
sepanjang kolom ke-j). Contoh 10 Misalkan
matriks dengan ordo
Tentukan determinan Jawab:
dengan metode ekspansi kofaktor baris kedua
16
Jadi,
8. Invers Definisi 2.1: (Anton, 1997:34) Jika
matriks persegi dan jika terdapat suatu matriks
yang sama sedemikian sehingga
, maka
dengan ukuran
invertible (dapat dibalik)
dan
adalah invers dari .
Jika
dapat dibalik, maka inversnya akan dinyatakan dengan simbol
. Jadi
dan Teorema 2.2: (Anton, 1997: 35) Jika
dan
maka 1. 2.
invertible
adalah matriks-matriks yang invertible dan ukurannya sama,
17
Teorema 2.3: (Anton, 1997: 37) Jika
adalah matriks invertible, maka:
1. 2.
untuk
3. Untuk setiap skalar
yang taksama dengan nol, maka
dan
9. Nilai Eigen dan Vektor Eigen Definisi 2.2: (Anton, 1997: 277) Jika
adalah matriks
, maka vektor taknol
dinamakan vektor eigen (eigenvector) dari
jika
di dalam
adalah kelipatan skalar dari
; yaitu,
Untuk suatu skalar . Skalar
dinamakan nilai eigen (eigenvalue) dari
dan
dikatakan vektor eigen yang bersesuaian dengan . Untuk
mencari
nilai
eigen
matriks
yang
berukuran
dapat dituliskan sebagai
atau secara ekivalen
Persamaan di atas akan mempunyai penyelesaian tak nol jika
Persamaan (2.1) disebut persamaan karakteristik .
maka
18
Skalar yang memenuhi persamaan (2.1) adalah nilai eigen dari diperluas, maka
adalah polinom
yang disebut polinom
karakteristik dari . Polinom karakteristik dari matriks
mempunyai bentuk
Contoh 11 Diketahui matriks Akan dicari nilai eigen dari matriks dengan maka polinom karakteristik dari
persamaan karakteristik dari
Jadi diperoleh nilai eigen dari
adalah
adalah
adalah
dan
Akan dicari vektor eigen dari matriks Jika
maka:
, diubah ke dalam bentuk persamaan linear, menjadi
. Apabila
.
19
Solusi non trivial sistem persamaan di atas adalah
Misalkan
maka
Jadi vektor-vektor eigen dari
yang bersesuaian dengan
adalah vektor-vektor
tak nol yang berbentuk: dengan adalah bilangan sebarang yang tidak nol Untuk
maka:
, diubah ke dalam bentuk persamaan linear, menjadi
Solusi non trivial sistem persamaan di atas adalah
Misalkan
maka
Jadi vektor-vektor eigen dari
yang bersesuaian dengan
adalah vektor-vektor
tak nol yang berbentuk: dengan adalah bilangan sebarang yang tidak nol
20
B. Ruang Vektor Euclidean 1. Vektor pada Ruang Berdimensi n Definisi 2.3: (Anton dan Rorres, 2000: 162) Jika n sebuah bilangan bulat positif, maka ordered n-tupel adalah sebuah urutan dari n bilangan real ( ,
,...,
). Himpunan semua ordered n-tupel
disebut ruang berdimensi n dan dinyatakan dengan
.
Definisi 2.4: (Anton dan Rorres, 2000: 162) Vektor
dan
) pada
disebut sama
jika = Penjumlahan
,
=
,...,
=
.
didefinisikan
dan jika k suatu skalar sebarang, maka kelipatan skalar Teorema 2.4: (Anton dan Rorres, 2000: 163) Jika adalah vektor-vektor pada (a) (b) (c) (d) (e) (f) (g)
,
), dan
dan k dan l adalah skalar, maka :
.
21
(h) 2. Ruang Euclidean Berdimensi-n Definisi 2.5: (Anton dan Rorres, 2000: 163) Jika dalam
dan
, maka hasil kali dalam Euclidean
) adalah sebarang vektor didefinisikan sebagai:
dengan operasi penjumlahan, perkalian skalar dan hasil kali dalam Euclidean disebut sebagai “ruang Euclidean berdimensi-n”. Teorema 2.5: (Anton dan Rorres, 2000: 164) Jika
,
, dan
adalah vektor-vektor pada
dan
adalah sebarang skalar,
maka: (a) (b) (c) (d) jika dan hanya jika 3. Kombinasi linear Definisi 2.6: (Anton, 1997: 145) Sebuah vektor
dinamakan kombinasi linear dari vektor-vektor
jika vektor tersebut dapat diungkapkan dalam bentuk , dimana
adalah skalar.
22
C. Analisis Multivariat 1. Matriks Data Multivariat Data yang diperoleh dengan mengukur lebih dari satu variabel kriteria pada setiap individu anggota sampel, disebut data multivariat. Dalam data multivariat digunakan notasi ke-
untuk menunjukkan nilai tertentu dari variabel
yang diamati pada objek ke- . Secara umum, data multivariat dengan
objek dan
variabel dapat diilustrasikan dalam bentuk berikut: Variabel 1
Variabel 2
Variabel
Variabel
Objek 1 Objek 2
Objek
Objek
atau dapat ditulis dalam bentuk matriks berikut:
dengan
baris dan
kolom sebagai
23
2. Vektor Mean dan Matriks Kovariansi 2.1. Vektor Mean, Matriks Kovariansi dan Matriks Korelasi Data Sampel Misalkan
adalah
pengukuran pada variabel pertama.
Rata-rata pengukuran disebut juga rata-rata (mean) sampel ditulis dengan adalah
Secara umum mean sampel untuk variabel ke-i bila ada p variabel dan n banyaknya data adalah:
Sehingga vektor mean sampel
Variansi sampel untuk variabel ke-i adalah
Sedangkan kovariansi sampel untuk variabel ke-i dan ke-k adalah
dan matriks varians dan kovarians sampel
24
Koefisien korelasi sampel merupakan ukuran hubungan linear antara 2 variabel. Koefisien korelasi sampel untuk variabel ke-i dan ke-k adalah:
sehingga diperoleh matriks korelasi sampel
2.2 Vektor Mean, Matriks Kovariansi dan Matriks Korelasi Data Populasi Misalkan matriks random
berorde
untuk setiap
merupakan sebuah vektor random. Mean dari vektor random populasi adalah:
Kovariansi dari vektor random
adalah
untuk
25
Oleh karena
, untuk setiap
dan
dengan
maka berlaku:
merupakan matriks simetris dengan
dan
berturut-turut adalah mean populasi
dan varians-kovarians populasi. Ukuran hubungan linear antara variabel random
dan
disebut koefisien
korelasi. Koefisien korelasi populasi didefinisikan sebagai rasio kovariansi dengan variansi
dan
sehingga
Matriks koefisien korelasi populasi merupakan matriks simetris , dimana:
, berorde
26
D. Analisis Profil Menurut Morisson dalam Mattjik dan Sumertajaya (2011: 101) analisis profil merupakan suatu bagian dari pengujian hipotesis terhadap nilai tengah dari multivariat dengan menggunakan prinsip grafik. Dengan demikian untuk mengetahui perkiraan tentang kemiripan profil baik profil antar perlakuan maupun antar kelompok yang dinyatakan dengan kesejajaran itu, dapat dilihat dari grafik plot antara nilai rataan tiap-tiap perlakuan untuk setiap kelompok (populasi). Misalkan, terdapat rata-rata (mean) populasi
merupakan
rata-rata respon untuk 4 perlakuan (treatment) pada kelompok pertama, plot dari rata-rata ini dihubungkan oleh garis lurus, dapat dilihat pada Gambar 2.1.
27
Mean response
Variables
1
2
3
4
Gambar 2.1. Grafik Profil Profil dapat didefiniskan sebagai kumpulan skor subtes peserta tes pada tes yang diberikan. Analisis profil mengacu pada penentuan kekuatan dan kelemahan kognitif yang dapat digunakan untuk membantu dalam membuat keputusan mengenai diagnosis dan intervensi. Menurut Ding (2001), profil menyediakan tiga jenis informasi untuk setiap kelompok, yaitu level, dispersi dan bentuk (shape). Level profil didefinisikan sebagai rata-rata terbobot dari skor dalam profil, yaitu nilai rata-rata akhir dari variabel. Dispersi profil didefinisikan sebagai ukuran penyebaran jumlah masingmasing skor dalam profil terhadap mean. Ukuran dispersi adalah standar deviasi dari skor setiap kelompok. Dispersi sulit dibuat interpretasi langsung, karena dispersi profil untuk kelompok-kelompok pada umumnya bergantung pada korelasi diantara variabel dalam profil. Menurut Nunnally yang dikutip oleh Ding (2001), cara yang masuk akal untuk menerjemahkan dispersi dari skor adalah membandingkan dispersi dari skor untuk dua kelompok. Bentuk (shape) profil didefinisikan sebagai “up” dan “down” dalam profil dan dapat ditentukan oleh peringkat dari skor. Bentuk profil disebut juga skor ipsative. Skor ipsative adalah
28
perbedaan antara skor subtes dan level profil. Jika skor ipsative positif, itu merupakan puncak profil yang menunjukkan subskor lebih tinggi dari rata-rata skor keseluruhan tes ini. Jika skor ipsative negatif, itu merupakan lembah profil yang menunjukkan subskor lebih rendah dari rata-rata skor keseluruhan tes ini. Titik-titik tinggi dan rendah dalam profil menunjukkan karakteristik menonjol dari kelompok yang menyerupai profil. Ukuran yang dapat memuat shape dan scatter secara bersamaan dari profil adalah pola profil.
E. Multidimensional Scaling 1.
Pengertian Multidimensional Scaling Multidimensional scaling adalah salah satu metode dalam analisis
multivariat
yang
digunakan
untuk
mempresentasikan
suatu
proximities
(kedekatan) atau perbedaan antar objek ke dalam sebuah peta. Konsep dasar dari MDS adalah menentukan koordinat posisi untuk setiap objek dalam suatu peta geometri, sehingga jarak antar objek-objek tersebut akan sesuai dengan nilai kedekatan berdasarkan input datanya. Peta geometri tersebut yang disebut spatial maping dan koordinat posisi untuk setiap objek dalam peta spatial disebut nilai skala. Dalam spatial maping, objek-objek penelitian direpresentasikan menjadi titik-titik. Titik-titik yang ditempatkan dalam sebuah peta akan menghasilkan jarak diantara setiap pasang objek. Jarak antara titik satu satu dengan yang lain menggambarkan kemiripan atau perbedaan objek satu dengan objek lainnya. Dua buah objek yang mirip ditunjukkan oleh dua titik yang dekat satu sama lain, serta
29
dua objek yang relatif berbeda ditunjukkan oleh dua titik yang cenderung jauh satu sama lain. Penggambaran objek selanjutnya disebut dengan istilah stimulus (stimuli) dan biasanya dinyatakan dalam peta berdimensi rendah seperti dimensi dua atau tiga, sedangkan peta dimensi berjumlah empat atau lebih akan membuat interpretasi sulit dilakukan sehingga MDS umumnya memakai dua atau tiga dimensi. Peta berdimensi rendah menjadi alat untuk memaksimalkan ukuran kedekatan (proximity measure) di setiap pasangan objek serta jarak antara suatu objek didalam sebuah peta.
2. Prosedur Analisis Data dengan Multidimensional Scaling Pengolahan dan analisis data dilakukan melalui tahapan pembentukan multidimensional scaling sebagai berikut:
Perumusan Masalah Input Data Pemilihan Prosedur MDS Penentuan Jumlah Dimensi Penamaan Dimensi Uji Kebaikan Model MDS Gambar 2.2. Skema pembentukan multidimensional scaling
30
2.1 Perumusan Masalah Menurut Supranto (2004: 180) merumuskan masalah mengharuskan peneliti menyebutkan secara khusus maksud untuk apa hasil analisis multidimensional scaling akan digunakan dan memilih stimuli untuk dimasukkan ke dalam analisis. Tujuan yang hendak dicapai dalam analisis multidimensional scaling adalah pengidentifikasian dimensi yang tidak diketahui dan evaluasi objek dengan cara membandingkan setiap pasangan stimuli. 2.2 Input Data Dalam tahap ini, data yang dimasukkan pada multidimensional scaling ini berupa nilai kemiripan atau ketidakmiripan antara setiap pasangan dari n objek, sehingga data yang digunakan berdasarkan pada nilai proximities (kedekatan). Input Data
Persepsi
Langsung (Similarity Judgement)
Tidak Langsung (Atribute Ratings)
Preferensi
Perankingan
Perbandingan Pasangan (Paired Comparison)
Gambar 2.3. Input data multidimensional scaling
31
a. Data Persepsi Jika data kemiripan yang harus dikumpulkan, peneliti harus menentukan item yang paling mirip dan yang paling tidak mrip. Beberapa prosedur biasanya digunakan untuk memperoleh persepsi responden di antara stimuli, data yang dihasilkan dapat bersifat langsung (direct) jika merupakan data kemiripan dan tidak langsung (derived) jika merupakan data rating atribut. Direct approaches memiliki keunggulan, yaitu: peneliti tidak harus mengidentifikasi serangkaian atribut. Responden menentukan tingkat kemiripan berdasarkan kriterianya masing-masing. Kelemahannya adalah kriteria tersebut dipengaruhi oleh stimuli yang diteliti. Sebagai contoh, jika berbagai merk motor diteliti pada rentang harga yang sama, maka harga tidak akan dipandang sebagai faktor yang penting. Derived approaches memiliki keunggulan, yaitu: kemudahan dalam identifikasi responden yang memiliki persepsi yang sama atau homogen. Responden dapat mengelompokkan merk berdasar peringkat atribut produk, sehingga
memudahkan
peneliti
dalam
memberikan
label
dimensi.
Kelemahannya adalah peneliti harus terlebih dahulu mengembangkan atributatribut relevan. Direct
approaches
lebih
banyak
digunakan
daripada
derived
approaches. Direct approaches digunakan untuk menyusun spatial map, sedangkan derived approaches digunakan sebagai dasar interpretasi dimensi pada peta persepsi.
32
b. Data Preferensi Data preferensi mengurutkan stimuli sesuai dengan preferensi responden dari beberapa properti. Sebagai contoh, merk B lebih diminati daripada merk D. Dua prosedur umum yang biasa digunakan untuk memperoleh data preferensi adalah rangking langsung dan perbandingan pasangan stimuli berdasar atribut. Prosedur perangkingan meminta setiap responden membuat peringkat merek dari yang paling disukai sampai yang paling tidak disukai. Metode ini untuk mendapatkan data kemiripan nonmetrik. Dalam prosedur perbandingan berpasangan, responden diberikan selurh kemungkinan pasangan dan di minta untuk mengidentifikasi anggota manakah dari setiap pasangan yang lebih disukai. Dengan cara ini, peneliti memperoleh data eksplisit untuk setiap perbandingan, dan lebih detil daripada perangkingan. 2.3 Pemilihan Prosedur MDS Untuk memilih prosedur MDS tergantung pada pengukuran data persepsi dari preferensi yang akan dilakukan. Dalam pemilihan prosedur yang akan digunakan untuk analisis multidimensional scaling, maka perlu diketahui dua tipe multidimensional scaling yaitu metric multidimensional scaling dan nonmetric
multidimensional
scaling.
Metric
multidimensional
scaling
mengasumsikan bahwa input data adalah metrik dan outputya juga berbentuk metrik, sedangkan nonmetric multidimensional scaling mengasumsikan bahwa data input berskala nominal atau ordinal tetapi hasilnya berbentuk metrik. Jarak yang digambarkan pada peta diasumsikan sebagai skala interval. Menurut
33
Maholtra (2010: 354), prosedur MDS dengan menggunakan data metrik maupun data non metrik akan memberikan hasil yang sama. 2.4 Penentuan Jumlah Dimensi Tujuan dari multidimensional scaling adalah membentuk suatu spatial map yang terbaik (dapat menggambarkan keadaan sesungguhnya) dari suatu data input. Dalam analisis multidimensional scaling (MDS) akan ditentukan lebih dahulu faktor-faktor yang tetap digunakan untuk memperoleh gambaran posisi dalam spatial maping yang terbaik, karena tidak semua faktor tetap digunakan dalam analisis. Untuk menentukan jumlah faktor digunakan dasar analisis faktor dengan sub bahasanya adalah penurunan faktor. Sebuah perbedaan nilai eigen menunjukkan seberapa pentingnya faktor tersebut. Oleh karena itu, akan diperlihatkan bahwa hanya akan tetap menggunakan faktor dengan nilai eigen yang besar. Dalam menentukan sebuah nilai eigen yang cukup besar untuk menggambarkan faktor yang berarti dapat digunakan sebuah teknik penyelesaian yang dikemukakan oleh Catell dalam Andy Field (2005: 632) yaitu untuk menggambarkan grafik masing-masing nilai eigen sebagai sumbu-Y dan faktor-faktor yang berhubungan sebagai sumbu-X. Grafik ini disebut scree plot. Dalam menentukan banyaknya faktor yang digunakan kemungkinan yang dapat terjadi yaitu faktor yang tetap digunakan sejumlah variabel yang ada dan masing-masing berhubungan dengan nilai eigen. Dengan scree plot, masing-masing faktor yang relatif penting menjadi jelas terlihat.
34
Kekhususan scree plot ini adalah banyaknya faktor yang penting kurang dari faktor yang tersedia jika terdapat nilai eigen yang relatif tinggi dan banyak faktor yang memiliki nilai eigen yang relatif rendah, maka scree plot ini memiliki karakteristik bentuk turunan tajam (curam) dan diikuti dengan bagian ekor yang landai. Penentuan jumlah faktor yang penting dapat dilihat pada bagian grafik yang curam, nilai pada sumbu-X yang diapit oleh dua titik yang membentuk grafik curam tersebut menunjukkan banyaknya dimensi yang dapat digunakan dalam spatial mapping. Berikut contoh scree plot dari hasil analisis faktor: 0.14
Nilai Eigen
0.12 0.1 0.08
curam
0.06 0.04 0.02 0 1
2
3
4
5
Faktor
Gambar 2.4. Scree Plot Dari grafik scree plot diatas terlihat bahwa bentuk yang curam tepat pada angka dua. Kesimpulannya bahwa dimensi yang digunakan pada spatial mapping berjumlah dua dimensi. Spatial map dapat di analisis dengan software SPSS. Berikut contoh spatial map dengan jumlah dua dimensi:
35
Gambar 2.5. Spatial map dengan dua dimensi 2.5 Penamaan Dimensi Setelah spatial map didapat kemudian dimensi harus diberi nama. Pemberian nama pada dimensi memerlukan beberapa pedoman, yaitu: 1. Meskipun direct similariy judgement diperoleh, penilaian stimulus pada atribut
yang
dimiliki
peneliti
masih
pelu
dikumpulkan.
Dengan
menggunakan metode statistik seperti regresi, vektor atribut ini dibentuk dalam suatu spatial map. Sumbu-sumbu koordinat kemudian diberi nama sesuai dengan atribut-atribut yang mempunyai tingkat kedekatan yang tinggi. 2. Setelah responden memberikan direct similarity, responden diminta untuk menunjukkan kriteria yang digunakan saat mereka membandingkan
36
stimulus. Kriteria ini bisa digunakan untuk memberikan nama pada dimensi yang terbentuk. 2.6 Uji Kebaikan Model Multidimensional Scaling Untuk mendapatkan model multidimensional scaling yang baik, terdapat beberapa kriteria atau pedoman agar hasil yang didapatkan layak dan dapat digunakan untuk interpretasi selanjutnya, diantaranya pengujian index of fit (R2) dan nilai STRESS. 1. Pengujian index of fit (R2) R2 dalam multidimensional scaling menunjukkan proporsi varians data input yang dapat dijelaskan oleh model multidimensional scaling. Menurut Maholtra yang dikutip oleh Bilson Simamora (2005: 268), R2 yang dapat diterima adalah nilai R2 yang lebih dari 0,6 (semakin besar dianggap semakin layak). 2. Nilai STRESS Nilai Stress menunjukkan proporsi varians perbedaan yang tidak dijelaskan oleh model. Semakin kecil nilai Stress yang didapatkan, semakin baik model multidimensional scaling yang didapatkan. Terdapat berbagai cara untuk menghitung nilai Stress, namun yang paling sering digunakan adalah Kruskal’s STRESS. Untuk Kruskal’s STRESS formula terdapat pedoman untuk mengindikasikan model yang baik bila dilihat dari nilai STRESS dengan menggunakan standar kriteria sebagai berikut:
37
Tabel 2.1. Kriteria nilai STRESS Stress
Goodness of fit
20%
Poor
10%
Fair
5%
Good
2,5% 0%
Excellent Perfect
Sumber: Johnson & Wichern (2007: 708) Goodness of fit mengacu pada hubungan monotonic antara similarities dan jarak akhir (Johnson dan Wichern, 2007: 708).
F. Distribusi Empiris Sampel random berukuran
dari distribusi probabilitas
dinotasikan
sebagai (Efron dan Thibshirani, 1993: 31):
maka
disebut ungsi distribusi empiris yang didefinisikan sebagai distribusi
diskrit dengan probabilitas muncul
untuk setiap
. Jika suatu kejadian
kali dalam n kali percobaan, maka mempunyai probabilitas empiris:
merupakan jumlah kemunculan proporsi dari sampel
.
di mana A dinyatakan sebagai
38
G. Prinsip Plug-in Prinsip plug-in merupakan metode sederhana untuk mengestimasi parameter berdasarkan sampel. Estimasi plug-in dari parameter didefinisikan dengan (Efron dan Thibshirani, 1993: 35):
Dengan kata lain, fungsi
dari distribusi
F dengan distribusi empiris
yaitu
diestimasi dengan mengganti
.
H. Standar Error Berikut akan dibahas mengenai standard error dan estimasi standar error: 1. Standar error untuk mean Dalam statistika ketepatan suatu estimasi dapat diukur dengan standar error (se). Jika
adalah variabel random dengan fngsi probablitas kumulatif F,
ekspetasi dan variansinya dinyatakan dalam:
dapat juga dinotasikan dengan:
Jika mean sampel dengan
adalah sampel random berukuran n dari distribusi mempunyai ekspektasi
dan variansi
,
, dinotasikan
39
Dengan kata lain, ekspektasi kali dari variansi
sama dengan ekspektasi , tetapi variansi
adalah
. Dapat disimpulkan bahwa semakin besar n, maka
akan semakin kecil, berarti semakin besar n semakin baik nilai ekspektasi Standar error dari mean , disimbolkan
.
adalah akar dari variansi ,
2. Estimasi standar error Dalam mengestimasi standar error dapat menggunakan metode plug-in, yaitu dengan mengganti
dengan
pada
. Estimasi plug-in untuk
adalah:
Karena
dan
etimasi standar error
I.
, untuk sembarang fungsi g. Maka adalah sebagai berikut:
Regresi Linier Ganda Regresi linier ganda adalah hubungan antara suatu variabel tak bebas
dengan dua atau lebih variabel bebas (Sudjana, 2001). Model regresi linier ganda, dinyatakan sebagai berikut:
40
Jika: adalah variabel tak bebas/dependen pada pengamatan ke-i adalah parameter regresi adalah variabel bebas/independen pada pengamatan ke-i adalah peubah gangguan atau error yang bersifat acak dengan rataan dan ragam
;
peragam/kovariansi
dan
tidak berkorelasi sehingga
untuk semua
dengan
.
Bila persamaan (2.15) ditulis dalam bentuk matriks:
sehingga model umum regresi linear ganda dalam bentuk matriks dapat dinotasikan sebagai berikut:
Model regresi linier ganda dinyatakan dengan persamaan (2.15). Dengan dugaan model sebagai berikut:
didapatkan error sebagai berikut:
Asumsi-asumsi yang mendasari model tersebut adalah: 1. Normalitas, error mengikuti distrbusi normal dengan rata-rata nol dan variansi
,
. Statistik uji yang paling sering digunakan untuk
menguji asumsi kenormalan error dengan menggunakan data residual
41
adalah Kolmogorov-Smirnov normality test. Selain dengan statistik uji, pemeriksaan kenormalan residual dapat pula dilakukan dengan QQ-Plot. Ciri-ciri dari data yang menyebar normal bila diplotkan dengan QQ-Plot adalah bahwa titk-titk data tersebut tersebar di sekitar garis lurus. Tidak ada autokorelasi antar error, peragam/kovariansi
dan
tidak berkorelasi sehingga
untuk semua
dengan
. Adanya autokorelasi pada error mengindikasikan bahwa ada satu atau beberapa variabel penting yang mempengaruhi variabel tak bebas yang tidak di masukkan ke dalam model regresi. Pengujian ada tidaknya autokorelasi dapat dilakukan dengan uji Durbin-Watson (DW). Uji ini menghasilkan nilai DW hitung dan nilai DW tabel ( batas atas dan
dan
),
= nilai
= nilai batas bawah pada tingkat signifikansi atau
. Rumus uji DW (Gujarati, 2004: 467):
dengan
= residual pada periode dan
= residual pada periode
Kriteria Durbin-Watson (Gujarati, 2004: 470): Nilai
Hipotesis Nol ada autokorelasi positif tidak ada autokorelasi positif ada korelasi negatif ada korelasi negatif tidak ada autokorelasi, baik positif atau negatif
Keputusan menolak tidak dapat disimpulkan menolak tidak dapat disimpulkan tidak menolak
42
2. Homoskedastisitas,
,
memiliki ragam homogen atau
disebut juga dengan tidak adanya masalah heteroskedasitas. Model regresi yang baik adalah memiliki sifat homoskedastisitas. Untuk melihat homoskedastisitas suatu data dalam analisis regresi dapat digunakan diagram pencar (scatterplot). Dasar pengambilan kepuusan menurut Singgih Santoso (2000: 258) adalah sebagai berikut: (1) Jika terdapat suatu pola tertentu dalam diagram pencar di mana titiktitiknya teratur mengikuti pola tertentu yang teratur (bergelombang, melebar kemudian menympit), maka dapat disebut memiliki sifat heteroskedastisitas. (2) Jika dalam diagram pencar titik-titik tersebut menyebar tidak teratur serta tidak berpola maka disebut memiliki sifat homoskedastisitas. 3. Tidak ada multikolinearitas antar variabel bebas . Statistik uji yang tepat adalah dengan Variance Inflation Factor (VIF). Nilai VIF yang lebih besar dari 10 mengindikasikan adanya multikolinearitas yang serius. Dalam regresi liniar ganda menggunakan metode least square untuk estimasi koefisien regresi linier
. Metode least square bertujuan
mendapatkan penaksiran koefisien regresi, yaitu jumlah kuadrat error, yaitu
,
dan
sekecil mungkin. Prosedur metode kuadrat
kecil (least square) adalah sebagai berikut: i.
Membentuk
, yang menjadikan
sebagai fungsi
,
dan
,
43
ii.
Mendiferensialkan S terhadap diferensialnya disamakan dengan 0.
,
dan
, kemudian hasil
44
Dan seterusnya hingga p,
Persamaan (2.18)-(2.20) disebut sebagai persamaan linier untuk . iii.
Menghitung
,
dan
berdasarkan persamaan linier yang
terbentuk,
Untuk mempermudah menghitung penaksiran koefisisen regresi maka persamaan linier diubah kebentuk matriks,
45
Pada satu matriks dan dua vekor diatas, masing-masing dinamai: matriks vektor
(berukuran (p+1)×(p+1)), vektor
(berukuran (p+1)×1), dan
(juga berukuran (p+1)×1), sehingga persamaan menjadi:
didapatkan penaksir koefisien regresi, yaitu b :
dengan
.