BAB 2
LANDASAN TEORI
2.1 Evaporasi
2.1.1 Pengertian
Evaporasi adalah salah satu komponen siklus hidrologi, yaitu peristiwa menguapnya air dari permukaan air, tanah,dan bentuk permukaan bukan dari vegetasi lainnya.Evaporasi merupakan proses penguapan air yang berasal dari permukaan bentangan air atau dari bahan padat yang mengandung air (Lakitan, 1994). Sedangkan menurut Manan dan Suhardianto (1999), evaporasi (penguapan) adalah perubahan air menjadi uap air. Air yang ada di bumi bila terjadi proses evaporasi akan hilang ke atmosfer menjadi uap air. Evaporasi dapat terjadi dari permukaan air bebas seperti bejana berisi air, kolam, waduk, sungai ataupun laut. Proses evaporasi dapat terjadi pada benda yang mengandung air, lahan yang gundul atau pasir yang basah. Pada lahan yang basah, evaporasi mengakibatkan tanah menjadi kering dan dapat memengaruhi tanaman yang berada di tanah itu. Mengetahui banyaknya air yang dievaporasi dari tanah adalah penting dalam usaha mencegah tanaman mengalami kekeringan dengan mengembalikan sejumlah air yang hilang karena evaporasi.
2.1.2 Faktor-Faktor yang Memengaruhi Evaporasi
Faktor meteorologi yang memengaruhi evaporasi adalah radiasi matahari, suhu udara, kelembaban udara dan angin. Tempat-tempat dengan radiasi matahari tinggi mengakibatkan evaporasi tinggi karena evaporasi memerlukan energi. Umumnya radiasi matahari tinggi diikuti suhu udara tinggi dan kelembaban udara rendah. Kedua hal ini dapat memacu terjadinya evaporasi. Angin yang kencang membuat kelembaban udara rendah, hal inipun memacu evaporasi (Manan dan Suhardianto, 1999). Laju evaporasi
sangat tergantung pada masukan energi yang diterima. Semakin besar jumlah energi yang diterima, maka akan semakin banyak molekul air yang diuapkan. Sumber energi utama untuk evaporasi adalah radiasi matahari. Oleh sebab itu, laju evaporasi yang tinggi tercapai pada waktu sekitar tengah hari (solar noon). Selain masukan energi, laju evaporasi juga dipengaruhi oleh kelembaban udara di atasnya. Laju evaporasi akan semakin terpacu jika udara diatasnya kering (kelembaban rendah), sebaliknya akan terhambat jika kelembaban udaranya tinggi (Lakitan, 1994). Evaporasi sangat bergantung kepada karakteristik lokasi sehingga faktor-faktor meteorologi yang berperan dalam proses evaporasi dapat berbeda dari tempat ke tempat lainnya.
Faktor-faktor utama yang berpengaruh terhadap evaporasi adalah (Ward, 1967) : 1.
2.
3.
Faktor-faktor meteorologi a.
Radiasi Matahari
b.
Temperatur udara dan permukaan
c.
Kelembaban
d.
Angin
e.
Tekanan Barometer
Faktor-faktor Geografi a.
Kualitas air (warna, salinitas dan lain-lain)
b.
Jeluk tubuh air
c.
Ukuran dan bentuk permukaan air
Faktor-faktor lainnya a.
Kandungan lengas tanah
b.
Karakteristik kapiler tanah
c.
Jeluk muka air tanah
d.
Warna tanah
e.
Tipe, kerapatan dan tingginya vegetasi
f.
Ketersediaan air (hujan, irigasi dan lain-lain
Penelitian ini membahas faktor-faktor meteorologi yang memengaruhi evaporasi, yaitu: radiasi matahari, suhu udara, tekanan udara, kelembaban dan kecepatan angin.
2.1.2.1 Radiasi matahari (%)
Pada setiap perubahan bentuk zat; dari es menjadi air (pencairan), dari zat cair menjadi gas (penguapan) dan dari es lengsung menjadi uap air (penyubliman) diperlukan panas laten (laten heat). Panas laten untuk penguapan berasal dari radiasi matahari dan tanah. Radiasi matahari merupakan sumber utama panas dan memengaruhi jumlah evaporasi di atas permukaan bumi, yang tergantung letak pada garis lintang dan musim.
Radiasi matahari di suatu lokasi bervariasi sepanjang tahun, yang tergantung pada letak lokasi (garis lintang) dan deklinasi matahari. Pada bulan Desember kedudukan matahari berada paling jauh di selatan, sementara pada bulan Juni kedudukan matahari berada palng jauh di utara. daerah yang berada di belahan bumi selatan menerima radiasi maksimum matahari pada bulan Desember, sementara radiasi terkecil pada bulan Juni, begitu pula sebaliknya. Radiasi matahari yang sampai ke permukaan bumi juga dipengaruhi oleh penutupan awan. Penutupan oleh awan dinyatakan dalam persentase dari lama penyinaran matahari nyata terhadap lama penyinaran matahari yang mungkin terjadi.
2.1.2.2 Temperatur udara (°C)
Temperatur (suhu) udara pada permukaan evaporasi sangat berpengaruh terhadap evaporasi. Semakin tinggi suhu semakin besar kemampuan udara untuk menyerap uap air. Selain itu semakin tinggi suhu, energi kinetik molekul air meningkat sehingga molekul air semakin banyak yang berpindah ke lapis udara di atasnya dalam bentuk uap air. Oleh karena itu di daerah beriklim tropis jumlah evaporasi lebih tinggi, di banding dengan daerah di kutub (daerah beriklim dingin). Untuk variasi harian dan bulanan suhu udara di Indonesia relatif kecil.
2.1.2.3 Tekanan udara (mb)
Tekanan udara adalah tenaga yang bekerja untuk menggerakkan massa udara dalam setiap satuan luas tertentu. Diukur dengan menggunakan barometer. Satuan tekanan udara adalah milibar (mb).
Tekanan udara akan berbanding terbalik dengan ketinggian suatu tempat sehingga semakin tinggi tempat dari permukaan laut semakin rendah tekanan udarannya. Kondisi ini disebabkansemakin tinggi tempat akan semakin berkurang udara yang menekannya.
2.1.2.4 Kelembaban udara (%)
Pada saat terjadi penguapan, tekanan udara pada lapisan udara tepat di atas permukaan air lebih rendah di banding tekanan pada permukaan air. Perbedaan tekanan tersebut menyebabkan terjadinya penguapan. Pada waktu penguapan terjadi, uap air bergabung dengan udara di atas permukaan air, sehingga udara mengandung uap air.
Udara lembab merupakan campuran dari udara kering dan uap air. Apabila jumlah uap air yang masuk ke udara semakin banyak, tekanan uapnya juga semakin tinggi. Akibatnya perbedaan tekanan uap semakin kecil, yang menyebabkan berkurangnya laju penguapan. Apabila udara di atas permukaan air sudah jenuh uap air tekanan udara telah mencapai tekanan uap jenuh, di mana pada saat itu penguapan terhenti. Kelembaban udara dinyatakan dengan kelembaban relatif (RH).
Indonesia yang merupakan negara kepulauan dengan perairan laut cukup luas mempunyai kelembaban udara tinggi. Kelembaban udara tergantung pada musim, di mana nilainya tinggi pada musim penghujan dan berkurang pada musim kemarau. Di daerah pesisir kelembaban udara akan lebih tinggi daripada di daerah pedalaman.
2.1.2.5 Kecepatan angin (m/s)
Penguapan yang terjadi menyebabkan udara di atas permukaan evaporasi menjadi lebih lembab, sampai akhirnya udara menjadi jenuh terhadap uap air dan proses evaporasi terhenti. Agar proses penguapan dapat berjalan terus lapisan udara yang telah jenuh tersebut harus diganti dengan udara kering. Penggantian tersebut dapat terjadi apabila ada angin. Oleh karena itu kecepatan angin merupakan faktor penting dalam evaporasi. Di daerah terbuka dan banyak angin, penguapan akan lebih besar daripada di daerah yang terlindung dan udara diam.
Di Indonesia, kecepatan angin relatif rendah. Pada musim penghujan angin dominan berasal dari barat laut yang membawa banyak uap air, sementara pada musim kemarau angin berasal dari tenggara yang kering.
2.2 Aljabar Matriks
2.2.1 Definisi
Matriks Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda “[ ]” atau “( )”.
Suatu matriks dinotasikan dengan symbol huruf besar seperti A, X, atau Z dan sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis sebagai berikut: 𝐴𝐴𝑚𝑚𝑚𝑚𝑚𝑚 Atau dapat juga ditulis:
𝑎𝑎11 𝑎𝑎 = � ⋮21 𝑎𝑎𝑚𝑚 1
𝑎𝑎12 𝑎𝑎22 ⋮ 𝑎𝑎𝑚𝑚 2
… 𝑎𝑎1𝑛𝑛 … 𝑎𝑎2𝑛𝑛 � ⋮ ⋱ … 𝑎𝑎𝑚𝑚𝑚𝑚
𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � ; 𝑖𝑖 = 1, 2, … , 𝑚𝑚; 𝑗𝑗 = 1, 2, … , 𝑛𝑛 Skalar Skalar adalah besaran yang hanya memiliki nilai, tetapi tidak memiliki arah.
Vektor Baris Suatu matriks yang terdiri dari satu baris dan n kolom disebut vektor baris. 𝑋𝑋 = �𝑋𝑋𝑖𝑖𝑖𝑖 �𝑚𝑚𝑚𝑚𝑚𝑚 disebut vektor baris m = 1 Vektor Kolom Suatu matriks yang hanya terdiri dari m baris dan satu kolom disebut vektor kolom. 𝑋𝑋 = �𝑋𝑋𝑖𝑖𝑖𝑖 �𝑚𝑚𝑚𝑚𝑚𝑚 disebut vektor kolom n = 1 Kombinasi Linier Vektor w merupakan kombinasi linier dari vektor-vektor 𝑣𝑣1 , 𝑣𝑣2 , … , 𝑣𝑣𝑛𝑛 jika terdapat skalar 𝑘𝑘1 , 𝑘𝑘2 , … , 𝑘𝑘𝑛𝑛 sehingga berlaku:
𝑤𝑤 = 𝑘𝑘1 𝑣𝑣1 + 𝑘𝑘2 𝑣𝑣2 + … + 𝑘𝑘𝑛𝑛 𝑣𝑣𝑛𝑛
(2.1)
Jika vektor w = 0, maka disebut persamaan homogen dan 𝑣𝑣1 , 𝑣𝑣2 , … , 𝑣𝑣𝑛𝑛
disebut
vektor yang bebas linier, yang mengakibatkan 𝑘𝑘1 = 𝑘𝑘2 = ⋯ = 𝑘𝑘𝑛𝑛 = 0, tetapi jika ada
bilangan 𝑘𝑘1 , 𝑘𝑘2 , … , 𝑘𝑘𝑛𝑛 yang tidak semuanya sama dengan nol, maka 𝑣𝑣1 , 𝑣𝑣2 , … , 𝑣𝑣𝑛𝑛 disebut vektor yang bergantung linier.
2.2.2 Jenis-jenis Matriks
Matriks Kuadrat Matriks kuadrat adalah matriks yang memiliki baris dan kolom yang sama banyak. Dalam suatu matriks kuadrat, elemen-elemen 𝑎𝑎11 , 𝑎𝑎22 , … , 𝑎𝑎𝑛𝑛𝑛𝑛 disebut elemen diagonal utama.
𝐴𝐴𝑚𝑚𝑚𝑚𝑚𝑚
𝑎𝑎11 𝑎𝑎 = � 21 ⋮ 𝑎𝑎𝑛𝑛1
𝑎𝑎12 𝑎𝑎22 ⋮ 𝑎𝑎𝑛𝑛2
… 𝑎𝑎1𝑛𝑛 … 𝑎𝑎2𝑛𝑛 � ⋮ ⋱ … 𝑎𝑎𝑛𝑛𝑛𝑛
Matriks Diagonal Matriks kuadrat 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 �; 𝑖𝑖, 𝑗𝑗 = 1, 2, … , 𝑛𝑛 disebut matrik simetris jika semua elemen
di luar diagonal utama adalah nol, 𝑎𝑎𝑖𝑖𝑖𝑖 = 0 untuk i ≠ j dan paling tidak satu elemen pada
diagonal pokok 𝑎𝑎𝑖𝑖𝑖𝑖 ≠ 0 untuk i = j. Jumlah elemen-elemen diagonal utama suatu
matriks kuadrat A disebut trace A ditulis tr(A). 𝑛𝑛
𝑡𝑡𝑡𝑡(𝐴𝐴) = � 𝐴𝐴𝑚𝑚𝑚𝑚𝑚𝑚
𝑎𝑎11 𝑎𝑎 = � 21 ⋮ 𝑎𝑎𝑛𝑛1
𝑖𝑖=1
𝑎𝑎𝑖𝑖𝑖𝑖 , (𝑖𝑖 = 𝑗𝑗)
𝑎𝑎12 𝑎𝑎22 ⋮ 𝑎𝑎𝑛𝑛2
… 𝑎𝑎1𝑛𝑛 … 𝑎𝑎2𝑛𝑛 � ⋮ ⋱ … 𝑎𝑎𝑛𝑛𝑛𝑛
𝑡𝑡𝑡𝑡(𝐴𝐴) = 𝑎𝑎11 + 𝑎𝑎22 + ⋯ + 𝑎𝑎𝑛𝑛𝑛𝑛
Matriks Simetris Suatu matriks kuadrat 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 �; 𝑖𝑖, 𝑗𝑗 = 1, 2, … , 𝑛𝑛 disebut matriks simetris jika elemen di bawah diagonal utama merupakan cermin dari elemendi atas diagonal utama. Matriks 𝐴𝐴𝑇𝑇 = 𝐴𝐴 artinya 𝑎𝑎𝑖𝑖𝑖𝑖 = 𝑎𝑎𝑗𝑗𝑗𝑗
Contoh:
2 3 𝐴𝐴 = � 1 −3
3 1 0 6 6 −4 −2 8
−3 −2 � 8 5
Matriks Identitas Matriks A disebut matriks identitas dan biasa diberi simbol I. 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � = 1 𝑖𝑖 = 1, 2, … , 𝑛𝑛 <=> 𝑚𝑚 = 𝑛𝑛dan untuk
𝑎𝑎𝑖𝑖𝑖𝑖 = 1 → 𝑖𝑖 = 𝑗𝑗 𝑎𝑎𝑖𝑖𝑖𝑖 = 1 → 𝑖𝑖 ≠ 𝑗𝑗
Matriks Nol
Matriks nol suatu matriks dengan semua elemennya mempunyai nilai nol. Biasanya diberi simbol 0, dibaca nol.
Matriks Elementer Suatu matriks nxn dikatakan matriks elementer jika matriks tersebut dapat diperoleh dari matriks identitas nxn yakni Indengan melakukan operasi baris elementer tunggal.
Matriks Segitiga Matriks 𝐿𝐿 = �𝑎𝑎𝑖𝑖𝑖𝑖 � suatu matriks bujur sangkar dikatakan segitiga bawah (lower triangular) jika 𝑎𝑎𝑖𝑖𝑖𝑖 = 0 untuk i < j dan matriks 𝑈𝑈 = �𝑎𝑎𝑖𝑖𝑖𝑖 � suatu matriks bujur sangkar dikatakan segitiga atas (upper triangular) jika 𝑎𝑎𝑖𝑖𝑖𝑖 = 0 untuk i > j. Contoh:
5 Segitiga bawah 𝐿𝐿 = �−1 2 3
00 20 53 54
0 −1 23 0�, segitia atas 𝑈𝑈 = � 0 12 0 02 0 1 0 00
5 3� 6 3
Matriks Singular Matriks kuadrat 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � dikatakan singular jika semua elemen pada salah satu baris
atau kolom adalah nol atau jika semua kofaktor dari elemen suatu baris atau kolom sama dengan nol. Untuk melihat kesigularan suatu matriks adalah dengan menghitung determinan matriks tersebut. Apabila determinannya sama dengan nol, maka matriks tersebut singular.
Matriks Ortogonal Matriks kuadrat 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � dikatakan dapat didiagonalisasi secara ortogonal jika
terdapat matriks ortogonal P sehingga berlaku 𝑃𝑃−1 𝐴𝐴𝐴𝐴 = 𝑃𝑃 −1 AP. Matriks ortogonal
didefinisikan sebagai matriks kuadrat yang inversnya sama dengan transposenya, sehingga:
maka P adalah matriks ortogonal.
𝑃𝑃 −1 = 𝑃𝑃
2.2.3 Operasi Matriks
Perkalian Matriks dengan Skalar Jika 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � adalah matriks mxn dan k adalah suatu skalar, maka hasil kali A dengan
k adalah 𝐵𝐵 = �𝑏𝑏𝑖𝑖𝑖𝑖 � matiks mxn dengan 𝑏𝑏𝑖𝑖𝑖𝑖 = 𝑘𝑘𝑎𝑎𝑖𝑖𝑖𝑖 (1 ≤ 𝑖𝑖 ≤ 𝑚𝑚, 1 ≤ 𝑗𝑗 ≤ 𝑛𝑛). Perkalian Matriks dengan Matriks
Jika 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � adalah matriks mxp dan 𝐵𝐵 = �𝑏𝑏𝑖𝑖𝑖𝑖 � adalah matriks pxn maka hasil kali dari matriks A dan matriks B yang ditulis dengan AB adalah C matriks mxn. Secara matematik dapat ditulis sebagai berikut: 𝑐𝑐𝑖𝑖𝑖𝑖 = 𝑎𝑎𝑖𝑖1 𝑏𝑏1𝑗𝑗 + 𝑎𝑎𝑖𝑖2 𝑏𝑏2𝑗𝑗 + … + 𝑎𝑎𝑖𝑖𝑖𝑖 𝑏𝑏𝑝𝑝𝑝𝑝
𝑝𝑝 = ∑𝑘𝑘 =1 𝑎𝑎𝑖𝑖𝑖𝑖 𝑏𝑏𝑘𝑘𝑘𝑘 (1 ≤ 𝑖𝑖 ≤ 𝑚𝑚, 1 ≤ 𝑗𝑗 ≤ 𝑛𝑛)
(2.2)
Penjumlahan Matriks Jika 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � adalah matriks mxn dan 𝐵𝐵 = �𝑏𝑏𝑖𝑖𝑖𝑖 � adalah matriks mxn maka
penjumlahan matriks dari matriks A dan matriks B yang ditulis dengan 𝐶𝐶 = �𝑐𝑐𝑖𝑖𝑖𝑖 �
dengan: 𝑐𝑐𝑖𝑖𝑖𝑖 = 𝑎𝑎𝑖𝑖𝑖𝑖 + 𝑏𝑏𝑖𝑖𝑖𝑖 (𝑖𝑖 = 1, 2, … , 𝑚𝑚; 𝑗𝑗 = 1, 2, … , 𝑛𝑛). Pengurangan Matriks
Jika 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � adalah matriks mxn dan 𝐵𝐵 = �𝑏𝑏𝑖𝑖𝑖𝑖 � adalah matriks mxn maka
pengurangan matriks dari matriks A dan matriks B yang ditulis dengan 𝐶𝐶 = �𝑐𝑐𝑖𝑖𝑖𝑖 �
dengan: 𝑐𝑐𝑖𝑖𝑖𝑖 = 𝑎𝑎𝑖𝑖𝑖𝑖 − 𝑏𝑏𝑖𝑖𝑖𝑖 (𝑖𝑖 = 1, 2, … , 𝑚𝑚; 𝑗𝑗 = 1, 2, … , 𝑛𝑛). Transpose Suatu Matriks
Jika 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � adalah matriks mxn maka matriks nxm dengan 𝐴𝐴′ = �𝑎𝑎𝑖𝑖𝑖𝑖′ � dan 𝑎𝑎𝑖𝑖𝑖𝑖′ = 𝑎𝑎𝑗𝑗𝑗𝑗 (1 ≤ 𝑖𝑖 ≤ 𝑚𝑚, 1 ≤ 𝑗𝑗 ≤ 𝑛𝑛) disebut dengan transpose dari matriks A.
Matriks secara umum dapat ditulis: 𝑎𝑎11 𝑎𝑎12 … 𝑎𝑎1𝑛𝑛 𝑎𝑎 𝑎𝑎22 … 𝑎𝑎2𝑛𝑛 ( ) � �𝑎𝑎 � 𝐴𝐴𝑚𝑚𝑚𝑚𝑚𝑚 = � 21 ⋮ ⋮ ⋮ = 𝑖𝑖𝑖𝑖 dimana 𝑖𝑖 = 1, 2, … , 𝑚𝑚; 𝑗𝑗 = 1, 2, … , 𝑛𝑛 ⋱ 𝑎𝑎𝑚𝑚 1 𝑎𝑎𝑚𝑚 2 … 𝑎𝑎𝑚𝑚𝑚𝑚
maka𝐴𝐴′𝑚𝑚𝑚𝑚𝑚𝑚 = 𝐴𝐴𝑛𝑛𝑛𝑛𝑛𝑛
𝑎𝑎11 𝑎𝑎 = � ⋮21 𝑎𝑎𝑛𝑛1
𝑎𝑎12 𝑎𝑎22 ⋮ 𝑎𝑎𝑛𝑛2
… 𝑎𝑎1𝑚𝑚 … 𝑎𝑎2𝑚𝑚 � ⋮ ⋱ … 𝑎𝑎𝑛𝑛𝑛𝑛
Determinan Matriks Misalkan 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � adalah matriks nxn. Fungsi determinan dari A ditulis dengan det(A)
atau |𝐴𝐴| . Secara matematis ditulis:
Det(A) = |𝐴𝐴| = ∑(±) 𝑎𝑎1𝑗𝑗 1 𝑎𝑎2𝑗𝑗 2 … 𝑎𝑎𝑛𝑛 𝑗𝑗𝑗𝑗 dengan 𝑗𝑗1 , 𝑗𝑗2 , … , 𝑗𝑗𝑛𝑛 merupakan himpunan
S=
{1, 2, ..., n}.
Invers Matriks Misalkan A matiks nxn disebut matriks non singular (invertible) jika terdapat matriks B sehinga menyebabkan: 𝐴𝐴𝐴𝐴 = 𝐵𝐵𝐵𝐵 = 𝐼𝐼, maka matriks B disebut invers matriks A. Jika tidak terdapat matriks B yang menyebabkan kejadian tersebut, maka matriks A disebut matriks singular (non-invertible). Secara umum invers matriks A adalah: 𝐴𝐴−1 =
1 𝐴𝐴𝐴𝐴𝐴𝐴 (𝐴𝐴) det(𝐴𝐴)
Adjoint matriks A adalah suatu matriks yang elemen-elemmennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan 𝐾𝐾𝑖𝑖𝑖𝑖 adalah kofaktor elemen-elemen
𝑎𝑎𝑖𝑖𝑖𝑖 , 𝑖𝑖, 𝑗𝑗 = 1, 2, … , 𝑛𝑛. Sehingga dapat ditulis dalam bentuk matriks sebagai berikut:
dengan:
Sifat-sifat Invers:
𝐾𝐾11 𝐾𝐾 𝑎𝑎𝑎𝑎𝑎𝑎(𝐴𝐴) = � 21 ⋮ 𝐾𝐾1𝑛𝑛
𝐾𝐾12 𝐾𝐾22 ⋮ 𝐾𝐾2𝑛𝑛
… 𝐾𝐾𝑛𝑛1 … 𝐾𝐾𝑛𝑛2 � ⋮ ⋮ … 𝐾𝐾𝑚𝑚𝑚𝑚
𝐾𝐾𝑖𝑖𝑖𝑖 = (−1)𝑖𝑖+𝑗𝑗 det�𝑀𝑀𝑖𝑖𝑖𝑖 �
a. Jika A adalah matriks non singular, maka (A-1)-1adalah non singuar dan (A-1)-1 = A b. Jika A dan B adalah matriks non singular, maka AB adalah non singular dan (AB)-1 = B-1A-1
c. Jika A adalah matriks singular, maka (AT)-1 = (A-1)
2.3 Nilai Eigen dan Vaktor Eigen Jika A adalah matriks nxn, maka vektor tak nol X di dalam Rn dinamakan vektor eigen (eigen vector) dari A jika AX adalah kelipatan skalar dari X, yakni: AX = λX
(2.3)
untuk suatu skalar λ. Skalar λ ini dinamakan nilai eigen (eigen value) dari A dan X dinamakan vektor eigen yang bersesuaian dengan λ. Untuk mencari nilai eigen matriks A yang berukuran nxn, dari persamaan (2.3) dapat ditulis kembali sebagai suatu persamaan homogen: (A – λI) X = 0
(2.4)
Dengan I adalah matriks identitas yang berordo sama dengan matriks A, dalam catatan mariks: 𝐴𝐴𝑛𝑛𝑛𝑛𝑛𝑛
𝑎𝑎11 𝑎𝑎21 = � ⋮ 𝑎𝑎𝑚𝑚 1
AX = λX, X ≠ 0
… 𝑎𝑎1𝑛𝑛 1 0 … 𝑎𝑎2𝑛𝑛 � = �0 1 ⋮ , 𝐼𝐼𝑛𝑛𝑛𝑛𝑛𝑛 ⋮ ⋮ ⋱ 𝑎𝑎 0 0 … 𝑚𝑚𝑚𝑚
𝑎𝑎12 𝑎𝑎22 ⋮ 𝑎𝑎𝑚𝑚 2
… … ⋱ …
0 0� , 𝑋𝑋 = ⋮ 1
𝑥𝑥1 𝑥𝑥2 �⋮� 𝑥𝑥𝑛𝑛
AX = λ IX AX - λ IX = 0 (A - λ I)X = 0 X ≠ 0 → | A - λ I| = 0
(2.5)
Untuk memperoleh nilai λ, | A - λ I| = 0 2.5 𝑓𝑓(𝜆𝜆) = 𝑎𝑎0 𝜆𝜆𝑛𝑛 + 𝑎𝑎1 𝜆𝜆𝑛𝑛 −1 + … + 𝑎𝑎𝑛𝑛−1 𝜆𝜆 + 𝑎𝑎𝑛𝑛 = 0 maka didapatlah n buah akar
λ1 , λ2 , … , λn .
Jika nilai eigen 𝜆𝜆𝑛𝑛 disubstitusi pada persamaan (A - λ I)X = 0, maka solusi dari vektor eigen 𝑋𝑋𝑛𝑛 adalah (A - λn I)Xn = 0.
(2.6)
Jadi apabila matriks𝐴𝐴𝑚𝑚𝑚𝑚𝑚𝑚 mempunyai akar karakteristik λ1 , λ2 , … , λn dan ada
kemungkinan bahwa diantaranya mempunyai nilai yang sama, bersesuaian dengan akarakar karakteristik ini adalah himpunan vektor-vektor karakteristik yang ortogonal (artinya masing-masing nilai akar karakteristik akan memerikan vektor karakteristik) X1 , X2 , … , Xn sedemikian sehingga:
𝑋𝑋𝑖𝑖′ 𝑋𝑋𝑗𝑗 = 0; 𝑖𝑖 ≠ 𝑗𝑗𝑖𝑖, 𝑗𝑗 = 1, 2, … , 𝑛𝑛
Tanpa menghilangkan sifat umum, vektor-vektor tersebut dapat dibuat normal (standard) sedemikian rupa sehingga 𝑋𝑋𝑖𝑖′ 𝑋𝑋𝑗𝑗 = 𝐼𝐼 untuk semua i, suatu himpunan vektor-
vektor ortogonal yang telah dibuat normal (standard) disebut ortogonal set.
Apabila X merupakan matriks nxn, dimana kolom-kolomnya terdiri dari vektorvektor 𝑋𝑋𝑖𝑖 dan kemudian bisa ditulis dengan dua syarat berikut: 1. 𝑋𝑋𝑖𝑖′ 𝑋𝑋𝑗𝑗 = 0, jika 𝑖𝑖 ≠ 𝑗𝑗 𝑋𝑋𝑖𝑖′ 𝑋𝑋𝑗𝑗 = 1, jika 𝑖𝑖 = 𝑗𝑗
2. 𝑋𝑋 ′ 𝑋𝑋 = 𝐼𝐼𝑛𝑛 sehingga 𝑋𝑋 ′ = 𝑋𝑋 −1
Matriks yang mempunyai sifat demikian dinamakan matriks ortogonal.
Definisi: Misalkan 𝐴𝐴 = �𝑎𝑎𝑖𝑖𝑖𝑖 � matriks nxn.
Determinan 𝑓𝑓(𝜆𝜆) = det(𝐴𝐴 − 𝜆𝜆𝜆𝜆𝑛𝑛 ) = �
𝑎𝑎21 − 𝜆𝜆 ⋮ 𝑎𝑎𝑛𝑛1
dikatakan karakterisitik polinom dari A.
… ⋮ …
𝑎𝑎1𝑛𝑛 ⋮ � 𝑎𝑎𝑛𝑛𝑛𝑛 − 𝜆𝜆
Persamaan 𝑓𝑓(𝜆𝜆) = det(𝐴𝐴 − 𝜆𝜆𝜆𝜆𝑛𝑛 ) = 0 dikatakan persamaan karakterstik dari A. 2.4 Matriks Korelasi
Matriks korelasi adalah matriks yang di dalamnya terdapat korelasi-korelasi Andaikan X adalah matriks data, 𝑥𝑥̅ adalah matriks rata-rata dan Σ adalah matriks ragam pragam. Dengan:
𝑦𝑦 𝑖𝑖′ 𝑥𝑥𝑖𝑖1 + 𝑥𝑥𝑖𝑖2 + ⋯ + 𝑥𝑥𝑖𝑖𝑖𝑖 𝑥𝑥̅ = = 𝑛𝑛 𝑛𝑛
𝑦𝑦 ′ ⎡ 1⎤ ⎢ 𝑛𝑛 ⎥ 𝑥𝑥11 𝑥𝑥̅1 ′⎥ ⎢ 𝑦𝑦 2 1 𝑥𝑥21 𝑥𝑥̅ 𝑥𝑥̅ = � ⋮2 � = ⎢ 𝑛𝑛 ⎥ = � ⋮ ⎢ ⎥ 𝑛𝑛 x𝑝𝑝1 𝑥𝑥̅ 𝑖𝑖 ⎢ ⋮′ ⎥ ⎢𝑦𝑦3 ⎥ ⎣ 𝑛𝑛 ⎦
1
𝑥𝑥̅ = 𝑋𝑋1 𝑛𝑛
𝑥𝑥12 𝑥𝑥22 ⋮ 𝑥𝑥𝑝𝑝2
… 𝑥𝑥1𝑛𝑛 1 … 𝑥𝑥2𝑛𝑛 1 ⋮ � �⋮� ⋱ … 𝑥𝑥𝑝𝑝𝑝𝑝 1 (2.7) 1
𝑥𝑥̅ dihitung dari matriks yang dikalikan dengan vektor 1 dan kostanta . 𝑛𝑛
Selanjutnya persamaan (2.7) dikalikan dengan vektor 1’, sehingga dihasilkan matriks 𝑥𝑥̅ 1’.
𝑥𝑥̅1 𝑥𝑥̅ 2 ⋮ 𝑥𝑥̅ 𝑃𝑃
𝑥𝑥̅1 1 𝑥𝑥̅ 𝑥𝑥̅ 1’ = 𝑋𝑋11’ = � 2 n ⋮ 𝑥𝑥̅ 𝑃𝑃
… 𝑥𝑥̅1 … 𝑥𝑥̅ 2 � ⋱ ⋮ … 𝑥𝑥̅ 𝑃𝑃
(2.8)
Kurangkan matriks X dengan persamaan matriks (2.8) yang menghasilkan matriks baku pxn yang dinotasikan dengan V. 𝑥𝑥11 − 𝑥𝑥̅1 𝑥𝑥 − 𝑥𝑥̅ 1 𝑉𝑉 = 𝑋𝑋 − 𝑋𝑋11′ = � 21 ⋮ 2 𝑛𝑛 𝑥𝑥𝑝𝑝1 − 𝑥𝑥̅ 𝑝𝑝
… 𝑥𝑥1𝑛𝑛 − 𝑥𝑥̅1 … 𝑥𝑥2𝑛𝑛 −𝑥𝑥̅ 2 � ⋮ ⋱ … 𝑥𝑥𝑝𝑝𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝
𝑥𝑥12 − 𝑥𝑥̅1 𝑥𝑥22 − 𝑥𝑥̅ 2 ⋮ 𝑥𝑥𝑝𝑝2 − 𝑥𝑥̅ 𝑝𝑝
(2.9)
Matriks (𝑛𝑛 − 1)𝑆𝑆 adalah perkalian silang antara matriks (2.9) dengan matriks transposenya.
𝑥𝑥11 − 𝑥𝑥̅1 𝑥𝑥 − 𝑥𝑥̅ � 21 ⋮ 2 𝑥𝑥𝑝𝑝1 − 𝑥𝑥̅ 𝑝𝑝 1
𝑥𝑥12 − 𝑥𝑥̅1 𝑥𝑥22 − 𝑥𝑥̅ 2 ⋮ 𝑥𝑥𝑝𝑝2 − 𝑥𝑥̅ 𝑝𝑝 1
(𝑛𝑛 − 1)𝑆𝑆 =
… 𝑥𝑥1𝑛𝑛 − 𝑥𝑥̅1 𝑥𝑥11 − 𝑥𝑥̅1 … 𝑥𝑥2𝑛𝑛 −𝑥𝑥̅ 2 𝑥𝑥 − 𝑥𝑥̅ � 𝑥𝑥 � 21 ⋮ 2 ⋮ ⋱ 𝑥𝑥𝑝𝑝1 − 𝑥𝑥̅ 𝑝𝑝 … 𝑥𝑥𝑝𝑝𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 1
= (𝑋𝑋 − 𝑋𝑋11′ )(𝑋𝑋 − 𝑋𝑋11′ )′ = 𝑋𝑋 �1 − 11′ � 𝑋𝑋′ 𝑛𝑛
𝑛𝑛
𝑛𝑛
𝑥𝑥12 − 𝑥𝑥̅1 𝑥𝑥22 − 𝑥𝑥̅ 2 ⋮ 𝑥𝑥𝑝𝑝2 − 𝑥𝑥̅ 𝑝𝑝
… 𝑥𝑥1𝑛𝑛 − 𝑥𝑥̅1 … 𝑥𝑥2𝑛𝑛 −𝑥𝑥̅ 2 � ⋮ ⋱ … 𝑥𝑥𝑝𝑝𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝
Karena ′ 1 1 1 1 1 1 �1 − 11′ � �1 − 11′ � = 1 − 11′ − 1 − 11′ + 1 − 2 11′ = 1 − 11′ 𝑛𝑛 𝑛𝑛 𝑛𝑛 𝑛𝑛 𝑛𝑛 𝑛𝑛
Sehinga didapat 𝑆𝑆 =
1
𝑛𝑛−1
1
𝑋𝑋 �1 − 11′ � 𝑋𝑋′
(2.10)
𝑛𝑛
Persamaan (2.10) menunjukkan dengan jelas hubungan operasi perkalian 1
matriks data dengan �1 − 11′ � dan transpose matriks data. Jika S telah diketahui dari 𝑛𝑛
persamaan (2.10), maka S dapat dihubungkan ke matriks korelasi ρ dengan cara: 1. menghitung matriks Σ 𝑛𝑛
1 𝑆𝑆𝑖𝑖𝑘𝑘 = �(𝑥𝑥𝑖𝑖𝑖𝑖 − 𝑥𝑥̅ 𝑖𝑖 )(𝑥𝑥𝑘𝑘𝑘𝑘 − 𝑥𝑥̅ 𝑘𝑘 ) 𝑛𝑛 − 1 𝑟𝑟=1
𝑆𝑆11 = (𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥1 − 𝑥𝑥̅1 ) = (𝑥𝑥1 − 𝑥𝑥̅1 )2 𝑆𝑆12 = (𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥2 − 𝑥𝑥̅ 2 )
𝑆𝑆1𝑝𝑝 = (𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 ) 𝑆𝑆𝑝𝑝𝑝𝑝 = (𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )=(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )2 (𝑥𝑥1 − 𝑥𝑥̅1 )2 ⋮ Σ=� (𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 ) 𝑠𝑠11 Σ=� ⋮ 𝑠𝑠1𝑝𝑝
𝑠𝑠12 ⋯ ⋮ ⋱ 𝑠𝑠2𝑝𝑝 ⋯
𝑠𝑠1𝑝𝑝 ⋮ � 𝑠𝑠𝑝𝑝𝑝𝑝
𝑆𝑆2𝑝𝑝 = (𝑥𝑥2 − 𝑥𝑥̅ 2 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )
(𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥2 − 𝑥𝑥̅ 2 ) ⋯ ⋱ ⋮ (𝑥𝑥2 − 𝑥𝑥̅ 2 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )⋯
(𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 ) ⋮ � 2 (𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )
2. menghitung matriks baku yang isinya adalah simpangan baku, dengan asumsi 𝑖𝑖 ≠k dihasilkan 𝑐𝑐𝑐𝑐𝑐𝑐 (𝑖𝑖, 𝑘𝑘) = 0 sehingga dapat ditulis ke dalam bentuk matriks sebagai berikut:
1⁄2
𝑉𝑉(𝑝𝑝𝑝𝑝𝑝𝑝 )
⎡�𝑠𝑠11 ⎢ = ⎢ 0 ⎢ ⋮ ⎣ 0
0 �𝑠𝑠11 ⋮ 0
… 0 ⎤ … 0 ⎥ ⎥ ⋮ ⎥ ⋱ … �𝑠𝑠11 ⎦
3. menghitung invers dari matriks deviasi dengan cara (𝑉𝑉 1⁄2 )−1
1⁄2 (𝑉𝑉(𝑝𝑝𝑝𝑝𝑝𝑝 ) )−1
1 ⎡ ⎢√𝑠𝑠11 ⎢ 0 = ⎢ ⎢ ⎢ ⋮ ⎢ 0 ⎣
0 ⎤ ⎥ ⎥ … 0 ⎥ ⋮ ⎥ ⋱ 1 ⎥ ⎥ … �𝑠𝑠𝑝𝑝𝑝𝑝 ⎦
0
…
1 √𝑠𝑠22 ⋮ 0
maka dapat dihasilkan matriks korelasi dengan rumus 𝑉𝑉 = (𝑉𝑉 1⁄2 )−1 (𝑉𝑉 1⁄2 )−1 𝜌𝜌 = 1
⎡√𝑠𝑠11 ⎢ ⎢ 0 ⎢ ⎢ ⋮ ⎣ 0
0 1
√𝑠𝑠22
⋮ 0
𝑠𝑠11
⎡ √𝑠𝑠11 √𝑠𝑠11 ⎢ ⋮ ⎢ 𝑠𝑠1𝑝𝑝 ⎣√𝑠𝑠11 �𝑠𝑠𝑝𝑝𝑝𝑝
dengan: 𝑟𝑟𝑖𝑖𝑖𝑖 =
1
𝑛𝑛 −1
…
0 ⎤ ⎥ 𝑠𝑠11 … 0 ⎥ ⋮ � ⎥ 𝑠𝑠1𝑝𝑝 ⋮ ⋱ 1 ⎥ … �𝑠𝑠𝑝𝑝𝑝𝑝 ⎦ 𝑠𝑠12
𝑠𝑠1𝑝𝑝
⎤ 1 ⎥ = � ⋮ ⋮ 𝑠𝑠𝑝𝑝𝑝𝑝 ⎥ 𝑟𝑟1𝑝𝑝 �𝑠𝑠𝑝𝑝𝑝𝑝 �𝑠𝑠𝑝𝑝𝑝𝑝 ⎦
√𝑠𝑠11 √𝑠𝑠22 ⋯
⋮
𝑠𝑠2𝑝𝑝
√𝑠𝑠22 �𝑠𝑠𝑝𝑝𝑝𝑝
∑𝑛𝑛𝑟𝑟=1 �
√𝑠𝑠11 �𝑠𝑠𝑝𝑝𝑝𝑝
⋱ ⋯
𝑥𝑥 𝑖𝑖𝑖𝑖 −𝑥𝑥̅𝑖𝑖 �𝑠𝑠𝑖𝑖𝑖𝑖
𝑠𝑠12 ⋯ ⋮ ⋱ 𝑠𝑠2𝑝𝑝 ⋯
1
⎡√𝑠𝑠11 𝑠𝑠1𝑝𝑝 ⎢ ⋮ �⎢ 0 𝑠𝑠𝑝𝑝𝑝𝑝 ⎢ ⋮ ⎢ ⎣ 0
��
𝑥𝑥 𝑘𝑘𝑘𝑘 −𝑥𝑥̅𝑘𝑘 �𝑠𝑠𝑘𝑘𝑘𝑘
0 1
√𝑠𝑠22
𝑟𝑟12 ⋯ ⋮ ⋱ 𝑟𝑟2𝑝𝑝 ⋯
⋮ 0
𝑟𝑟1𝑝𝑝 ⋮ � 1
… 0 ⎤ ⎥ … 0 ⎥ 𝜌𝜌 = ⎥ ⋮ ⋱ 1 ⎥ … �𝑠𝑠𝑝𝑝𝑝𝑝 ⎦
�
(2.11)
Untuk i = k menghasilkan r =1 𝑟𝑟11 = �
Dan untuk i ≠ k
𝑟𝑟𝑝𝑝𝑝𝑝 = �
𝑥𝑥1 − 𝑥𝑥̅1 𝑥𝑥1 − 𝑥𝑥̅1 (𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥1 − 𝑥𝑥̅1 ) �� �= =1 √𝑠𝑠11 √𝑠𝑠11 √𝑠𝑠11 √𝑠𝑠11
𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 �𝑠𝑠𝑝𝑝𝑝𝑝
𝑟𝑟12 = �
𝑟𝑟1𝑝𝑝 = � 𝑟𝑟2𝑝𝑝 = �
��
𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 �𝑠𝑠𝑝𝑝𝑝𝑝
�=
(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 ) �𝑠𝑠𝑝𝑝𝑝𝑝 �𝑠𝑠𝑝𝑝𝑝𝑝
=1
𝑥𝑥1 − 𝑥𝑥̅1 𝑥𝑥2 − 𝑥𝑥̅ 2 (𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥2 − 𝑥𝑥̅ 2 ) �� �= √𝑠𝑠11 √𝑠𝑠22 √𝑠𝑠11 √𝑠𝑠22
(𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 ) 𝑥𝑥1 − 𝑥𝑥̅1 𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 �� �= √𝑠𝑠11 �𝑠𝑠𝑝𝑝𝑝𝑝 √𝑠𝑠11 �𝑠𝑠𝑝𝑝𝑝𝑝
(𝑥𝑥1 − 𝑥𝑥̅1 )(𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 ) 𝑥𝑥2 − 𝑥𝑥̅ 2 𝑥𝑥𝑝𝑝 − 𝑥𝑥̅ 𝑝𝑝 �� �= √𝑠𝑠22 �𝑠𝑠𝑝𝑝𝑝𝑝 √𝑠𝑠22 �𝑠𝑠𝑝𝑝𝑝𝑝
2.5 Analisis Regresi Linier Berganda
Dalam perkembangannya, terdapat dua jenis regresi yang sangat terkenal, yaitu regresi linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk menggambarkan hubungan antara suatu variabel bebas (X) dengan satu variabel tak bebas (Y) dalam bentuk persamaan linier sederhana. 𝛽𝛽0 + 𝛽𝛽1 𝑋𝑋1 i = 1,2, …, n
(2.12)
Regresi linier berganda merupakan perluasan dari regresi linier sederhana. Perluasannya terlihat dari banyaknya variabel bebas pada model regresi tersebut. Bentuk umum persamaan regresi linier berganda dapat dinyatakan secara statistik sebagai berikut: 𝑌𝑌𝑖𝑖 = 𝛽𝛽0 + 𝛽𝛽1 𝑋𝑋1𝑖𝑖 + 𝛽𝛽2 𝑋𝑋2𝑖𝑖 + ⋯ + 𝛽𝛽𝑘𝑘 𝑋𝑋𝑘𝑘𝑘𝑘 + ɛ𝑖𝑖
(2.13)
dengan: 𝑌𝑌𝑖𝑖 = variabel tak bebas 𝑋𝑋𝐼𝐼 = variabel bebas
𝛽𝛽0 , ⋯, 𝛽𝛽𝑘𝑘 = parameter regresi
ɛ𝑖𝑖 = variabel gangguan
2.5.1 Asumsi Regresi Linier Berganda
Dalam model regresi linier berganda ada beberapa asumsi yang harus dipenuhi, asumsi tersebut adalah: 1. Nilai rata-rata kesalahan pengganggu nol, yaitu E(𝜀𝜀𝑖𝑖 ) = 0, untuk i= 1, 2, …, n
2. Varian (𝜀𝜀𝑖𝑖 ) = E(𝜀𝜀𝑖𝑖2 ) = 𝜎𝜎 2 , sama untuk semua kesalahan pengganggu (asumsi heterokedastisitas)
3. Tidak ada autokorelasi antara kesalahan pengganggu, berarti kovarian (𝜀𝜀𝑖𝑖 , 𝜀𝜀𝑗𝑗 ) = 0, 𝑖𝑖 ≠ 𝑗𝑗
4. Variabel bebas 𝑋𝑋1 , 𝑋𝑋2 , … , 𝑋𝑋𝑘𝑘 , konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu 𝜀𝜀𝑖𝑖 .
5. Tidak ada multikolinieritas dalam variabel bebas X. 6. 𝜀𝜀𝑖𝑖 ~ 𝑁𝑁 (0; 𝜎𝜎 2 , artinya kesalahan pengganggu mengikuti distribusi normal dengan rata-rata 0 dan varian 𝜎𝜎 2 .
2.5.2 Metode Kuadrat Terkecil (MKT)
Metode kuadrat terkecil merupakan suatu metode yang paling banyak digunakan untuk menduga parameter-parameter regresi. Pada model regresi linier berganda juga digunakan metode kuadrat terkecil untuk menduga parameter. Biasanya metode kuadrat terkecil ini diperoleh dengan meminimumkan jumlah kuadrat galat. Misalkan model yang akan diestimasi adalah parameter dari persamaan dengan n pengamatan, maka diperoleh: 𝑌𝑌𝑖𝑖 = 𝛽𝛽0 + 𝛽𝛽1 𝑋𝑋1𝑖𝑖 + 𝛽𝛽2 𝑋𝑋2𝑖𝑖 + ⋯ + 𝛽𝛽𝑘𝑘 𝑋𝑋𝑘𝑘𝑘𝑘 + ɛ𝑖𝑖
𝑌𝑌𝑖𝑖 = 𝛽𝛽0 + 𝛽𝛽1 𝑋𝑋1𝑖𝑖 + 𝛽𝛽2 𝑋𝑋2𝑖𝑖 + ⋯ + 𝛽𝛽𝑘𝑘 𝑋𝑋𝑘𝑘𝑘𝑘 + ɛ𝑖𝑖 ⋮
𝑌𝑌𝑖𝑖 = 𝛽𝛽0 + 𝛽𝛽1 𝑋𝑋1𝑖𝑖 + 𝛽𝛽2 𝑋𝑋2𝑖𝑖 + ⋯ + 𝛽𝛽𝑘𝑘 𝑋𝑋𝑘𝑘𝑘𝑘 + ɛ𝑖𝑖 Persamaan-persamaan di atas dapat ditulis dalam bentuk matriks: 𝑌𝑌 = 𝑋𝑋𝑋𝑋 + ɛ
(2.14)
dengan:
𝑦𝑦1 𝑦𝑦2 𝑌𝑌 = �𝑦𝑦3 � 𝑦𝑦4
1 1 𝑋𝑋 = � ⋮ 1
𝑋𝑋11 𝑋𝑋11 ⋮ 𝑋𝑋11
𝑋𝑋11 𝑋𝑋11 ⋮ 𝑋𝑋11
⋯ ⋯ ⋯ ⋯
𝑋𝑋11 𝛽𝛽0 𝛽𝛽 𝑋𝑋11 � 𝛽𝛽 = � 0 � 𝛽𝛽0 ⋮ 𝑋𝑋11 𝛽𝛽0
ɛ1 ɛ1 ɛ = �ɛ1 � ɛ1
Untuk mendapatkan penaksir-penaksir MKT bagi 𝛽𝛽, maka dengan asumsi klasik
ditentukan dua vektor (𝛽𝛽̂ dan 𝑒𝑒̂ ) sebagai:
𝛽𝛽1 𝑒𝑒1 𝑒𝑒1 𝛽𝛽 𝛽𝛽̂ = � 1 � 𝑒𝑒̂ = �𝑒𝑒1 � 𝛽𝛽1 𝑒𝑒1 𝛽𝛽1 Persamaan hasil estimasi dari persamaan (2.14) dapat ditulis sebagai: 𝑌𝑌 = 𝑋𝑋𝛽𝛽̂ + ɛ
atau 𝑒𝑒 = 𝑌𝑌 − 𝑋𝑋𝛽𝛽̂
(2.15)
Karena tujuan MKT adalah meminimumkan jumlah kuadrat dari kesalahan, yaitu ∑𝑘𝑘𝑖𝑖=1 𝑒𝑒𝑖𝑖2 = minimum, maka:
𝑘𝑘
�
= [𝑒𝑒1 jadi,
𝑒𝑒1
…
𝑒𝑒1 𝑒𝑒1 ] �𝑒𝑒1 � = 𝑐𝑐 𝑒𝑒1 𝑒𝑒1
𝑖𝑖=1
𝑒𝑒𝑖𝑖2 = 𝑒𝑒𝑖𝑖2 + 𝑒𝑒𝑖𝑖2 + ⋯ + 𝑒𝑒𝑖𝑖2 (2.16)
𝑘𝑘
= (𝑌𝑌 − 𝑋𝑋𝛽𝛽̂ )′(𝑌𝑌 − 𝑋𝑋𝛽𝛽̂ )
�
𝑖𝑖=1
𝑒𝑒𝑖𝑖2 = 𝑒𝑒′𝑒𝑒
= 𝑌𝑌 ′ 𝑌𝑌 − 𝛽𝛽̂ ′ 𝑋𝑋 ′ 𝑌𝑌 − 𝑌𝑌 ′ 𝑋𝑋𝛽𝛽̂ + 𝛽𝛽̂ ′𝑋𝑋′𝑋𝑋𝛽𝛽̂
Oleh karena 𝛽𝛽̂ ′ 𝑋𝑋 ′ 𝑌𝑌 adalah skalar, maka matriks transposenya adalah: ′ �𝛽𝛽̂ ′ 𝑋𝑋 ′ 𝑌𝑌� = 𝑌𝑌 ′ 𝑋𝑋𝛽𝛽̂
jadi, 𝑒𝑒 ′ 𝑒𝑒 = 𝑌𝑌 ′ 𝑌𝑌 − 2𝛽𝛽̂ ′ 𝑋𝑋 ′ 𝑌𝑌 + 𝛽𝛽̂ ′𝑋𝑋′𝑋𝑋𝛽𝛽̂
(2.17)
Untuk menakar parameter 𝛽𝛽̂ ,maka 𝑒𝑒 ′ 𝑒𝑒 harus diminimumkan terhadap 𝛽𝛽̂ , maka: 𝑘𝑘
�
𝑖𝑖=1
𝑒𝑒𝑖𝑖2 = 𝑌𝑌 ′ 𝑌𝑌 − 2𝛽𝛽̂ ′ 𝑋𝑋 ′ 𝑌𝑌 + 𝛽𝛽̂ ′𝑋𝑋′𝑋𝑋𝛽𝛽̂
𝑘𝑘 𝜕𝜕 �� 𝑒𝑒𝑖𝑖2 � = 𝑌𝑌 ′ 𝑌𝑌 − 2𝛽𝛽̂ ′ 𝑋𝑋 ′ 𝑌𝑌 + 𝛽𝛽̂ ′𝑋𝑋 ′ 𝑋𝑋𝛽𝛽̂ = 0 𝜕𝜕𝛽𝛽̂ ′ 𝑖𝑖=1
atau: 𝑋𝑋 ′ 𝑋𝑋𝛽𝛽̂ = 𝑋𝑋′𝑌𝑌
𝛽𝛽̂ = (𝑋𝑋′𝑋𝑋)−1 𝑋𝑋′𝑌𝑌 dengan ketentuan det (𝑋𝑋′𝑋𝑋) ≠ 0
(2.18)
2.5.3 Sifat Penduga Kuadrat Terkecil
Menurut Sembiring (2003), metode kuadrat terkecil memiliki beberapa sifat yang baik. Untuk menyelidiki sifatnya, pandang kembali model umum regresi linier pada persamaa (2.14). Dalam hal ini, dianggap bahwa 𝜀𝜀 bebas satu sama lain dan E(𝜀𝜀) = 0, var = 𝜕𝜕 2 . Dengan demikian, maka 𝐸𝐸 (𝑌𝑌) = 𝑋𝑋𝛽𝛽̂ dan 𝑐𝑐𝑐𝑐𝑐𝑐 (𝑌𝑌) = 𝜎𝜎 2 𝐼𝐼. Jadi sifat penduga kuadrat terkecil adalah: 1. Tak bias Jika 𝐸𝐸�𝛽𝛽̂ � = 𝛽𝛽 maka 𝛽𝛽̂ adalah penduga tak bias dari 𝛽𝛽. Dari persamaan (2.15) diketahui:
𝛽𝛽̂ = (𝑋𝑋′𝑋𝑋)−1 𝑋𝑋′𝑌𝑌
= (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ (𝑋𝑋𝑋𝑋 + 𝜀𝜀)
= 𝛽𝛽 + (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′
= (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝑋𝑋𝑋𝑋 + (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝜀𝜀
dengan (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝑋𝑋 = 1
𝐸𝐸�𝛽𝛽̂ � = 𝐸𝐸 [(𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝑌𝑌] = (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝐸𝐸 (𝑌𝑌) = (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ (𝑋𝑋𝑋𝑋) = (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝑋𝑋𝑋𝑋 = 𝐼𝐼𝐼𝐼
2. Varian minimum
= 𝛽𝛽
(2.19)
Jika 𝑐𝑐𝑐𝑐𝑐𝑐(𝑌𝑌) = 𝜎𝜎 2 𝐼𝐼 maka matriks kovarian untuk 𝛽𝛽̂ diberikan oleh 𝜎𝜎 2 = (𝑋𝑋 ′ 𝑋𝑋)−1 . Jika 𝐸𝐸 (𝑌𝑌) = 𝑋𝑋𝑋𝑋 dan 𝑐𝑐𝑐𝑐𝑐𝑐(𝑌𝑌) = 𝜎𝜎 2 𝐼𝐼, maka penduga kuadrat terkecil 𝛽𝛽̂
mempunyai varian minimum diantara semua variabel penduga tak bias linier. Bukti: ′
𝑐𝑐𝑐𝑐𝑐𝑐�𝛽𝛽̂ � = 𝐸𝐸 ���𝛽𝛽̂ − 𝐸𝐸�𝛽𝛽̂ �� �𝛽𝛽̂ − 𝐸𝐸�𝛽𝛽̂ ��� �
= 𝐸𝐸 [( 𝛽𝛽 + (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝜀𝜀 − 𝛽𝛽 )(𝛽𝛽 + (𝑋𝑋 ′ 𝑋𝑋)−1 (𝑋𝑋 ′ )𝜀𝜀 ) − 𝛽𝛽 ′ ] = 𝐸𝐸 [((𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝜀𝜀 )((𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝜀𝜀 )′ ] = 𝐸𝐸 [(𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝜀𝜀𝜀𝜀 ′ 𝑋𝑋(𝑋𝑋′𝑋𝑋)−1 ]
= (𝑋𝑋 ′ 𝑋𝑋)−1 𝑋𝑋 ′ 𝑋𝑋 (𝑋𝑋 ′ 𝑋𝑋)−1 𝐸𝐸(𝜀𝜀 ′ 𝜀𝜀) = (𝑋𝑋 ′ 𝑋𝑋)−1 𝐼𝐼𝐼𝐼 2
= (𝑋𝑋 ′ 𝑋𝑋)−1 𝜎𝜎 2
(2.20)
2.6 Uji Regresi Linier
Pengujian nyata regresi adalah sebuah pengujian untuk menentukan apakah ada hubungan linier antara varaiabel tak bebas Y dan variabel bebas 𝑋𝑋1 , 𝑋𝑋2 , … , 𝑋𝑋𝑘𝑘 .
Uji yang digunakan adalah uji mengggunakan statistik F berbentuk: 𝐹𝐹𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 = 𝐽𝐽𝐽𝐽𝐽𝐽
𝐽𝐽𝐽𝐽𝐽𝐽 � 𝑘𝑘 �(𝑛𝑛−𝑘𝑘−1)
(2.21)
dengan: JKR
= Jumlah Kuadrat Regresi
JKS
= Jumlah Kuadrat Sisa
k
= Derajat kebebasan JKR
(n– k- 1)
= Derajat kebebasan JKS
Dalam uji hipotesis, digunakan daerah kritis: 𝐻𝐻0 ditolak jika 𝐹𝐹𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 > 𝐹𝐹𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇
dengan:
𝐹𝐹𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 𝐹𝐹𝑘𝑘,(𝑛𝑛−𝑘𝑘−1),𝛼𝛼
Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah koefisien tersebut layak dipakai dalam persamaan atau tidak. Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut: 𝐻𝐻0 ∶ 𝛽𝛽𝑗𝑗 = 0 artinya koefisien regresi ke-𝑗𝑗 tidak signifikan atau variabel bebas ke-𝑗𝑗 tidak
berpengaruh nyata terhadap 𝑌𝑌.
𝐻𝐻1 ∶ 𝛽𝛽𝑗𝑗 ≠ 0 artinya koefisien regresi ke-𝑗𝑗 signifikan atau variabel bebas ke-𝑗𝑗
berpengaruh nyata terhadap 𝑌𝑌.
Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah: 𝑡𝑡𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 �𝛽𝛽̂𝑗𝑗 � =
�𝑗𝑗 𝛽𝛽
�𝑗𝑗 � �𝑣𝑣𝑣𝑣𝑣𝑣 �𝛽𝛽
(2.23)
Jika �𝑡𝑡𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 �𝛽𝛽̂𝑗𝑗 �� > 𝑡𝑡(𝑛𝑛−𝑝𝑝−1);𝛼𝛼 /2 , maka 𝐻𝐻0 ditolak yang artinya variabel bebas ke-𝑗𝑗
berpengaruh nyata terhadap 𝑌𝑌. 2.7 Analisis Klaster
2.7.1 Konsep Dasar
Analisis klaster merupakan suatu kelas teknik, dipergunakan untuk mengklasisfikasi objek atau kasus (responden) ke dalam kelompok yang relatif homogen, yang disebut klaster (cluster). Objek/ kasus/ variabel dalam satu klaster cenderung mirip satu sama lain dan berbeda jauh (tidak sama) dengan objek dari klaster lainnya. Analisis klaster disebut juga analisis klasifikasi atau taksonomi numerik (numerical taxonomy). Setiap objek hanya masuk ke dalam 1 klaster saja, tidak terjadi tumpang tindih (overlapping) (Supranto, 2010).
Gambar 2.1: Pengklasteran Ideal
(X2)
(X1)
Gambar 2.1 menunjukkan hasil pengklasteran yang ideal, di mana setiap objek/ variabel/ kasus hanya masuk atau menjadi anggota dari salah satu klaster (tidak mungkin menjadi anggota dari dua klaster atau lebih). Gambar 2.1 menunjukkan situasi di mana klaster dipisahkan secara berbeda (distincly separated) pada dua variabel. Perhatikan bahwa setiap objek/ kasus/ variabel hanya masuk ke dalam1 klaster dan tidak terjadi tumpang tindih, kalster saling meniadakan (mutually exclusive).
Sebaliknya pada gambar 2.2 menunjukkan hasil pengklasteran yang sering terjadi dalam praktik, yaitu terjadi tumpang tindih, artinya objek/ variabel yang seharusnya menjadi anggota klaster 1, menjadi anggota klaster 2, dan sebaliknya.
Gambar 2.2: Pengklasteran dalam praktik (X2)
(X1)
2.7.2 Melakukan Analisis Klaster
Adapaun langkah-langkah yang diperlukan untuk melakukan analisis klaster adalah: 1. Merumuskan Masalah Hal yang paling penting dalam perumusan masalah analisis klaster ialah pemilihan variabel-variabel yang akan digunakan untuk pengklasteran Memasukkan satu atau dua varaiebel yang tidak relevan akan mendistorsi hasil pengklasteran yang kemungkinan besar sangat bermanfaat. Pada dasarnya set variabel yang dipilih harus menguraikan kemiripan (similarity), yang memang benar-benar relevan dengan permasalahn yang akan dibahas. 2. Memilih Ukuran Jarak Oleh karena tujuan analisis klaster adalah untuk mengelompokkan objek/ variabel yang mirip dalam klaster yang sama, maka beberapa ukuran diperlukan untuk mengakses seberapa mirip atau berbeda objek/ objek atau varaiabel/ varaiabel tersebut.Pendekatan yang paling biasa ialah mengukur kemiripan dinyatakan dalam jarak (distance) antara pasangan objek. Ukuran kemiripan yang yang paling biasa dipakai ialah jarak euclidean (euclidean distance) atau nilai kuadratnya yang merupakan akar dari jumlah kuadrat perbedaan/ deviasi di dalam nilai untuk setiap variabel. Rumusnya adalah sebagai berikut: 𝐷𝐷(𝑋𝑋, 𝑌𝑌) = �(∑ 𝑋𝑋𝑖𝑖 − 𝑌𝑌𝑖𝑖 )2
(2.25)
3. Memilih Suatu Prosedur Pengklasteran
Gambar 2.3: Klasifikasi Prosedur Pengklasteran
Clustering Procedure Non- Hierarchical
Hierarchical
Agglomerative
Devisive
Sequential
Paralle
Optimizing
Linkage
Variance
Centroid
Ward’s Method
Single Linkage
Complete Linkage
Average Linkage
Prosedur pengklasteran bisa hierarki dan bisa juga non hierarki. Pengklasteran hierarki ditandai dengan pengembangan suatu hierarki atau struktur mirip pohon (tree like structure). Metode hierarki bisa aglomeratif atau devisif (agglomerative or divisive).
Pengklasteran agglomeratif dimulai dengan setiap objek dalam suatu klaster yang terpisah. Klaster dibentuk dengan mengelompokkan objek/ variabel ke dalam klaster yang semakin membesar., yaitu semakin banyak elemen atau objek yang menjadi anggotanya. Proses ini dilanjutkan sampai semua objek menjadi anggota dari suatu klaster tunggal. Sebaliknya pengklasteran devisif dimulai dari semua objek dikelompokkan menjadi klaster tunggal. Kemudian klaster dibagi atau dipisah, sampai setiap objek berada di dalam klaster yang terpisah.
Hasil dari kedua metode agglomeratif dan devisif bisa disajikan dalam bentuk dendogram, sebagai suatu diagram dua dimensi. Di sini akan dibahas prosedur agglomerasi hierarkis, khususnya metode pertalian (linkage method), yaitu single linkage method (metode pertalian tunggal), complete linkage method (metode pertalian lengkap), average linkage method (metode pertalian rata-rata).
Berikut adalah langkah-langkah di dalam pengklasteran agglomeratif hierarkis untuk mengelompokkan N objek (responden/ kasus/ variabel). a. Mulai dengan N kelompok (klaster), masing-masing kelompok suatu objek tunggal dan matriks simetris N x N berjarak D = {dik}.
b. Selidiki jarak matriks untuk pasangan kelompok yang paling mirip atau paling dekat. Misalkan jarak yang paling mirip yaitu U dan V = duv. c. Gabungkan kelompok atau klaster U dan V. Klaster ini disebut klaster (UV). Perbaharui entry di dalam matriks jarak dengan: i.
Menghapus/ menghilangkan baris dan kolom, sesuai dengan klaster U dan V.
ii. Tambah satu baris dan kolom memberikan jarak antara klaster (UV) dan sisa klaster. d. Ulangi langkah (2 dan 3) sebanyak (N-1) kali. Seluruh objek akan berada dalam 1 klaster/ kelompok setelah algoritma selesai. Catat identitas klaster yang digabung dan tingkatan (distance or similarities) pada saat mana penggabungan terjadi.
Jenis prosedur pengklasteran yang kedua yaitu metode nonhierarki atau yang sering disebut K-means clustering sangat berbeda dengan metode hierarki. Dalam metode ini, kita terlebih dahulu menentukan jumlah klaster dan pusat klaster sembarang, sehingga hasil klaster bergantung pada bagaimana pusat (center) dipilih. 4. Menentukan Banyaknya Klaster Isu utama dalam analisis klaster ialah menetukan berapa banyaknya klaster. Dalam kenyataannya, tidaka ada aturan baku untuk menentukan berapa sebetulnya banyaknya klaster, namun demikian ada beberapa petunjuk yang bisa dipergunakan, yaitu: a.
Pertimbanngan teoritis, konseptual, praktis, mungkin bisa diusulkan/ disarankan untuk menetukan berapa banyaknya klaster yang sebenarnya.
b.
Di dalam pengklasteran hierarki, jarak dimana klaster digabung bisa dipergunakan sebagai kriteria. Hal paling mudah adalah dengan melihat dendogram.
c.
Di dalam pengklasteran nonhierarki, rasio jumlah varian dalam klaster dengan jumlah varian antarklaster dapat diplotkan melawan banyaknya klaster, di luar titik ini biasanya tidak perlu.
d.
Besarnya relatif klaster harus berguna .
5. Menginterpretasi dan Memprofil Klaster
2.8 Analisis Komponen utama
Analisis komponen utama merupakan teknik statsistik yang dapat digunakan untuk mereduksi sejumlah variabel bebas menjadi beberapa variabel baru yang bersifat orthogonal dan tetap mempertahankan total keragaman dari variabel asalnya.
Analisis komponen utama bertujuan untuk mengubah dari sebagian besar variabel asli yang digunakan yang saling berkorelasi menjadi satu set variabel baru yang lebih kecil saling bebas dan merupakan kombinasi linier dari variabel asalnya. Selanjutnya variabel baru ini dinamakan komponen utama (principal component). Secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data sehingga lebih mudah untuk menginterpretasikan data tersebut.
2.8.1 Menentukan Komponen Utama Komponen utama ditentukan melalui matriks kovarian (Ʃ) dan matriks korelasi (𝜌𝜌) dari 𝑥𝑥1 , 𝑥𝑥2 , … , 𝑥𝑥𝑝𝑝 . Matriks kovarian Ʃdigunakan untuk membentuk komponen utama apabila
semua variabel yang diamati mempunyai satuan pengukuran yang sama. Sedangkan matriks korelasi 𝜌𝜌 digunakan apabila variabel yang diamati tidak mempunyai satuan pengukuran yang sama. Variabel tersebut perlu dibakukan, sehingga komponen utama berdasarkan matriks korelasi ditentukan dari variabel baku.
2.8.1.1 Komponen Utama Berdasarkan Matriks Kovarian (Ʃ) Dipunyai matriks kovarianƩdari 𝑝𝑝 buah variabel, 𝑥𝑥1 , 𝑥𝑥2 , … , 𝑥𝑥𝑝𝑝 . Total varian dari
variabel-variabel tersebut didefinisikan sebagai 𝑡𝑡𝑡𝑡(Ʃ) = 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡(Ʃ) yaitu penjumlahan dari unsur diagonal matriks Ʃ. Melalui matriks kovarian Ʃ bisa diturunkan akar ciri-akar
cirinya, yaitu: 𝜆𝜆1 ≥ 𝜆𝜆2 ≥ ⋯ ≥ 𝜆𝜆𝑝𝑝 ≥ 0 dan vektor ciri-vektor cirinya 𝛼𝛼1 , 𝛼𝛼2 , … , 𝛼𝛼𝑝𝑝 . ′
Komponen utama dari vektor berukuran 𝑝𝑝 × 1, 𝑥𝑥 = �𝑥𝑥1 , 𝑥𝑥2 , … , 𝑥𝑥𝑝𝑝 � adalah kombinasi linier terbobot dari variabel asal yang dapat menerangkan keragaman terbesar.
Komponen utama pertama dapat dituliskan sebagai: 𝑌𝑌1 = 𝛼𝛼11 𝑋𝑋1 + 𝛼𝛼12 𝑋𝑋2 + ⋯ + 𝛼𝛼1𝑝𝑝 𝑋𝑋𝑝𝑝
𝑌𝑌1 = 𝛼𝛼1′ 𝑋𝑋
(2.29)
dengan: ′
𝛼𝛼1′ 𝑋𝑋 = �𝛼𝛼11 , 𝛼𝛼12 , … , 𝛼𝛼1𝑝𝑝 � dan 𝛼𝛼1′ 𝛼𝛼1 = 1 Varian dari komponen utama pertama adalah: 𝑝𝑝
𝜎𝜎 2 𝑌𝑌1 = �
𝑖𝑖=1
= 𝛼𝛼1′ ∑ 𝛼𝛼1
𝑝𝑝
�
𝑗𝑗 =1
𝛼𝛼𝑖𝑖1 𝛼𝛼𝑗𝑗1 𝑠𝑠𝑖𝑖𝑖𝑖
(2.30)
Vektor pembobot 𝛼𝛼 ′ adalah vektor normal, koefisisen 𝛼𝛼𝑖𝑖1 adalah unsur-unsur
dari vektor ciri yang berhubungan dengan akar ciri terbesar 𝜆𝜆1 yang diturunkan dari matriks kovarian Ʃ dipilih sedemikian sehingga 𝜎𝜎 2 𝑌𝑌1 mencapai maksimum dengan kendala 𝛼𝛼1′ 𝛼𝛼1 = 1. Menggunakan teknik pemaksimuman berkendala Lagrange diperoleh persamaan:
𝑓𝑓(𝛼𝛼1 , 𝜆𝜆1 ) = 𝜎𝜎 2 𝑌𝑌1 − 𝜆𝜆1 (𝛼𝛼1′ 𝛼𝛼1 − 1) = 𝛼𝛼1′ � 𝛼𝛼1 − 𝜆𝜆1 (𝛼𝛼1′ 𝛼𝛼1 − 1) Fungsi ini mencapai maksimum jika turunan parsial pertama 𝑓𝑓 (𝛼𝛼1 , 𝜆𝜆1 ) terhadap
𝛼𝛼1 sama dengan nol. 𝜕𝜕𝜕𝜕 (𝛼𝛼 1 ,𝜆𝜆 1 ) 𝜕𝜕𝛼𝛼 1
= 2 ∑ 𝛼𝛼1 − 2𝜆𝜆1 𝛼𝛼1 = 0 atau ∑ 𝛼𝛼1 = 𝜆𝜆1 𝛼𝛼1
(2.31)
Persamaan (2.31) dipenuhi oleh 𝜆𝜆1 dan 𝛼𝛼1 yang merupakan pasangan akar ciri
dan vektor ciri matriks Ʃ. Akibatnya, 𝛼𝛼1′ ∑ 𝛼𝛼1 = 𝛼𝛼1′ 𝜆𝜆1 𝛼𝛼1 =𝜆𝜆1 𝛼𝛼1′ 𝛼𝛼1 = 𝜆𝜆1 . Oleh karena itu,
varian 𝑌𝑌1 = 𝜎𝜎 2 𝑌𝑌1 = 𝛼𝛼1′ ∑ 𝛼𝛼1 = 𝜆𝜆1 harus maksimum, maka 𝜆𝜆1 adalah akar ciri yang
terbesar dari matriks Ʃdan𝛼𝛼1 adalah vektor ciri yang bersesuaian dengan 𝜆𝜆1 .
Komponen utama kedua adalah kombinasi linier terbobot variabel asal yang tidak berkorelasi dengan komponen utama pertama, serta memaksimumkan sisa kovarian data setelah diterangkan oleh komponen utama pertama. Komponen utama kedua dapat dituliskan sebagai: 𝑌𝑌2 = 𝛼𝛼21 𝑋𝑋1 + 𝛼𝛼22 𝑋𝑋2 + ⋯ + 𝛼𝛼2𝑝𝑝 𝑋𝑋𝑝𝑝
𝑌𝑌2 = 𝛼𝛼2′ 𝑋𝑋
(2.32)
dengan: ′
𝛼𝛼2′ 𝑋𝑋 = �𝛼𝛼21 , 𝛼𝛼22 , … , 𝛼𝛼2𝑝𝑝 � dan 𝛼𝛼2′ 𝛼𝛼2 = 1 Vektor pembobot 𝛼𝛼 ′ adalah vektor normal yang dipilih sehingga keragaman
komponen utama kedua maksimum, serta orthogonal terhadap vektor pembobot 𝛼𝛼1′ dari
komponen utama pertama. Agar varian dari komponen utama kedua maksimum, serta antara komponen utama kedua tidak berkorelasi dengan komponen utama pertama,
maka vektor pembobot 𝛼𝛼2 dipilih sedemikan sehingga 𝑌𝑌2 = 𝛼𝛼2′ 𝑋𝑋 tidak berkorelasi dengan 𝑌𝑌1 = 𝛼𝛼1′ 𝑋𝑋. Varian komponen utama kedua (𝑌𝑌2 ) adalah: 𝑝𝑝
= 𝛼𝛼2′ ∑ 𝛼𝛼2
𝜎𝜎 2 𝑌𝑌2 = �
𝑖𝑖=1
𝑝𝑝
�
𝑗𝑗 =1
𝛼𝛼𝑖𝑖2 𝛼𝛼𝑗𝑗2 𝑠𝑠𝑖𝑖𝑖𝑖
(2.33)
Varian tersebut akan dimaksimumkan dengan kendala 𝛼𝛼2′ 𝛼𝛼2 = 1 dan
𝑐𝑐𝑐𝑐𝑐𝑐(𝑦𝑦1 , 𝑦𝑦2 ) = 𝑐𝑐𝑐𝑐𝑐𝑐 (𝛼𝛼1 𝑥𝑥, 𝛼𝛼2 𝑥𝑥 ) = 𝛼𝛼1′ ∑ 𝛼𝛼2 = 0. Karena 𝛼𝛼1 adalah vektor ciri dari Ʃ dan Ʃ adalah matriks simetris, maka: 𝛼𝛼1′ Ʃ = (Ʃ𝛼𝛼1 )′ = (𝜆𝜆𝛼𝛼1 )′ = 𝜆𝜆𝛼𝛼1′ . Kendala
𝛼𝛼1′ ∑ 𝛼𝛼2 = 𝜆𝜆𝛼𝛼1′ 𝛼𝛼2 = 0 dapat dituliskan sebagai 𝛼𝛼1′ 𝛼𝛼2 = 0. Jadi fungsi
Lagrange yang dimaksimumkan adalah:
𝑓𝑓(𝛼𝛼2 , 𝜆𝜆2 , 𝜆𝜆) = (𝛼𝛼2′ ∑ 𝛼𝛼2 ) − 𝜆𝜆2 (𝛼𝛼2′ 𝛼𝛼2 − 1) − 𝜆𝜆(𝛼𝛼1′ 𝛼𝛼2 − 0)
(2.34)
Fungsi ini mencapai maksimum jika turunan parsial pertama 𝑓𝑓(𝛼𝛼2 , 𝜆𝜆2 , 𝜆𝜆)
terhadap 𝛼𝛼2 sama dengan nol, sehingga diperoleh:
𝜕𝜕𝜕𝜕 (𝛼𝛼 1 ,𝜆𝜆 1 ,𝜆𝜆) 𝜕𝜕 𝛼𝛼 2
= 2 ∑ 𝛼𝛼2 − 2𝜆𝜆2 𝛼𝛼2 − 𝜆𝜆 ∑ 𝛼𝛼1 = 0
(2.35)
Jika persamaan (2.35) dikalikan dengan 𝛼𝛼1′ maka diperoleh: 2𝛼𝛼1′ ∑ 𝛼𝛼2 − 2𝜆𝜆2 𝛼𝛼1′ 𝛼𝛼2 − 𝜆𝜆𝛼𝛼1′ ∑ 𝛼𝛼1 = 0
(karena ∑ 𝛼𝛼1 = 𝜆𝜆1 𝛼𝛼1 )
2𝛼𝛼1′ � 𝛼𝛼2 − 2𝜆𝜆2 𝛼𝛼1′ 𝛼𝛼2 − 𝜆𝜆𝜆𝜆1 𝛼𝛼1′ 𝛼𝛼1 = 0 2𝛼𝛼1′ � 𝛼𝛼2 − 0 − 𝜆𝜆𝜆𝜆1 = 0
Oleh karena 2𝛼𝛼1′ ∑ 𝛼𝛼2 = 0 maka 𝜆𝜆 = 0. Dengan demikian persamaan (2.35) setelah diturunkan terhadap 𝛼𝛼2 menjadi
𝜕𝜕𝜕𝜕 (𝛼𝛼1 , 𝜆𝜆1 , 𝜆𝜆) = 2 � 𝛼𝛼2 − 2𝜆𝜆2 𝛼𝛼2 = 0 𝜕𝜕𝛼𝛼2
∑ 𝛼𝛼2 − 𝜆𝜆2 𝛼𝛼2 = 0
(2.36)
Jadi 𝜆𝜆2 dan 𝛼𝛼2 merupakan pasangan akar ciri dan vektor ciri dari matriks varian
kovarian Ʃ. Seperti halnya penurunan pada pencarian 𝛼𝛼1 , akan diperoleh bahwa 𝛼𝛼1 adalah vektor yang bersesuaian dengan akar ciri terbesar kedua dari matriksƩ. Secara umum komponen utama ke-j dapat dituliskan sebagai berikut: 𝑌𝑌𝑗𝑗 = 𝛼𝛼1𝑗𝑗 𝑋𝑋1 + 𝛼𝛼2𝑗𝑗 𝑋𝑋2 + ⋯ + 𝛼𝛼𝑝𝑝𝑝𝑝 𝑋𝑋𝑝𝑝
𝑌𝑌𝑗𝑗 = 𝛼𝛼𝑗𝑗′ 𝛼𝛼
(2.37)
dengan:
′
𝛼𝛼𝑗𝑗′ = �𝛼𝛼𝑗𝑗1 , 𝛼𝛼𝑗𝑗2 , … , 𝛼𝛼𝑗𝑗𝑗𝑗 � dan 𝛼𝛼𝑗𝑗′ 𝛼𝛼𝑗𝑗 = 1 vektor pembobot 𝛼𝛼𝑗𝑗′ diperoleh dengan memaksimumkan keragaman komponen utama ke-j, yaitu:
𝜎𝜎 2 𝑌𝑌𝑗𝑗 = 𝛼𝛼𝑗𝑗′ ∑ 𝛼𝛼𝑗𝑗
dengan kendala: 𝛼𝛼𝑗𝑗′ 𝛼𝛼𝑗𝑗 = 1 serta 𝛼𝛼𝑗𝑗′ 𝛼𝛼𝑗𝑗 = 0 untuk i≠ j
(2.38)
Dengan kendala ini, maka akar ciri 𝜆𝜆𝑗𝑗 dapat diinterpretasikan sebagai ragam komponen utama ke-j sesama komponen utama tidak berkorelasi.
Vektor pembobot 𝛼𝛼𝑗𝑗′ yang merupakan koefisien pembobot variabel asal bagi
komponen utama ke- j diperoleh dari matriks peragamƩ yang diduga dengan matriks S berikut: 𝑆𝑆 =
1
𝑛𝑛−1
∑𝑛𝑛ℎ =1(𝑥𝑥ℎ − 𝑥𝑥̅ )(𝑥𝑥ℎ − 𝑥𝑥̅ )′
(2.39)
2.8.1.2 Komponen Utama Berdasarkan Matriks Korelasi (𝝆𝝆) Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka varaiabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel baku (Vincent Gasperz, 1991). Variabel asal perlu ditransformasi ke dalam variabel baku Z, dalam catatan matriks adalah: 𝑍𝑍 =
𝑋𝑋−µ 𝜎𝜎
(2.40)
dengan: Z
= variabel baku
X
= variabel asal
µ
= rata-rata variabel asal
σ
= standard deviasi
Komponen utama dari Z dapat ditentukan dari vektor ciri yang diperoleh melalui matriks korelasi yang diduga dengan matriks 𝜌𝜌, dimana vektor pembobot 𝛼𝛼𝑗𝑗′ diperoleh dengan memaksimumkan keragaman komponen utama ke- j dengan kendala: 𝛼𝛼𝑗𝑗′ 𝛼𝛼𝑗𝑗 = 1,
serta 𝛼𝛼𝑗𝑗′ 𝛼𝛼𝑗𝑗 = 0, untuk 𝑖𝑖 ≠ 𝑗𝑗.
Semua formula yang telah diturunkan berdasarkan variabel-variabel 𝑥𝑥1 , 𝑥𝑥2 , … , 𝑥𝑥𝑝𝑝
dengan matriks Ʃ akan berlaku untuk peubah-peubah 𝑧𝑧1 , 𝑧𝑧2 , … , 𝑧𝑧𝑝𝑝 dengan nilai matriks 𝜌𝜌.
Sehingga diperoleh komponen utama ke- jdengan menggunakan variabel baku yaitu: 𝑌𝑌𝑗𝑗 = 𝛼𝛼𝑗𝑗′ 𝑍𝑍
dengan: 𝑌𝑌𝑗𝑗
= komponen utama ke- j
𝑍𝑍
= variabel baku
𝛼𝛼𝑗𝑗′
= vektor ciri ke- j
2.8.2 Kriteria Pemilihan Komponen Utama
Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal yang semula terdapat p variabel bebas menjadi k komponen utama (dimana 𝑘𝑘 < 𝑝𝑝). Kriteria pemilihan k didasarkan pada akar ciri yang lebih besar dari satu, dengan kata lain hanya komponen utama yang memiliki akar ciri lebih besar dari satu yang dilibatkan dalam analisis.
2.9 Analisis Regresi Komponen Utama
Aroef, M. A. (1991) mengatakan bahwa analisis komponen utama bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru yang tidak berkorelasi. Variabel baru (y) disebut komponen utama yang merupakan hasil transformasi dari variabel asal x yang modelnya dalam catatan matriks adalah:
y= Ax
dimana A adalah matriks yang melakukan transformasi terhadap variabel asal x, sehingga diperoleh vektor komponen y. Secara umum komponen utama ke-j dapat dituliskan sebagai berikut:
𝑌𝑌𝐽𝐽 = 𝑎𝑎1𝑗𝑗 𝑋𝑋1 + 𝑎𝑎2𝑗𝑗 𝑋𝑋2 … + 𝑎𝑎𝑝𝑝𝑝𝑝 𝑋𝑋𝑝𝑝 Regresi komponen utama adalah teknik yang digunakan untuk meregresikan komponen utama dengan variabel tak bebas melalui metode kuadrat terkecil. Tahap pertama pada prosedur regresi komponen utama yaitu menentukan komponen utama yang merupakan kombinasi linier dari beberapa variabel X, dan tahap kedua adalah variabel tak bebas diregresikan pada komponen utama dalam sebuah model regresi linier.
Persamaan regresi komponen utama berdasarkan matriks kovarian pada dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan matriks korelasi yaitu variabel X1, X2, …, Xp diganti dengan variabel baku Z1, Z2, …, Zp. Kedua persamaan tersebut digunakan sesuai dengan pengukuran variabel-variabel yang diamati.
Apabila diberikan notasi W1, W2, …, Wksebagai banyaknya komponen utama yang dilibatkan dalam analisis regresi komponen utama, dimana k lebih kecil daripada banyaknya variabel penjelas asli X, yaitu sejumlah p(k
= variabel tak bebas
Wi
= variabel komponen utama
δi
= parameter model regresi komponen utama
Komponen utama merupakan kombinasi linier dari variabel Z: 𝑊𝑊1 = 𝛼𝛼11 𝑍𝑍1 + 𝛼𝛼21 𝑍𝑍2 + … + 𝛼𝛼𝑃𝑃1 𝑍𝑍𝑃𝑃 .
.
.
𝑊𝑊2 = 𝛼𝛼12 𝑍𝑍1 + 𝛼𝛼22 𝑍𝑍2 + … + 𝛼𝛼𝑃𝑃2 𝑍𝑍𝑃𝑃 …
.
(2.41)
.
.
.
…
.
.
.
.
…
.
𝑊𝑊𝐾𝐾 = 𝛼𝛼1𝐾𝐾 𝑍𝑍1 + 𝛼𝛼2𝐾𝐾 𝑍𝑍2 + … + 𝛼𝛼𝑃𝑃𝑃𝑃 𝑍𝑍𝑃𝑃 dengan: Wi
= komponen utama
αij
=koefisien komponen utama
Zi
= variabel baku
Komponen utama W1, W2, …, Wkdalam persamaan di atas disubstitusikan ke dalam persamaan bentuk umum regresi komponen utama, kemudian diselesaikan secara aljabar, maka diperoleh: Ŷ = 𝛽𝛽0 + 𝛽𝛽1 𝑍𝑍1 + 𝛽𝛽2 𝑍𝑍2 + … + 𝛽𝛽𝑃𝑃 𝑍𝑍𝑝𝑝
dengan: β0
= δ0 = Ŷ
β1
= δ1α11 + δ2α12 + … + δkα1k
.
.
.
…
.
.
.
.
…
.
.
.
.
…
.
βp
= δ1αp1 + δ2αp2 + … + δkαpk
(2.42)