BAB III METODE PENELITIAN
3.1 Jenis dan Sumber Data Data yang digunakan dalam penelitian ini berasal dari data sekunder dengan jenis data bulanan mulai tahun 2004 sampai dengan tahun 2011 (bulan September). Data yang dikumpulkan berupa data jasa pelayanan pelabuhan, yaitu jasa labuh, jasa tambat, jasa air kapal, jasa dermaga, jasa penumpukan, jasa listrik, jasa air umum, dan pendapatan Pelabuhan Sunda Kelapa. Sumber data diperoleh dari publikasi Sistem Informasi Operasional Pelabuhan (Simoppel) PT. (Persero) Pelabuhan Indonesia II Cabang Sunda Kelapa.
3.2 Metode Analisis Metode analisis yang digunakan dalam penelitian ini terdiri dari analisis deskriptif, analisis komponen utama, analisis faktor, dan analisis regresi linier berganda dari faktor-faktor yang terbentuk. Pengolahan data pada penelitian ini dilakukan dengan menggunakan paket program komputer yaitu Microsoft Excel 2010 dan SPSS 19.0 for windows.
3.2.1. Analisis Deskriptif Analisis deskriptif digunakan untuk mendapat gambaran dan penjelasan mengenai perkembangan jasa labuh, jasa tambat, jasa air kapal, jasa dermaga, jasa penumpukan, jasa listrik, jasa air umum, dan pendapatan Pelabuhan Sunda
15
Kelapa. Pada tahapan ini pembahasan dilakukan dengan mengamati data yang tersedia berdasarkan kondisi dan fenomena yang terjadi di Pelabuhan Sunda Kelapa dalam periode pengamatan tahun 2004-2011, disertai beberapa argumen untuk menjelaskan fenomena yang ada. Analisis ini dilakukan melalui analisis grafik yang berisi data-data yang telah dikumpulkan.
3.2.2. Analisis Komponen Utama Penelitian dengan menggunakan banyak variabel sulit untuk dapat langsung menarik kesimpulan. Untuk menganalisa dengan cara yang lebih mudah tanpa mengurangi atau menghilangkan informasi yang berharga dari data yang diperoleh, maka digunakan analisis komponen utama. Metode ini ditemukan oleh Pearson (1901) yang kemudian dikembangkan oleh Hotteling (1993). Menurut Widarjono (2010) analisis komponen utama merupakan teknik analisis statistik untuk mentransformasi variabel-variabel asli yang masih saling berkorelasi satu dengan yang lain menjadi satu set variabel baru yang tidak berkorelasi lagi. Variabel-variabel baru itu disebut sebagai komponen utama yang merupakan kombinasi linier dari variabel-variabel asli. Keragaman total adalah: Var = λ1 + λ2 + … + λp dimana λ1 + λ2 + … + λp adalah akar ciri komponen utama. Besarnya proporsi dari varian total populasi yang dapat diterangkan oleh komponen utama ke-j adalah: Proporsij =
𝜆𝑗
λ1 + λ2 + … + λp
× 100% ; j = 1,2,…,p
16
sehingga nilai proporsi dari varian total yang dapat diterapkan oleh komponen utama secara bersama-sama adalah semaksimal mungkin dengan meminimalisasi informasi yang hilang. Meskipun jumlah komponen utama berkurang dari variabel asal tetapi informasi yang diberikan tidak berubah. Menurut Widarjono (2010), pemilihan komponen utama yang digunakan adalah jika nilai akar cirinya lebih dari 1 (λj > 1). Jika ukuran dari variabel asal tidak sama, maka setiap nilai pengamatan ditransformasikan ke nilai baku Z (distandardisasi). Langkah selanjutnya dalam analisis ini adalah melakukan pengujian terhadap matriks korelasi yang digunakan untuk melihat keeratan hubungan antara variabel satu dengan yang lainnya. Ada dua macam pengujian yang dapat dilakukan terhadap matriks korelasi, yaitu: a. Uji Bartlett Jika sebagian besar dari koefisien korelasi kurang 0,5 maka dilakukan uji Bartlett. Uji tersebut digunakan untuk melihat apakah matriks uji korelasinya bukan merupakan matriks identitas. Urutan pengujiannya sebagai berikut: 1.
Hipotesis H0 : matriks korelasi merupakan matriks identitas H1 : matriks korelasi bukan merupakan matriks identitas
2.
Statistik Uji 2 𝜒𝑜𝑏𝑠 = �( 𝑁 − 1 ) −
dimana:
(2𝑝 + 5) � 𝑙𝑛|𝑅| 6
N = jumlah observasi p = jumlah variabel |𝑅|= determinan matriks korelasi
17
3.
Keputusan 2 > 𝜒𝑡𝑎𝑏𝑒𝑙 Pengujian Bartlett akan menolak H0 jika nilai 𝜒𝑜𝑏𝑠
(Widarjono, 2010) b.
Uji Kaiser Meyer Olkin Syarat utama dari analisis faktor adalah terdapatnya hubungan linier
antara variabel-variabel yang akan dianalisis. Selanjutnya untuk mengetahui apakah data layak dianalisis dengan analisis faktor digunakan nilai statistik Kaiser Mayer Olkin (KMO) untuk mengukur kecukupan samplingnya. Adapun formula untuk menghitung KMO sebagai berikut: 2 ∑ ∑𝑖=𝑗 𝑟𝑖𝑗
𝐾𝑀𝑂 = ∑ ∑
2 +∑ ∑ 𝑎 2 𝑟𝑖𝑗 𝑖𝑗
dimana: rij = koefisien korelasi aij = koefisien korelasi parsial Nilai KMO yang kecil mengindikasikan bahwa penggunaan analisis faktor harus dipertimbangkan kembali, karena korelasi antar variabel tidak dapat diterangkan oleh variabel lain. Widarjono (2010) menetapkan karateristik pengukuran nilai KMO sebesar: 0,90 < KMO ≤ 1,00 data sangat baik untuk analisis faktor 0,80 < KMO ≤ 0,90 data baik untuk analisis faktor 0,70 < KMO ≤ 0,80 data agak baik untuk analisis faktor 0,60 < KMO ≤ 0,70 data lebih dari cukup untuk analisis faktor 0,50 < KMO ≤ 0,60 data cukup untuk analisis faktor KMO ≤ 0,50 data tidak layak untuk analisis faktor
18
3.2.3. Analisis Faktor Analisis faktor adalah salah satu metode statistik multivariat yang mencoba menerangkan hubungan antara sejumlah variabel-variabel yang saling bebas (independent) antara satu dengan yang lain sehingga bisa dibuat satu atau lebih kumpulan variabel yang lebih sedikit dari jumlah variabel awal. Adapun tujuan dari analisis faktor antara lain: 1. Membuat ringkasan data (data summarization) yaitu untuk mengidentifikasi struktur hubungan antar variabel dengan menguji keterkaitan antar variabel. Sebagai contoh jika ada 10 variabel yang independen satu dengan yang lain, dengan analisis faktor mungkin bisa diringkas menjadi 3 kumpulan variabel baru (new set of variables). Kumpulan variabel tadi disebut faktor, dimana faktor tersebut mencerminkan variabel-variabel aslinya. 2. Data reduction, analisis faktor juga dapat digunakan untuk: a. Mengidentifikasi variabel yang representatif dari sejumlah kumpulan variabel yang banyak digunakan untuk analisis multivariat selanjutnya. b. Menyusun sekumpulan variabel baru yang lebih sedikit jumlahnya untuk mengganti sekumpulan variabel asli, dimana variabel tersebut memiliki sifat sebagai berikut (Widarjono, 2010). i.
Mampu menetapkan semaksimal mungkin keragaman data
ii. Antar faktor saling bebas iii. Setiap faktor dapat diinterpresentasikan dengan lebih jelas Pada penelitian ini isian data sangat bervariasi dalam satuan, dalam artian ada variabel dengan satuan jutaan gross register ton (labuh) sampai satuan ribuan
19
m3 (air umum). Perbedaan yang sangat mencolok akan menyebabkan bias dalam analisis faktor sehingga data asli harus ditransformasi (standardisasi) sebelum bisa dianalisis. Proses standardisasi data bisa dilakukan dengan mentransformasi data kebentuk z-score (Santoso, 2010).
3.2.4. Analisis Regresi Linier Berganda Analisis regresi linier berganda merupakan salah satu metode analisis yang sesuai jika masalah penelitian meliputi sebuah variabel tak bebas (dependent variable) yang dianggap berhubungan dengan dua atau lebih variabel bebas (independent variable). Analisis regresi linier berganda dalam penelitian ini dilakukan untuk mengetahui kontribusi masing-masing faktor yang terbentuk dari hasil analisis komponen utama dan analisis faktor terhadap pendapatan pelabuhan. Data yang digunakan dalam analisis regresi linier berganda adalah data kuantitatif, baik untuk variabel bebas maupun tak bebas. Pemakaian data kualitatif pada variabel bebas dimungkinkan dengan mengubahnya menjadi variabel boneka (dummy variable).
3.2.4.1. Penyusunan Model Bentuk umum untuk model regresi dengan variabel tak bebas pendapatan pelabuhan dan variabel bebas merupakan faktor yang terbentuk dalam analisis sebelumnya adalah: 𝑌𝑖 = 𝛽0 + 𝛽1 𝐽𝐿𝑖 + 𝛽2 𝐽𝑇𝑖 + 𝛽3 𝐽𝐷𝑖 + 𝛽4 𝐽𝑃𝑖 + 𝛽5 𝐽𝐴𝐾𝑖 + 𝛽6 𝐽𝐴𝑈𝑖 + 𝛽7 𝐽𝐿𝑆𝑖 + 𝛽8 𝐷𝑖 + 𝜀𝑖 𝑌𝑖 = 𝛽0 + 𝛽1 𝐹1𝑖 + 𝛽2 𝐹2𝑖 + 𝛽3 𝐷𝑖 + 𝜀𝑖
20
dimana: Yi
= pendapatan pelabuhan (rupiah)
𝛽0
= konstanta (intercept)
𝛽1 , … , 𝛽8
= koefisien regresi
JLi
= jasa labuh (gross register ton/GRT)
JTi
= jasa tambat (GRT/ETM)
JDi
= jasa dermaga (ton/m3)
JPi
= jasa penumpukan (ton/m3/hari)
JAKi
= jasa air kapal (m3)
JAUi
= jasa air umum (m3)
JLSi
= jasa listrik (kwh)
F1i
= faktor 1
F2i
= faktor 2
Di
= perubahan tarif (dummy variable)
εi
= kesalahan pengganggu
i
= periode waktu (2004,2005,…,2011)
3.2.4.2. Pemeriksaan Asumsi Model Asumsi-asumsi yang harus dipenuhi oleh suatu model regresi linier berganda antara lain sebagai berikut (Gujarati, 1997):
21
1.
E( εi ǀ Xi ) = 0, untuk i = 1,2,3,…,n Artinya rata-rata kesalahan pengganggu sama dengan nol atau εi menyatakan variabel-variabel lain yang memengaruhi Pi akan tetapi tidak terwakili dalam model.
2.
Cov (εi, εj) = 0; i ≠ j Artinya tidak ada korelasi antara kesalahan pengganggu yang satu dengan yang lainnya.
3.
Var (εi) = σ2 Artinya setiap kesalahan pengganggu mempunyai varian yang sama atau mempunyai penyebaran yang sama (homokedastisitas).
4.
εi ∼ N (0,σ2)
Artinya untuk setiap kesalahan pengganggu mengikuti distribusi normal dengan rata-rata 0 dan varian σ2. 5.
Tidak ada multikolinieritas, yaitu tidak ada hubungan linier yang pasti antara variabel-variabel bebas. Uji statistik yang digunakan meliputi uji simultan (uji F) dan uji parsial
(uji t). Asumsi-asumsi yang disyaratkan dan harus diuji adalah uji normalitas, uji autokorelasi, uji heterokedastisitas dan uji multikolinieritas.
22
3.2.4.3. Teknik Pemeriksaan Asumsi Model Beberapa teknik pemeriksaan asumsi model regresi berganda antara lain sebagai berikut: 1. Uji Normalitas Uji normalitas adalah uji kesalahan pengganggu atau error apakah mengikuti distribusi normal dengan rata-rata nol dan varian σ2. Asumsi normalitas diuji dengan menggunakan diagram pencar peluang normal antara probabilita kumulatif residu dengan probabilita kumulatif normal. Jika sebaran identik dengan garis lurus pada normal plot maka asumsi kenormalan terpenuhi (Gujarati, 1997). 2. Uji Multikolinieritas Multikolinieritas artinya terjadinya hubungan linier antara variabel bebas. Dalam model regresi linier yang mencakup lebih dari dua variabel, sering terjadi multikolinieritas. Jika dari hasil pengujian statistiknya, didapatkan R2 besar, F-test besar, dan t-test juga besar, berarti tidak terjadi multikolinieritas. Kalaupun terjadi, maka derajat multikolinieritasnya rendah sehingga bisa diabaikan. Jadi
tingginya
kolinieritas,
tidak
memungkinkan
untuk
memisahkan pengaruh parsial dan variabel bebas terhadap variabel tak bebas (Y). Atau dapat dikatakan bahwa kehadiran bersama variabel-variabel bebas akan mempunyai pengaruh bersama terhadap Y (joint effect), tetapi jika berdiri sendiri-sendiri, masing-masing secara individu tidak mempunyai pengaruh terhadap Y.
23
Untuk mengetahui adanya multikolinieritas pada suatu model regresi dengan teori L.R. Klein, menggunakan konsep VIF (Variance Inflation Factors). Nilai VIF diperoleh dengan rumus:
𝑉𝐼𝐹 = 𝑅𝑗2
1
𝑇𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑒
adalah
=
1
1−𝑅𝑗2
koefisien
determinasi
yang
dihasilkan
dengan
meregresikan variabel penjelas ke-j dengan variabel lainnya. Semakin tinggi nilai 𝑅𝑗2 , VIF akan semakin besar. Suatu model regresi jika memiliki nilai VIF melebihi 5 maka perlu diperhatikan masalah multikolinieritas diantaranya dengan teknik analisis komponen utama dan analisis faktor. 3. Uji Autokorelasi Autokorelasi adalah korelasi antar variabel serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau ruang (seperti data cross section). Akibat adanya autokorelasi dalam model regresi akan menyebabkan penaksir yang digunakan tidak lagi efisien meskipun penaksir tetap unbiased dan konsisten, selain itu penaksir akan memberikan gambaran yang menyimpang dari nilai populasi yang sebenarnya. Uji untuk mendeteksi apakah hasil regresi melanggar asumsi autokorelasi atau tidak, dilakukan dengan melihat nilai statistik DurbinWatson (DW). Pengujian hipotesis: H0 : tidak terdapat autokorelasi H1 : terdapat autokorelasi
24
Statistik uji:
𝑑=
Keputusan:
2 ∑𝑛 𝑡=2(𝑒𝑡 − 𝑒𝑡−1 ) 2 ∑𝑛 𝑡=2 𝑒𝑡
d < dL
: tolak H0 (terdapat autokorelasi positif)
d > 4 – dL
: tolak H0 (terdapat autokorelasi negative)
dU < d < 4 – dU
: terima H0 (tidak terdapat autokorelasi)
dL < d < dU
: pengujian tidak meyakinkan
4 – dU < d < 4 - dL
: pengujian tidak meyakinkan
4. Uji Heterokedastisitas Asumsi yang penting dari model regresi linier adalah bahwa gangguan
(disturbance)
yang
muncul dalam
fungsi regresi
adalah
homokedastisitas, yaitu gangguan tadi mempunyai varian yang sama. Adanya heterokedastisitas mengakibatkan penaksir tidak lagi efisien walaupun penaksir tersebut tetap tak bias dan konsisten, artinya mempunyai varian yang lebih besar dari varian minimum. Untuk mendeteksi apakah telah terjadi heterokedastisitas dapat dilakukan dengan membuat plot data antara nilai-nilai prediksi (ZPRED = Regerssion Standardized Predicted Value) pada sumbu X dengan nilai residualnya (ZRESID = Regression Standardized Predicted Value) pada sumbu Y. Jika ditemukan ada pola tertentu, maka mengindikasikan adanya heterokedastisitas. Jika tidak ada pola yang jelas serta titik-titik menyebar di atas dan di bawah angka nol pada sumbu Y maka dapat dikatakan bahwa tidak terdapat heterokedastisitas (Gujarati, 1997).
25
3.2.4.4. Pengujian terhadap Model Regresi Pengujian yang dilakukan meliputi pengujian: 1. Pengujian Parameter Model Regresi Pengujian penduga parameter dilakukan untuk mengetahui keberatian penduga parameter. Apabila hipotesisnya ditolak, maka penduga parameter tersebut berarti (signifikan). 1.1. Uji – F Uji ini dilakukan untuk mengetahui apakah variabel bebas secara simultan mempunyai pengaruh yang signifikan terhadap variabel tak bebas. Pengujian hipotesis: H0 : β1 = β2 = … = βp = 0, secara simultan tidak ada variabel bebas yang berpengaruh signifikan terhadap variabel tak bebas. H1 : βj ≠ 0; (j = 1,2,…,p), minimal ada satu variabel bebas ke-j yang berpengaruh signifikan terhadap variabel tak bebas. Statistik Uji:
𝐹ℎ𝑖𝑡 =
dimana:
𝐽𝐾𝑅/[(𝑝+1)−1] 𝐽𝐾𝑆/[𝑛−(𝑝+1)]
∑ 𝑦𝑖2 /[(𝑝+1)−1]
=∑
𝑒𝑖2 /[𝑛−(𝑝+1)]
JKR = Jumlah Kuadrat Regresi JKS = Jumlah Kuadrat Sisa p+1 = banyaknya parameter termasuk konstanta n
= banyaknya sampel
α
= tingkat kesalahan yang masih diterima (taraf uji)
Keputusan: jika Fhit > Ftabel, maka H0 ditolak.
26
1.2. Uji – t Uji ini dilakukan untuk mengetahui apakah variabel bebas secara parsial mempunyai pengaruh yang signifikan terhadap variabel tak bebas. Pengujian hipotesis: H0 : βj = 0, tidak ada pengaruh yang signifikan dari variabel bebas ke-j terhadap variabel tak bebas H1 : βj ≠ 0, ada pengaruh yang signifikan dari variabel bebas ke-j terhadap variabel tak bebas. Statistik uji:
𝑡ℎ𝑖𝑡 =
𝛽𝑗
𝑠𝑒(𝛽𝑗 )
; dimana 𝑠𝑒(𝛽𝑗 ) = standar error (𝛽𝑗 )
Keputusan: jika thit > ttabel atau thit < -ttabel, maka H0 ditolak 2. Koefisien Determinasi (R2) Koefisien determinasi digunakan untuk menilai kemampuan model regresi yaitu proporsi keragaman variabel tak bebas yang dapat ditunjukkan oleh model regresi melalui variabel bebasnya.
𝑅2 =
𝐽𝐾𝑅 𝐽𝐾𝑇
atau 𝑅 2 = 1 −
𝐽𝐾𝑇−𝐽𝐾𝑆 𝐽𝐾𝑇
∑ 𝑒𝑖2
=1−∑
Koefisien determinasi memiliki dua sifat penting, yaitu:
𝑦𝑖2
a. Koefisien determinasi (R2) merupakan besaran nonnegatif. b. Batasnya adalah 0 ≤ R2 ≤ 1. Jika R2 bernilai 1 berarti suatu kecocokan sempurna, sedangkan R2 yang bernilai 0 berarti tidak ada hubungan antara variabel tak bebas dengan variabel yang menjelaskannya.
27
Dalam membandingkan dua model regresi atau lebih menggunakan R2, maka harus diperhitungkan banyaknya variabel bebas yang ada dalam model regresi. Hal tersebut dapat dilakukan dengan mempertimbangkan koefisien determinasi alternatif yaitu koefisien determinasi yang disesuaikan (R2 adjusted). Istilah ‘disesuaikan’ berarti disesuaikan dengan derajat bebasnya (df). Koefisien determinasi yang disesuaikan dirumuskan sebagai berikut: 2 𝑅𝑎𝑑𝑗
=1−
𝐽𝐾𝑆 𝑛−𝑝−1 𝐽𝐾𝑇 𝑛−1
=1−
∑ 𝑒𝑖2 /(𝑛−𝑝−1) ∑ 𝑦𝑖2 /(𝑛−1)
3.2.4.5. Pemilihan Model Regresi Terbaik Untuk mendapatkan model regresi terbaik dari variabel-variabel yang diteliti digunakan metode eliminasi backward. Eliminasi backward adalah salah satu prosedur pemilihan model regresi terbaik dalam regresi dengan eliminasi variabel bebas yang membangun model secara bertahap. Langkahlangkahnya sebagai berikut: 1. Masukkan semua variabel bebas ke dalam model regresi. 2. Menghitung nilai F parsial untuk masing-masing variabel bebas dan menguji F parsial tersebut. 3. Membandingkan nilai F parsial dengan F tabel pada α tertentu, jika F parsial terkecil lebih kecil dari F tabel maka variabel bebas tersebut dikeluarkan dari persamaan.
28
4. Menyusun kembali model regresi tanpa mengikutsertakan variabel bebas yang telah dikeluarkan, kemudian ulangi langkah 2. 5. Proses pengurangan variabel bebas berhenti jika tidak ada nilai F parsial < F tabel, yang berarti telah didapat model regresi terbaik.