BAB 2
LANDASAN TEORI
2.1 Variabel
Variabel adalah karakter yang akan di observasi dari unit amatan. Variabel dalam penelitian merupakan suatu atribut dari sekelompok objek yang diteliti dan memiliki variasi antara satu objek dengan objek yang lain dalam kelompok tersebut, misalnya tinggi badan dan berat badan merupakan atribut seseorang yang merupakan objek penelitian.
Menurut hubungan antara suatu variabel dengan variabel lainnya, variabel terbagi atas beberapa bagian yaitu : a
Dependent variable atau variabel terikat, yaitu variabel yang nilainya di pengaruhi oleh variabel bebasnya.
b
Independent variable atau variabel bebas, yaitu variabel yang menjadi sebab terjadinya variabel terikat.
c
Variabel moderator yaitu variabel yang memperkuat atau memperlemah hubungan antara suatu variabel dependen dengan variabel independen.
d
Variabel intervening, seperti variabel moderator tetapi nilainya tidak dapat di ukur seperti, kecewa, gembira, sakit hati dan sebagainya.
e
Variabel kontrol adalah variabel yang dapat di kendalikan oleh peneliti.
2.2 Data
Data adalah bahan baku yang harus diolah sehingga berubah sifatnya menjadi suatu informasi dan dari informasi tersebut dapat di ambil suatu keputusan. Pengumpulan
Universitas Sumatera Utara
data di lakukan untuk mendapatkan gambaran mengenai suatu keadaan sehingga dapat memecahkan persoalan. Untuk memperoleh itu semua terlebih dahulu harus di ketahui jenis elemen atau objek yang akan di teliti. Elemen adalah unit terkecil dari objek penelitian. Elemen atau unit terkecil dapat berupa orang, angka dan sebagainya. Disini elemen yang akan digunakan sebagai penelitian berupa angka yaitu nilai investasi dan pendapatan perusahaan di PTPN IV Gunung Bayu.
Adapun tujuan pengumpulan data adalah untuk mengetahui karakteristik dari elemen tersebut. Karakteristik adalah sifat-sifat atau ciri-ciri yang dimiliki yang elemen sehingga seluruh keterangan tentang elemen dapat di ketahui dengan jelas. Untuk
itu diperlukan data-data mengenai pendapatan dan investasi di PTPN IV
Gunung Bayu sehingga dapat di teliti faktor-faktor yang mempengaruhi hubungan timbal balik dari elemen-elemen tersebut.
2.2.1 Data Menurut Sifatnya
Menurut sifatnya data di bagi menjadi dua bagian yaitu : a
Data Kuantitatif Data kuantitatif adalah serangkaian observasi atau pengukuran yang dapat di nyatakan dalam angka-angka (numerik). Misalnya, produksi sawit meningkat 30 persen, harga daging sapi per kilogram Rp. 30.000, dan lain-lain.
b
Data Kualitatif Data kulitatif adalah serangkaian observasi dimana tiap observasi yang terdapat dalam sampel atau populasi tergolong dalam salah satu kelas-kelas yang saling lepas dan yang kemungkinannya tidak di nyatakan dalam angkaangka. Misalnya produksi padi meningkat, harga pupuk melonjak naik dan sebagainya.
2.2.2 Data Menurut Sumbernya
Menurut sumbernya data di bagi menjadi dua bagian yaitu :
Universitas Sumatera Utara
a
Data Internal Data internal adalah data yang di butuhkan seorang pemimpin perusahaan yang berguna sebagai landasan pengambilan keputusan dimana data tersebut di peroleh dari catatan-catatan intrn perusahaan tersebut. Misalnya data penjualan, pendapatan perusahaan dan investasi.
b
Data Eksternal Data eksternal adalah data yang hanya dapat di peroleh dari sumber-sumber yang ada di luar perusahaan atau instansi. Misalnya perusahaan mencari data mengenai daya beli konsumen dari kantor pusat statistik setempat.
2.2.3 Data Menurut Cara Memperolehnya
Menurut cara memperolehnya data dibagi atas dua bagian yaitu : a. Data Primer Data Primer adalah data yang dikumpulkan dan diolah sendiri oleh organisasi yang menerbitkannya atau perorangan langsung dari orangnya. b. Data Sekunder Data sekunder adalah data yang diterbitkan oleh organisasi yang bukan merupakan pengolahan atau data yang diperoleh dalam bentuk jadi dan telah diolah oleh pihak lain, yang biasanya dalam bentuk publikasi.
2.2.4 Data Menurut Waktu Pengumpulannya
Menurut pengumpulannya data dibagi atas dua bagian yaitu : a. Data cross section Data cross section adalah data yang dikumpulkan dalam suatu periode tertentu, biasanya menggambarkan keadaan atau kegiatan dalam periode tersebut. Misalnya hasil sensus penduduk 1990 menggambarkan keadaan Indonesia pada tahun 1990 menurut umur, jenis kelamin dan lain-lain.
Universitas Sumatera Utara
b. Data berkala (time series) Data berkala (time series) adalah data yang dikumpulkan dari waktu ke waktu. Tujuannya adalah untuk menggambarkan perkembangan suatu kegiatan dari waktu ke waktu. Misalnya, perkembangan produksi padi selama lima tahun terakhir. Data ini disebut juga data historis.
2.3 Pendapatan
Pendapatan perusahaan merupakan dana yang memberikan penghasilan bagi perusahaan yang berasal dari dividen atas investasi atau penyertaan berupa kepemilikan saham perusahaan lain, dan bunga yang di terima oleh perusahaan dari investasi perusahaan pada obligasi perusahaan lain atau dari simpanan uang perusahaan pada suatu instansi seperti Bank.
2.4 Investasi
Investasi adalah suatu aktiva yang di gunakan perusahaan untuk pertumbuhan kekayaan melalui distribusi hasil investasi seperti, bunga, royalti, dividen, uang sewa untuk apresiasi nilai investasi atau untuk manfaat lain bagi perusahaan yang berinvestasi. Aktiva yang di gunakan dalam penelitian ini adalah aktiva bergerak seperti berikut : 1. Kas dan bank 2. Deposito berjangka 3. Tagihan 4. Porsi piutang jangka panjang 5. Uang muka pembelian impor 6. Pinjaman pegawai/karyawan 7. Pinjaman lain-lain 8. Pajak yang dibayar dimuka 9. Biaya yang dibayar dimuka 10. Bahan baku dan pelengkap
Universitas Sumatera Utara
11. Persediaan produksi dan hasil jadi
Hal ini dilakukan karena aktiva bergerak mempunyai nilai yang berubah setiap tahun sehingga selalu berpengaruh pada pandapatannya. Contohnya manfaat yang di peroleh dari hubungan perdagangan. Investasi biasanya merupakan bentuk penanaman dana perusahaan ke dalam perusahaan lain dalam jangka panjang dalam bentuk saham, obligasi atau surat berharga lainnya.
2.5 Analisis Regresi
Analisis regresi adalah teknik statistika yang berguna untuk memeriksa dan memodelkan hubungan di antara varibel-variabel. Analisis regresi dapat di gunakan untuk dua hal pokok yaitu : a
Untuk memperoleh suatu persamaan dan garis yang menunjukkan persamaan hubungan antara dua variabel. Persamaan dan garis yang terdapat disebut persamaan regresi yang dapat berbentuk linier maupun nonlinier.
b
Untuk menaksir satu variabel yang disebut variabel terikat dengan variabel lain yang disebut variabel bebas berdasarkan hubungan yang di tunjukan persamaan regresi tersebut.
2.6 Model Regresi Linear
Suatu model regresi dari suatu populasi di mana terdapat satu variabel yang dependen (dependent variable) misalnya Y dan sebanyak k-1 variabel-variabel bebas (independent variables) misalnya X 1 , X 2 ,L , X k yang merupakan variabel-variabel yang menentukan nilai Y dapat diyatakan sebagai berikut :
Yi = β1 + β 2 X 2i + β 3 X 3i + L + β k X ki + ei
(2.1)
i = 1, 2, ... , N di mana :
β 1 = elemen konstan
Universitas Sumatera Utara
β 2 samapi β k = koefisien-koefisien regresi e = sthocastic disturbance term i = jumlah observasi N = besar populasi
Persamaan (2.1) dapat dipecah dalam bentuk suatu rangkaian persamaan-persamaan simultan sebanyak N, yaitu sebagai berikut : Y1 = β1 + β 2 X 21 + β 3 X 31 + L + β k X k 1 + e1 Y2 = β 1 + β 2 X 22 + β 3 X 32 + L + β k X k 2 + e2 M
M
M
M
M
(2.2)
M
YN = β 1 + β 2 X 2 N + β 3 X 3 N + L + β k X kN + e N
Persamaan (2.2) dapat juga di nyatakan dalam bentuk matrik sebagai berikut : Y1 Y 2 M M Y N
1 X 21 1 X 22 = M M M M 1 X 2N
X 31
L
X 32
L
M M
L L
X 3N
L
X k1 β 1 e1 X k 2 β 2 e2 M M + M M M M X kN β k e N
(2.3)
Atau Y = Xβ + e Di mana : Y = matriks observasi sebanyak N yang terdiri dari sebanyak k-1 variabel bebas yaitu
X 2 , X 3 ,L , X k
β = vektor kolom berdimensi k x 1 yang terdiri dari parameter β1 , β 2 , L, β k e = vektor kolom berdimensi Nx1 yang terdiri dari disturbance terms.
2.7 Uji Akar Unit (Unit Root Test)
Pengujian akar unit ini digunakan untuk melihat apakah data yang diamati stationer atau tidak. Test ini sebenarnya hanya merupakan pelengkap dari analisis VAR, mengingat tujuan dari analisis VAR adalah untuk menilai adanya hubungan timbal balik di antara variabel-variabel yang diamati, dan bukan test untuk data. Perhatian ini timbul karena jika ternyata data time-series yang di teliti bersifat non-stationary
Universitas Sumatera Utara
seperti kebanyakan data ekonomi, maka hasil regresi yang berkaitan dengan data timeseries ini akan mengandung R 2 yang relatif tinggi dan Durbin-Watson statistics yang rendah seperti yang di kemukakan oleh Granger dan Newbold (1974, 1977). Dengan kata lain akan timbul masalah yang disebut spurious regression (Philips, 1986).
Kestabilan suatu model time-series bermakna terkandung sifat stationary dalam model berikut :
Yt = βYt −1 + µ t ; ut ~ NID(0, σ 2 )
(2.4)
t = 1,...,n NID(0, σ 2 ) menyatakan adanya normal distribution dengan nilai rata-rata = 0, varian tetap = σ 2 dan kovarian = 0. Kondisi stationary dalam model (2.4) mengandung pengertian bahwa β < 1 . Dalam hal ini perlu di lakukan pengujian null-hypothesis
β = 1 terhadap alternatif hypothesis β < 1 . Pengujian null-hypothesis tentang akar unit ini diselesaikan dengan menggunakan prosedur Fuller(1976) dan Dickey dan Fuller (1979). Misalkan data time-series berbentuk: (1) Yt = b1Yt −1 + e1t
(2.5)
(2) Yt = a 2 + b2Yt −1 + e2t
(2.6)
(3) Yt = a3 + b3Yt −1 + c3t + e3t
(2.7)
Apabila nilai absolut β < 1 dalam model (2.4) maka nilai bi dari setiap model regresi dari model (2.5) sampai (2.7) di perkirakan bersifat normal dan distribusi t-
statistics menjadi t i = (bi − β ) / se(bi ) yang akan mendekati t n −k dimana k bernilai 1, 2 atau 3 tergantung model regresi yang digunakan. Apabila β = 1 dan model (2.4) merupakan model yang sebenarnya, maka distribusi empirikal t-statistics adalah t i dan bukan t n −k .
Misalnya, hasil-hasil model (2.5) sampai (2.7) telah diperoleh. Dengan membandingkan t-statistics yang tertera dalam table Dickey-Fuller dan yang dihitung melalui regresi masing-masing, kita dapat mengambil kesimpulan mengenai keberadaan unit root. Untuk ini ada tiga jejeran distribusi t-statistics dalam model
Universitas Sumatera Utara
Dickey-Fuller yaitu masing-masing untuk model regresi tanpa intercept, untuk model regresi dengan intercept dan untuk model regresi dengan intercept dan trend waktu. ∧
∧
∧
Masing-masing t-statistic ini dinyatakan dengan symbol-simbol τ , τ µ dan τ τ dalam tabel Dickey-Fuller. Melalui tabel Dickey-Fuller kita akan menolak null-hypothesis yang menyatakan adanya sifat stationary apabila nilai t-statistics yang di peroleh berkaitan dengan koefisien regresi model ini lebih kecil daripada nilai t-statistics pada tingkat signifikan 1 %, 5% dan 10%.
Prosedur pengujian Dickey dan Fuller tidak berubah apabila kita ingin menguji model regresi yang mengandung higher order autoregressive processes. Misalnya, kita ingin menguji unit root model regresi yang berikut: p −1
∆Yt = αYt −1 + ∑ α j ∆Yt − j + ε t j =1
Dimana : p
α j = − ∑ α k , j = 1,2,..., p − 1 k = j +1
p
Dan α = ∑ α k −1 k =1
Distribusi t-statistics berkaitan dengan Yt −1 adalah sama dengan yang tertera dalam table Dickey-Fuller untuk model regresi yang mengandung AR(1). Pengujian dalam model ini disebut pengujian Dickey-Fuller yang diperluas (Augmented DickeyFuller Test).
2.8 Likelihood Ratio Test
Likelihood ratio test digunakan untuk menguji apakah suatu model regresi yang di taksir dengan menggunakan metode maximum likelihood memenuhi persyaratan yang telah di tetapkan mengenai parameter-parameter model regresi yang di taksir. Likelihood ratio test di dasarkan atas pemikiran bahwa apabila persyaratan yang di tetapkan berlaku, maka nilai log likelihood function yang di maximumkan dengan
Universitas Sumatera Utara
adanya persyaratan atau pembatasan tidak akan banyak berbeda dari nilai log likelihood function yang di maximumkan dari model regrsi tanpa adanya pembatasan. Log likelihood ratio di hitung dengan menggunakan formula sebagai berikut : LR = -2(L0 - L1) ~ χ m
2
(2.8)
di mana: L0 = nilai log likelihood function dalam model regresi tanpa pembatasan L1 = nilai log likelihood function dalam model regresi dengan pembatasan m = jumlah pembatasan. Fungsi likelihood yang biasa dinyatakan dalam bentuk log sehingga di sebut fungsi log likelihood (L) yang akan di maximumkan berdasarkan nilai-nilai yang cocok untuk α, β, σ2 adalah : n
L=
∑ log f (Y )
(2.9)
i
i =1
1 2 − 2
di mana : f (Yi ) = (2πσ )
Y − α − βX i exp − 1 i 2 σ
2
(2.10)
yang merupakan fungsi normal density. Oleh sebab itu, fungsi log likelihood dapat di nyatakan sebagai berikut : n n 1 L = − log(2π ) − log σ 2 − 2 2 2σ 2
n
∑ (Y i =1
i
− α − βX i ) 2
(2.11)
Diferensialkan (2.11) dalam hubungannya dengan α, β, σ2 dan samakan derivatif dengan nol, maka di peroleh : n
1 2σˆ 2
∑ (Y i =1
− αˆ − βˆX i ) = 0
(2.12)
i
(Yi − αˆ − βˆX i ) = 0
(2.13)
n
1 2σˆ 2 −
i
∑X i =1
n 1 + 2 2σˆ 2σˆ 4
n
∑ (Y i =1
i
− αˆ − βˆX i ) 2 = 0
(2.14)
αˆ , βˆ , dan σ 2 adalah simbol-simbol untuk hasil penaksiran berdasarkan metode maximum likelihood. Dari (2.12) dan (2.13) di peroleh :
∑Y
i
= αˆ n + βˆ ∑ X i
∑X Y
i i
2 = αˆ ∑ X i + βˆ ∑ X i
(2.15) (2.16)
Universitas Sumatera Utara
Persamaan (2.15) dan (2.16) adalah persamaan-persamaan normal. Hasil penaksiran berdasarkan metode maximum likelihood di nyatakan dengan formula sebagai berikut : n
σ2 =
∑ (Y
i
i −1
n n
=
− αˆ − βˆX i ) 2
∑e i =1
(2.17)
2 i
n
Dengan demikian untuk kasus-kasus model regresi dengan k-variabel fungsi log likelihood adalah sebagai berikut : n n 1 L = − log 2π − log σ 2 − ( y − Xβ ) ' ( y − Xβ ) 2 2 2 2σ (2.18) Dengan mendeferensial parsial dan menyamakan derivatif sama dengan nol di peroleh:
(
)
−
1 − 2 X ' y + 2 X ' Xβˆ = 0 2σˆ 2
−
1 1 + y − Xβˆ ' y − Xβˆ = 0 2 2σˆ 2σˆ 4
(
)(
)
Sehingga pemecahannya menghasilkan
βˆ = ( X ' X ) −1 X ' y σ2 =
e' e n
Likelihood ratio test digunakan untuk melihat berapakah jumlah lag yang paling sesuai dalam untuk suatu model. Setelah diketahui berapa lag yang akan di gunakan dalam suatu model maka akan ditentukan lag mana yang paling relevan di pakai dalam model dengan menggunakan Final Prediction Error (FPE). Penentuan lag yang optimal untuk y sebagai variabel bebas dan lag operator untuk x tidak ada, didasarkan atas ukuran Final Prediction Error (FPE) yang minimum yang telah diformulasikan oleh Akaike (1969) yang dalam hal ini adalah sebagai berikut: ∧ 2 T y − y ( T + S + 1 t t) ×∑ FPEy = T − S − 1 t =1 T
di mana :
Universitas Sumatera Utara
FPE = Final Prediction Error T
= jumlah observasi
S
= jumlah lag dalam model
∧
yt adalah nilai y yang diramalkan berdasarkan hasil regresi (predicted value of y).
2.9 Granger Causality Test
Dalam realitas ekonomi, model regresi linier di mana variabel dependen di regresikan atas variabel-variabel bebas tidak dapat di pastikan mengandung pengertian bahwa variabel dependen secara kausal betul-betul di tentukan oleh variabel-variabel secara sepihak. Ada kemungkinan dalam suatu model persamaan tunggal, variabel dependen ditentukan oleh variabel bebas, tetapi sebaliknya variabel bebas juga ditentukan oleh variabel dependen sehingga dalam hal ini terdapat kausalitas dua arah.
Dua perangkat data time-series yang linier berkaitan dengan variabel X dan Y di formulasikan dalam dua bentuk model regresi yang berikut : n
n
i =1
j =1`
X t = ∑ ai X t −i + ∑ b j Yt − j + u t r
s
i =1
j =1`
(2.19)
Yt = ∑ ci Yt −i + ∑ d j X t − j + vt
(2.20)
Dengan u t , vt adalah error terms yang di asumsikan tidak mengandung korelasi serial dan m = n = r = s. Hasil-hasil regresi linear ini akan menghasilkan empat kemungkinan mengenai nilai koefisien-koefisien regresi masing-masing yaitu : n
(1) Jika
∑ b j ≠ 0 dan j =1 n
(2) Jika
∑b j =1 n
(3) Jika
j
= 0 dan
∑ b j = 0 dan j =1
s
∑d j =1
j
= 0 maka terdapat kausalitas satu arah dari Y ke X.
j
≠ 0 maka terdapat kausalitas satu arah dari X ke Y
s
∑d j =1
s
∑d j =1
j
= 0 maka X dan Y bebas antara satu dengan yang
lain
Universitas Sumatera Utara
n
(4) Jika
∑b j =1
j
≠ 0 dan
s
∑d j =1
j
≠ 0 maka terdapat kausalitas dua arah antara Y dan X
Untuk memperkuat indikasi keberadaan berbagai bentuk kausalitas yang tersebut di atas, maka di lakukan F-test unutk masing-masing model regresi.
Cara lain untuk menjelaskan metode pengujian kausalitas Granger adalah dengan menggunakan regresi tanpa pembatasan (unrestricted regression) dan regresi dengan pembatasan (restricted regression). Misalnya, kita ingin menguji hipotesis bahwa X tidak mempengaruhi Y. Untuk itu mula-mula menghitung regresi-regresi yang berikut: m
m
i =1
i =1
Y = ∑ α i Yt −i + ∑ β i X t −i +ε t
(2.21)
m
Y = ∑ α i Yt −i + ε t
(2.22)
i =1
Persamaan (2.21) disebut persamaan tanpa pembatasan dan Persamaan (2.22) disebut persamaan dengan pembatasan.
Selanjutnya berdasarkan nilai-nilai sum square of residual yangdiperoleh dari masing-masing persamaan diatas, dengan menghitung F-statistic dan melakukan pengujian apakah keseluruhan nilai-nilai β, yaitu parameter-parameter yang berkaitan dengan x secara signifikan tidak sama dengan nol. Seandainya keseluruhan nilai-nilai ini positif secara signifikan, maka kita dapat menolak null hypothesis yang menyatakan bahwa X tidak mempengaruhi Y. Prosedur pengujian yang sama dapat dilakukan untuk menguji null hypothesis yang lain bahwa Y tidak mempengaruhi X.
2.10 The Impulse Responses
Dalam analisis Impulse Response kita akan melihat efek gejolak suatu standar deviasi dari variabel baru terhadap nilai yang sudah ada dan nilai yang akan datang dari variabel-variabel terikat dalam model yang diamati. Disini akan dilihat standar error pada masing-masing variabel. Misalkan Yt merupakan urutan k-dimensi vector dari:
Universitas Sumatera Utara
Yt = A1Yt −1 + L + ApYt − p + U t α
= Φ ( B )U t = ∑ Φ iU t −i
(2.23)
i =0
I = (I − A1 B – A2 B − · · · − Ap Bp) Φ (B)
(2.24)
Dengan, cov(Ut) = ∑ , Φ i adalah pengukur the impulse response terhadap koefisien MA. Selanjutnya
Φ jk ,i mewakili respon dari j variabel ke impulse unit dalam k-
variabel ke i-th periode yang lampau. Impulse response function digunakan untuk mengevaluasi efektivitas suatu perubahan shock dari satu variabel terhadap variabel lainnya. Apabila
∑
non-diagonal, maka tidak mungkin terjadi shock dari satu
variabel terhadap variabel lain yang sudah ditentukan. Keterangan : 1. Untuk K-dimensi VAR(p) stabil jika Φ jk ,i = 0 untuk j ≠ k, i = 1,2,…
Atau Φ jk ,i = 0 untuk i = 1,…,p(K-1)
Dengan kata lain, jika pK-p respon yang pertama terhadap j variabel ke
impulse k variabel adalah nol, maka semua response adalah nol. (Lutkepohl Proposition 2.4) 2. Variabel k tidak menyebabkan variabel j jika dan hanya jika Φ jk ,i = 0, i = 1,2,…
2.11 The Cholesky Decomposition
The Cholesky Decomposition atau The Variance Decomposition digunakan untuk melihat pengaruh signifikan terhadap variabel terikat dan varibel yang paling memberikan kontribusi besar terhadap variabel terikat tersebut. Dalam analisis ini akan disusun perkiraatn mengenai error variance suatu variabel
sehingga akan
diketahui seberapa besar perbedaan antara variance sebelum dan sesudah efek gejolak
Universitas Sumatera Utara
di lakukan. Misalkan P matriks segitiga bawah sehingga persamaan (2.23) menjadi
α
Yt = ∑ Θ w i t −i i−0
(2.25)
Dengan : Θi = Φ i P
wt = P −1U t
(
)
E wt wt = I '
Misalkan D merupakan diagonal matriks yang sama dengan P dan W= PD-1, Λ=DD’ setelah dimanipulasi diperoleh: (2.26)
Yt = B0 Yt + B1 Yt-1 + · · · + Bp Yt-p + Vt
Dengan, B0 = Ik – W-1, W = PD-1, Bi = W-1 Ai. B0 adalah matriks segitiga bawah dengan diagonal 0. Dengan kata lain, cholesky decomposition menentukan struktur hubungan kausal dari variabel atas ke variabel
bawah, tapi tidak berlaku sebaliknya.
2.12 Pengujian Hipotesis
Pengujian hipotesis dilakukan untuk mengetahui signifikan atau tidak analisis regresi yang di analisis. Adapun langkah-langkah untuk menguji hipotesis adlah sebagai berikut: 1. Uji secara gabungan Uji secara gabungan dilakukan dengan menggunakan uji F dengan langkah sebagai berikut : a. Menghitung F penelitian. b. Menghitung F tabel dengan ketentuan sebagai berikut: Taraf signifikansi 0,05 dan derajat kebebasan dengan ketentuan numerator = k-1 dan denumerator = N - k c. Menentukan uji kriteria hipotesis Kriteria pengujian : Jika F penelitian > F tabel maka H0 ditolak dan H1 diterima Jika F penelitian ≤ F tabel maka H0 diterima dan H1 ditolak d. Mengambil keputusan.
Universitas Sumatera Utara
e. Membandingkan angka taraf signifikansi -
Jika nilai probabilitas 0,05 lebih kecil atau sama dengan nilai probabilitas maka H0 diterima dan H1 ditolak, artinya ada hubungan linier antar variabel secara gabungan.
-
Jika nilai probabilitas 0,05 lebih besar daripada probabilitas maka H0 ditolak dan H1 diterima, artinya tidak ada hubungan linier antar variabel secara gabungan.
2. Uji Keselarasan Uji secara keselarasan menggunakan uji chi-square dengan langkah sebagai berikut : a. Menentukan hipotesis Hipotesis : H0 : kedua faktor selaras. H1 : kedua faktor tidak selaras. b. Menghitung besarnya χ 2 penelitian c. Menghitung basarnya χ 2 tabel dengan ketentuan sebagai berikut : Taraf signifikansi dan derajat kebebasan = n-1. d. Menentukan Kriteria : Kriteria uji hipotesis sebagai berikut : Jika χ 2 penelitian > χ 2 tabel maka H0 ditolak dan H1 diterima. Jika χ 2 penelitian ≤ χ 2 tabel maka H0 diterima dan H1 ditolak. e. Kesimpulan.
Universitas Sumatera Utara