BAB 2
LANDASAN TEORI
2.1
Regresi Linier Sederhana
Dalam beberapa masalah terdapat dua atau lebih variabel yang hubungannya tidak dapat dipisahkan karena perubahan nilai suatu variabel tidak selalu terjadi dengan sendirinya, namun perubahan nilai variabel itu dapat pula disebabkan oleh berubahnya variabel lain yang berhubungan dengan variabel tersebut. Hal tersebut biasanya diselidiki sifat hubungannya yaitu dengan mengetahui pola nilai suatu variabel yang disebabkan oleh variabel lain diperlukan alat analisis yang dapat membuat perkiraan nilai variabel tersebut pada nilai tertentu variabel yang mempengaruhinya.
Teknik yang umum digunakan untuk menganalisis hubungan antara dua atau lebih variabel dalam ilmu statistik adalah dengan analisis regresi. Analisis regresi adalah teknik statistik yang berguna untuk memeriksa dan memodelkan hubungan diantara variabel-variabel. Analisis regresi berguna untuk menelaah pola dan mengukur hubungan statistika antara dua atau lebih variabel yang modelnya belum diketahui dengan sempurna.
Persamaan matematik yang digunakan untuk melakukan peramalan mengenai nilai – nilai suatu variabel tak bebas dari satu atau lebih variabel bebas disebut persamaan regresi. Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton
Universitas Sumatera Utara
(1822 – 1911) yang berasal dari hasil pengamatan yang dilakukan terhadap manusia yaitu membandingkan tinggi badan anak laki – laki dengan tinggi badan ayahnya. Galton menyatakan bahwa tinggi badan anak laki – laki dari badan yang tinggi pada beberapa generasi kemudian cenderung “mundur” (regressed) mendekati rata – rata populasi. Dengan kata lain, anak laki – laki dari ayahnya yang mempunyai badannya sangat tinggi cenderung lebih pendek dari ayahnya. Sedangkan anak laki – laki dari ayah yang mempunyai badan sangat pendek cenderung lebih tinggi dari ayahnya. Dari hasil penelitian ini istilah regresi pada mulanya bertujuan untuk membuat perkiraan nilai suatu variabel (tinggi badan anak) terhadap suatu variabel lain (tinggi badan ayah).
Pada perkembangan selanjutnya analisis regresi dapat digunakan sebagai alat untuk membuat perkiraan ataupun peramalan nilai suatu variabel dengan menggunakan variabel lain yang berhubungan dengan variabel tersebut. Dalam analisis regresi, dikenal dua jenis variabel yaitu : 1.
Variabel Respon disebut juga variabel dependent yaitu variabel yang tidak bebas yaitu keberadaannya dipengaruhi oleh variabel lainnya dan dinotasikan dengan Y.
2.
Variabel Prediktor disebut juga variabel independent yaitu variabel yang bebas (tidak dipengaruhi oleh variabel lainnya) dan dinotasikan dengan X.
Analisis regresi yang melibatkan hubungan antara satu variabel respon (tidak bebas) dengan satu variabel prediktor (bebas) diistilahkan dengan regresi linier sederhana, dengan model persamaan: (2.1)
Dimana intercept sedangkan
dan slope
merupakan parameter yang tidak diketahui nilainya,
adalah error random dengan rata – rata nol dan varians
.
Misalkan ada n pasangan observasi, katakan dengan y merupakan variabel tidak bebasnya atau variabel respon yang berhubungan dengan n variabel bebas diukur dengan errornya dapat diabaikan sehingga nilai harapan y untuk masing – masing x adalah:
Universitas Sumatera Utara
(2.2)
Tujuan utama dari analisis regresi adalah mendapatkan dugaan (estimation) dari suatu variabel dengan menggunakan variabel lain yang diketahui.
2.2
Estimasi Parameter
2.2.1
Pengertian Estimasi Parameter dan Estimator
Estimasi (pendugaan) merupakan proses yang menggunakan sampel statistik untuk menduga atau menaksir hubungan parameter populasi yang tidak diketahui. Pendugaan merupakan suatu pernyataan mengenai parameter populasi yang diketahui berdasarkan informasi dari sampel, dalam hal ini sampel random, yang diambil dari populasi yang bersangkutan. Jadi dengan pendugaan ini, keadaan parameter populasi dapat diketahui (Hasan 2002).
Menurut Hasan (2002), estimator adalah suatu statistik (harga sampel) yang digunakan untuk menduga suatu parameter. Dengan penduga, dapat diketahui seberapa jauh suatu parameter populasi yang tidak diketahui berada di sekitar sampel (statistik sampel). Besaran sebagai hasil penerapan penduga terhadap data dari sesuatu contoh disebut nilai duga (estimate). Secara umum, parameter diberi lambang
dan
penduganya diberi lambang .
2.2.2
Sifat – Sifat Estimator
Estimator yang diperoleh dalam mengestimasi parameter – parameter dikatakan sebagai estimator yang baik apabila mempunyai sifat atau ciri – ciri sebagai berikut:
Universitas Sumatera Utara
1.
Estimator yang tidak bias
Estimator yang tidak bias apabila dapat menghasilkan estimasi yang mengandung nilai parameter yang diestimasikan. Misalkan, estimator bias jika rata – rata semua harga dituliskan
2.
dikatakan estimator yang tidak
yang mungkin akan sama dengan , atau dapat
.
Estimator yang efisien
Estimator dikatakan efisien bagi parameternya apabila estimator tersebut memiliki varians minimum. Apabila terdapat lebih dari satu penduga, penduga yang efisien adalah penduga yang memiliki varians terkecil. Dua buah penduga dapat dibandingkan dengan efisiensi relatif. Misalkan estimator untuk , dimana varians penduga maka
3.
dan
adalah sebagai dua
lebih kecil dibandingkan varians
relatif lebih efisien dibandingkan dengan
,
.
Estimator yang konsisten
Estimator dikatakan konsisten apabila nilai penduga parameter
cenderung mendekati nilai
untuk n (jumlah sampel) yang semakin besar mendekati tak hingga. Jadi,
ukuran sampel yang besar cenderung memberikan penduga titik yang lebih baik dibandingkan ukuran sampel kecil.
Dalam analisis regresi, diperlukan suatu model yang digunakan untuk mengetahui hubungan antara variabel tidak bebas (respon) dengan satu atau lebih variabel bebas (prediktor) dan untuk melakukan peramalan terhadap variabel respon. Model regresi dapat diperoleh dengan melakukan pendugaan terhadap parameter parameternya dengan menggunakan metode tertentu. Metode yang dapat digunakan mengestimasi parameter model regresi, khususnya parameter model regresi linier yaitu dengan Metode Kuadrat Terkecil (Ordinary Least Square) dan Metode Kemungkinan Maksimum (Maximum Likelihood Methods), (Kutner et.all, 1990).
Universitas Sumatera Utara
2.3
Metode Kemungkinan Maksimum
Salah satu cara untuk mendapatkan estimator yang baik adalah dengan menggunakan Metode
Kemungkinan
Maksimum
(Maximum
Likelihood
Methods)
yang
diperkenalkan oleh R. A. Fisher (1890 – 1962). Maksimum likelihood ini adalah metode
yang
digunakan
untuk
menduga
parameter
–
parameter
dengan
memaksimumkan fungsi kemungkinannya yang dibentuk dari gabungan distribusi pengamatan.
Misalkan X adalah variabel random berukuran n pengamatan dengan maka fungsi kemungkinannya adalah:
(2.3)
Penduga kemungkinan dengan Metode Kemungkinan Maksimum dari parameter tunggal kemungkinan
adalah sebuah nilai
yang memaksimumkan fungsi
. Apabila variabel random dari populasi yang berdistribusi , maka fungsi kemungkinannya didefinisikan sebagai berikut:
(
Jika fungsi kemungkinannya diturunkan terhadap penyelesaian
atau
estimasi
parameter
–
)
, maka akan diperoleh
parameter
dengan
memaksimumkan persamaan (2.4) dan menyamakan dengan nol, diperoleh: (
)
Universitas Sumatera Utara
Untuk lebih jelasnya, misalkan peubah acak X tersebut tersebar normal dengan nilai tengah
dan varians
, dimana
dan
tidak diketahui sehingga fungsi
kemungkinannya adalah: (
)
Tujuan utama dari analisis regresi adalah mendapatkan dugaan (estimation) dari suatu variabel dengan menggunakan variabel lain yang diketahui.
2.3.1 Maksimum Likelihood dalam Regresi Linier Sederhana
Maksimum Likelihood adalah metode yang dapat digunakan untuk mengestimasi suatu parameter dalam regresi.
Dalam model regresi linear sederhana, berdasarkan data diasumsikan bahwa galat
dalam model regresi berdistribusi
dengan pengamatan – pengamatan independen, dengan mean
dalam percobaan berdistribusi normal dan dan variansnya
. Maka fungsi kemungkinan
nilai pertama Y adalah: (2.7)
Kemudian kemungkinan nilai kedua Y sama dengan persamaan (2.7), kecuali angka satu diganti dengan dua dan seterusnya untuk semua nilai Y amatan lainnya.
Untuk nilai Y bebas dengan mengalikan semua kemungkinan bersama, maka fungsi probabilitas bersamanya adalah:
( Dengan
menyatakan hasil kali n kemungkinan bersama untuk setiap nilai
) i
yang
Universitas Sumatera Utara
penggunaannya dikenal untuk eksponensial, sehingga persamaan (2.8) dapat diperlihatkan dengan penjumlahan eksponensial yaitu:
(
Mengingat
yang diberikan dipertimbangkan untuk berbagai nilai
)
dan
,
sehingga fungsi likelihoodnya yaitu:
(
0)
Estimator fungsi kemungkinan maksimum untuk parameter – parameter dan
dinotasikan dengan
dan
diperoleh dengan memaksimumkan L,
sehingga: (
ln maksimum bila
)
minimum, ini merupakan jumlah kuadrat error
Dengan mendifferensialkan fungsi kemungkinannya terhadap setiap parameter dan estimator
harus memenuhi:
Penyelesaian dari persamaan tersebut adalah: (2.12) (
)
Universitas Sumatera Utara
dan
adalah estimator untuk intercept (titik potong) dan slope (kemiringan).
Sehingga diperoleh estimator model regresi linier sederhananya adalah: (2.14)
Selain estimator
dan
, menurut Kutner, M.H (1990) estimasi
juga
dibutuhkan dalam uji hipotesis dan pembentukan estimasi yang berhubungan dengan model regresi. Dengan mendifferensialkan fungsi kemungkinannya terhadap parameter
dan estimator
juga harus memenuhi:
Maka, penyelesaian dari persamaan tersebut adalah:
Dengan
(
)
(
)
adalah standard error regresi atau dapat juga dituliskan:
SSE (Sum Square of Error) adalah jumlah kuadrat residual dan penduga ini bias .
Jumlah kuadrat residual mempunyai derajat kebebasan derajat kebebasan adalah gabungan dari estimasi pembentukan
Sehingga estimator tak bias dari
dan
, karena dua yang terlibat dalam
adalah : (
7
Pendugaan (estimasi) yang dilakukan dengan Metode Kemungkinan Maksimum untuk memperoleh estimatornya, tentu saja tidak lepas dari kesalahan (error) baik itu sedikit maupun banyak. Namun dengan metode kemungkinan maksimum, kesalahan penduga dijamin yang terkecil karena estimasi dengan metode ini akan meminimumkan jumlah kudrat errornya dengan ketentuan memenuhi beberapa asumsi. Asumsi – asumsi tersebut biasanya disebut dengan asumsi klasik regresi linier.
Universitas Sumatera Utara
Dengan demikian dalam melakukan analisis regresi diberlakukan asumsi –
asumsi model ideal tertentu terhadap galat , yaitu: 1.
Nilai rata – rata kesalahan pengganggu nol, yaitu:
, untuk
. 2.
adalah konstan untuk semua kesalahan pengganggu (asumsi homoskedastisitas).
3.
Tidak
ada
korelasi
serial
berarti kovarian 4.
antara
pengganggu
,
.
Peubah bebas
konstan dalam sampling yang terulang dan bebas
terhadap kesalahan pengganggu 5.
(autocorrelation)
.
Tidak ada multikolinearitas antar variabel bebas X.
2.4
2.4.1
Heteroskedastisitas
Pengertian Heteroskedastisitas
Salah satu asumsi penting dari model regresi linear klasik adalah varian error
pada
setiap nilai – nilai variabel bebas adalah sama (konstan), asumsi ini disebut juga sebagai asumsi homoskedastisitas atau homogenitas varian yang disimbolkan dengan: , , Apabila asumsi ini tidak dipenuhi dalam analisis regresi linier, maka didapatkan keadaan bahwa varian tidak bersifat konstan. Keadaan ini disebut mengalami heteroskedastisitas atau disimbolkan dengan: , , ,
Secara diagram dalam regresi dua variabel, homoskedastisitas dapat ditunjukkan pada Gambar (2.1) yang menunjukkan bahwa varian setiap rerata nolnya tidak tergantung pada pada nilai variabel bebas. Jika varian dari
masih sama pada
Universitas Sumatera Utara
setiap titik atau untuk seluruh nilai X (variabel bebas) yang kecil maupun besar, maka pola tertentu akan terbentuk bila sebaran Y diplot dengan sebaran X. Bila digambarkan dalam tiga dimensi, polanya akan mendekati pola pada Gambar (2.1).
Densitas
Y
...
X Gambar 2.1. Asumsi Homoskedastisitas
Sebaliknya, Gambar (2.2) menunjukkan varian kondisional dari dengan naiknya X atau dikatakan bahwa varian dari
yaitu
naik
pada setiap variabel bebas X
tidak sama (tidak konstan).
Densitas
Y
...
X Gambar 2.2. Asumsi Heteroskedastisitas
Universitas Sumatera Utara
2.4.2
Konsekuensi Atau Akibat Adanya Heteroskedastisitas
Dalam kenyataannya, asumsi homoskedastisitas dari kesalahan pengganggu mungkin tidak bisa dipenuhi, dengan kata lain varian dari kesalahan pengganggu bersifat heteroskedastisitas, yaitu
. Hal ini dapat dipahami jika
diperhitungkan faktor – faktor yang menjadi penyebab adanya kesalahan pengganggu dalam model regresi. Faktor kesalahan pengganggu
dimasukkan ke dalam model
untuk dapat memperhitungkan kesalahan – kesalahan yang mungkin terjadi dalam pengukuran dan kesalahan karena mengabaikan variabel – variabel tertentu. Dengan memperhatikan kedua perhitungan itu, maka terdapat alasan untuk memperkirakan bahwa varian
bervariasi secara sistematis dengan variabel bebas X.
Konsekuensi dari pelanggaran asumsi homoskedastisitas adalah sebagai berikut: 1.
Penduga (estimator) yang diperoleh tetap memenuhi persyaratan tidak bias. Diberikan estimator Anggaplah bahwa: Sehingga:
Dengan diketahui bahwa:
dan
Universitas Sumatera Utara
Dengan demikian:
Sehingga diperoleh:
Demikian juga untuk estimator parameter
(
)
(
)
yaitu
Diberikan estimator
Dengan mensubsitusikan
ke dalam persamaan (2.19), maka:
Sehingga akan diperoleh:
(2.20)
Dapat disimpulkan bahwa sifat ketidakbiasan tidak tergantung pada varian galat. Jika dalam model regresi ada heteroskedastisitas, maka kita tetap memperoleh nilai parameter yang tidak bias karena sebagai penduga tidak bias tidak memerlukan asumsi bahwa varian galat harus konstan. 2.
Varian penduga yang diperoleh akan menjadi tidak efisien, artinya penduga tersebut tidak memiliki varian terkecil diantara penduga – penduga tidak bias lainnya.
Universitas Sumatera Utara
Dengan asumsi adanya homoskedastisitas, maka: ar
i j
Karena
, dan
Sehingga diperoleh:
var
(
)
(
)
Apabila dengan adanya asumsi heteroskedastisitas maka:
var
Walaupun
dikatakan adalah unbiased, tetapi tidak efisien karena varian – variannya
lebih besar daripada yang diperlukan. Untuk melihat penggunaan persamaan (2.21) dan (2.22), diuraikan sebagai berikut:
Universitas Sumatera Utara
Misalnya, dinyatakan bahwa varian dengan asumsi heteroskedastisitas proporsional terhadap
dan
maka faktor proporsionalitasnya dinyatakan dengan persamaan:
Dengan mensubstitusikan nilai
ke dalam persamaan (2.22), diperoleh:
var
Sehingga diperoleh: var
var
dengan asumsi homoskedastisitas
Dapat dikatakan bahwa, jika
(
dan
)
berkorelasi positif atau
mempunyai hubungan variabel yang positif dan jika komponen yang kedua dari persamaan (2.23) lebih besar daripada satu atau dapat dituliskan:
Maka
ar
dengan asumsi heteroskedastisitas akan lebih besar daripada
dengan asumsi homoskedastisitas. Sebagai akibatnya, standar error dari
ar terlalu
rendah (underestimated). Sebagaimana diketahui bahwa standart error ini memiliki peran dalam pembentukan nilai t hitung yang berkaitan akan menjadi terlalu tinggi
(overestimated) yang mungkin selanjutnya menghasilkan kesimpulan bahwa dalam kasus spesifik
adalah kelihatannya signifikan, walaupun sebenarnya tidak
Universitas Sumatera Utara
signifikan. Oleh karena itu jika asumsi homoskedastisitas tidak dipenuhi maka hasil uji t tidak menentu.
Selain uji signifikan tidak dapat diterapkan, batas – batas kepercayaan juga tidak dapat diterapkan. Artinya jika varian penaksir model tidak memenuhi asumsi homoskedastisitas, maka inferensi dan prediksi mengenai koefisien – koefisien populasinya akan keliru.
Dalam analisis model regresi linear apabila semua asumsi model regresi linear klasik
terpenuhi
kecuali
asumsi
homoskedastisitas
yang
berarti
adanya
heteroskedastisitas, maka estimator dari paramater yang diperoleh masih tetap tak bias dan konsisten tetapi estimatornya tidak efisien, baik untuk sampel kecil maupun sampel besar.
2.4.3
Pengujian Heteroskedastisitas
Masalah heteroskedastisitas pada umumnya terjadi di dalam analisis data cross – sectional. Data cross – sectional yaitu data yang diambil pada satu waktu saja, tetapi dengan responden yang besar, misalnya jika melakukan survai. Data survai yang didapatkan dari penelitian tersebut pada intinya adalah membandingkan kondisi satu dan lain orang pada waktu yang sama. Gejala heteroskedastisitas terjadi akibat ketidaksamaan data atau bervarisinya data yang diteliti.
Untuk mendeteksi masalah heteroskedastisitas dapat dilakukan dengan metode formal dan informal. Metode formal dapat dilakukan dengan uji statistik diantaranya Uji Park, Uji Glejser, Uji Korelasi Rank dari Spearmen dan Uji Goldfeld – Quant. Sedangkan metode informal biasanya dilakukan dengan uji metode grafik dengan memetakan
terhadap
dan melihat pola penyebaran yang terbentuk
sistematis atau acak. Dalam tulisan ini akan digunakan Uji Korelasi Rank dari Spearmen dalam mendeteksi masalah heteroskedastisitas.
Universitas Sumatera Utara
Pengujian Korelasi Rank dari Spearmen Sesuai dengan namanya, metode ini pertama kali diperkenalkan oleh Spearmen dan menggunakan korelasi peringkat X dan
. Koefisien Korelasi Rank dari Spearmen
dirumuskan: ( di mana
)
merupakan selisih rank yang ditempatkan untuk dua karakteristik yang
berbeda dari individu ke-i atau fenomena ke-i dan n adalah banyaknya individu atau fenomena yang diberi rank.
Langkah – langkah pengujian heteroskedastisitas dengan menggunakan uji
Korelasi Rank dari Spearmen adalah sebagai berikut: 1.
Menentukan model regresi dengan meregresikan X dan Y dan didapatkan nilai galat
2.
.
Tanpa memperhatikan tanda dari
, yaitu ambil nilai mutlaknya yaitu
kemudian merangking kedua variabel
dan
,
sesuai dengan urutan yang
menaik ataupun menurun selanjutnya menghitung selisih rank keduanya. 3.
Menghitung koefisien
berdasarkan persamaan (2.24).
4.
Tingkat signifikansi koefisien korelasi
yang didapatkan dengan persamaan
(2.24) diuji dengan statistik uji t sebagai berikut: (
dengan derajat bebas
)
.
5. Pengujian hipotesis: : tidak ada heteroskedastisitas : ada heteroskedastisitas Dengan demikian, kaidah pengambilan keputusan untuk hipotesis di atas adalah sebagai berikut: Tolak
jika
. Dalam hal lain terima
.
Universitas Sumatera Utara
Apabila dalam model regresi mencakup lebih dari dua variabel bebas, dihitung antara
dapat
dengan setiap variabel bebas X secara terpisah dan juga dapat diuji
untuk mengetahui signifikan tidaknya dengan uji t.
2.5
Transformasi Box Cox
Box dan Cox (1964) telah mengembangkan suatu prosedur dalam pemilihan suatu transformasi dari suatu transformasi kuasa (power transformation) yang dikenal dengan Transformasi Box Cox dengan memperhatikan secara sistematis transformasi variabelnya.
Prosedur
Transformasi
Box
Cox
bertujuan
untuk
memeriksa
kecondongan dari distribusi bentuk galatnya atau dengan kata lain untuk menormalkan data.
Selain
itu
prosedur
transformasi
ini
dapat
juga
digunakan
untuk
menghomogenkan varian dan melinierkan model regresinya.
Transformasi Box Cox merupakan transformasi pangkat pada variabel respon dan mempertimbangkan kelas transformasi berparameter tunggal, yaitu
yang
dipangkatkan pada variabel respon Y. Dengan demikian, model transformasinya menjadi
dan
adalah parameter yang perlu diduga.
Menurut Drapper S dan Harry S (1992) Transformasi Box Cox diberlakukan pada variabel respon Y yang harus bertanda positif
, dinyatakan dalam
transformasi kuasa dengan persamaan berikut: jika
(
)
jika
Setelah Y ditransformasikan menjadi W, maka model regresi liniernya dalam persamaan matriks menjadi: (2.27) dengan parameter transformasi
. Dengan demikian, prosedur utama Box Cox adalah menduga dan dalam model regresi liniernya parameter
juga perlu
diduga.
Universitas Sumatera Utara
2.5.1 Pendugaan Parameter Transformasi Box Cox
Salah satu metode yang dapat digunakan dalam pendugaan parameter
pada
Transformasi Box Cox adalah dengan Metode Kemungkinan Maksimum. Cara penaksiran ini sedikit berbeda dengan penaksiran yang biasa dilakukan yaitu menentukan nilai
pada kisaran nilai tertentu.
Dari model regresi linier
diperoleh fungsi kemungkinannya,
yaitu: ( Dengan mengalikan transformasi Jacobian dari variabel – variabel dengan
)
sampai
terhadap fungsi kemungkinannya maka diperoleh: (
)
(
0)
(
)
dengan:
Sehingga, fungsi kemungkinannya menjadi:
Penduga parameter
pada Transformasi Box Cox diperoleh dengan
memaksimumkan persamaan fungi kemungkinannya. Sehingga diperoleh: (
Sehingga untuk nilai
)
yang telah ditetapkan, maka fungsi maksimum likelihoodnya
adalah:
(
)
Universitas Sumatera Utara
K ( umlah Kuadrat isa) setelah menduga model
Dengan
adalah
regresi dengan
yang ditentukan.
Penaksiran parameter kisaran nilai tertentu. Biasanya
yang biasa dilakukan yaitu menentukan nilai
pada
yang dipakai yaitu dari kisaran (-2,2) atau bahkan (-
1,1). Sehingga untuk setiap tingkatan nilai
yang telah ditetapkan akan diperoleh nilai
– nilai maksimum likelihoodnya yaitu nilai
. Penduga parameter
dikatakan
sebagai penduga apabila memiliki nilai maksimum log – likelihoodnya adalah maksimum terhadap yang diperoleh dari nilai
yang telah ditetapkan dari antara nilai - nilai
yang lainnya. Pada tabel 2.1 di bawah ini diberikan beberapa
dan model transformasinya.
Tabel 2.1 Nilai
Interval Lambda
dan Model Transformasinya
Lamda yang Terpilih
,
,
,
0,7
0,7
0,
0,
0,
0,
0
0,
0,7
0,5
0,7
,
1
,
,
2
Model Transformasi
Universitas Sumatera Utara
2.5.2
Selang Kepercayaan Parameter Pada Transformasi Box Cox
Pendugaan parameter sering dinyatakan dalam pembentukan selang kepercayaan, karena hampir tidak pernah ditemukan nilai statistik yang tepat sama dengan nilai parameternya. Menurut Hasan (2002), pendugaannya sering dinyatakan dalam suatu daerah atau interval yang dibatasi oleh dua nilai dan digunakan tingkat kepecayaan (confidence) terhadap daerah nilai sebenarnya atau parameternya berada, sehingga disebut interval kepercayaan atau selang kepercayaan.
Demikian halnya dalam pendugaan parameter dinyatakan juga dalam selang kepercayaan terhadap
pada Transformasi Box Cox , atas nilai – nilai
yang
memenuhi pertidaksamaan berikut: (2.34)
Dengan
adalah titik persentase sebaran khi-kuadrat dengan satu derajat
bebas yang luas wilayah di sebelah kanannya sebesar
. Sebagian nilai – nilai itu
adalah:
0,10
0,05
0,025
0,01
0,005
2,71
3,841
5,024
6,635
7,879
Untuk menggambarkan persaman (2.34) yaitu dengan menarik garis mendatar setinggi,
pada tebaran
dengan
pada setiap
perhitungan yang telah diperoleh. Sehingga garis yang terbentuk akan memotong kurva pada dua nilai parameter
, dan ini merupakan titik – titik ujung selang kepercayaan
yang terbentuk.
Universitas Sumatera Utara
2.6
Pengujian Hipotesis dalam Model Regresi Linier Sederhana
Model regresi yang baik diperoleh akan diperiksa setelah variabel respon Y ditransformasikan sesuai dengan model transformasi. Pemeriksaan ini ditempuh melalui pengujian hipotesis.
Jika pada percobaan akan dilakukan pengujian terhadap sebuah konstanta misalkan
yang sama dengan
, maka pada umumnya hipotesis tersebut dirumuskan
sebagai berikut:
Dan akan diduga alternatifnya dua arah, maka satistik uji yang digunakan pada pengujian hipotesis ini adalah: (
)
Kaidah pengambilan keputusan untuk pengujian hipotesis ini adalah sebagai berikut: ditolak jika
. Dalam hal lain terima
.
Dengan cara yang sama dapat juga digunakan untuk menguji intercept
, dan
hipotesisnya adalah sebagai berikut:
Statistik ujinya adalah: (
)
Kaidah pengambilan keputusan untuk pengujian hipotesis ini adalah sebagai berikut: ditolak jika Nilai
. Dalam hal lain terima
.
dapat diperoleh dari tabel t dengan menggunakan
dengan derajat
kebebasan (n-2).
Universitas Sumatera Utara
Dalam persamaan (2.35) dan (2.36) di atas
dapat dinyatakan dengan persamaan
berikut: ( Dengan
7
adalah koreksi atau perbaikan jumlah kuadrat X.
Pengujian hipotesis dalam model regresi tersebut dilakukan secara parsial yang bertujuan untuk menguji signifikansi pengaruh variabel bebas terhadap variabel respon. Sehingga, masalah khusus dari pengujian hipotesis dalam model regresi linier sederhana adalah:
Apabila hipotesis
ditolak, maka variabel bebas X berpengaruh terhadap variabel
respon Y. Dengan demikian, model analisis regresi signifikan dan layak digunakan untuk mengestimasi atau memprediksi nilai Y.
Universitas Sumatera Utara