BAB 2 LANDASAN TEORI
2.1 Deskripsi Teori 2.1.1
Pengertian Peramalan Menurut
Assauri
(1984,
p1)
peramalan
adalah
kegiatan
untuk
memperkirakan apa yang akan terjadi pada masa yang akan datang. Peramalan diperlukan karena adanya perbedaan waktu antara kesadaran akan dibutuhkannya suatu kebijakan baru dengan waktu pelaksanaan kebijakan tersebut. Jadi dalam menentukan kebijakan itu perlu diperhitungkan kesempatan atau peluang yang ada, sekaligus ancaman yang mungkin terjadi. Gambaran perkembangan pada masa depan diperoleh dari hasil analisis data yang didapat dari penelitian yang telah dilakukan Kegunaan peramalan terlihat pada saat pengambilan keputusan. Keputusan yang baik adalah keputusan yang didasarkan atas pertimbangan, apa yang akan terjadi pada waktu keputusan itu dilaksanakan. Apabila ramalan yang disusun atau dibuat kurang baik, maka makin kurang baik keputusan yang diambil. Ketepatan suatu ramalan merupakan hal yang sangat penting. Walaupun demikian perlu disadari bahwa suatu ramalan adalah suatu perkiraan (estimasi), yang selalu mengandung unsur kesalahannya. Hal penting yang harus diperhatikan adalah usaha untuk memperkecil kemungkinan kesalahan tersebut.
6
7 2.1.2
Jenis-Jenis Peramalan Menurut Assauri (1984, p3), pada umumnya, peramalan dapat dibedakan
dari beberapa segi tergantung dari cara melihatnya. Apabila dilihat dari sifat penyusunnya, maka peramalan dapat dibedakan atas dua macam, yaitu: a. Peramalan subjektif, yaitu peramalan yang didasarkan atas perasaan atau intuisi orang yang menyusunnya. Dalam hal ini pandangan atau judgement orang yang menyusunnya sangat menentukan baik-tidaknya hasil ramalan tersebut. b. Peramalan yang objektif, adalah peramalan yang didasarkan atas data yang relevan pada masa lalu, dengan menggunakan teknik-teknik dan metodemetode penganalisisan data tersebut. Di samping itu, jika dilihat dari jangka waktu ramalan yang disusun, maka peramalan dapat dibedakan atas dua macam, yaitu: a. Peramalan jangka panjang, yaitu peramalan yang dilakukan untuk penyusunan hasil ramalan yang jangka waktunya lebih dari satu setengah tahun atau tiga semester. b. Peramalan jangka pendek, yaitu peramalan yang dilakukan untuk penyusunan hasil ramalan dengan jangka waktu yang kurang dari satu setengah tahun atau tiga semester. Berdasarkan sifat ramalan yang telah disusun, maka peramalan dapat dibedakan atas dua macam, yaitu: a. Peramalan kualitatif, yaitu peramalan yang didasarkan atas data kualitatif masa lalu. Hasil peramalan yang dibuat sangat tergantung pada orang yang
8 menyusunnya. Hal ini penting karena hasil peramalan tersebut ditentukan berdasarkan pemikiran yang bersifat intuisi, judgement atau pendapat, dan pengetahuan serta pengalaman dari penyusunnya. b. Peramalan kuantitatif, yaitu peramalan yang didasarkan atas data kuantitatif pada masa lalu. Hasil peramalan yang dibuat sangat tergantung pada metode yang dipergunakan dalam peramalan tersebut. Metode yang baik adalah metode yang memberikan nilai-nilai penyimpangan yang sekecil mungkin. Peramalan kualitatif hanya dapat digunakan apabila terdapat tiga kondisi sebagai berikut: 1) Adanya informasi tentang keadaan yang lain 2) Informasi tersebut dapat dikuantifikasikan dalam bentuk data 3) Dapat diasumsikan bahwa pola yang lalu akan berkelanjutan pada masa yang akan datang.
2.1.3
Langkah-Langkah Peramalan Menurut Assauri (1984, p5) kualitas dan mutu dari hasil peramalan yang
disusun, sangat ditentukan oleh proses pelaksanaan penyusunannya. Pada dasarnya ada tiga langkah peramalan yang penting, yaitu: a. Menganalisis data yang lalu. Tahap ini berguna untuk mengetahui pola yang terjadi pada masa yang lalu. Analisis ini dilakukan dengan cara membuat tabulasi data yang lalu. Dengan tabulasi data, maka dapat diketahui pola data tersebut.
9 b. Menentukan metode yang digunakan. Tiap-tiap metode akan memberikan hasil peramalan yang berbeda. Metode yang baik adalah metode yang menghasilkan nilai peramalan yang mendekati kenyataan. c. Memroyeksi data historis dengan menggunakan metode yang dipergunakan, serta mempertimbangkan adanya beberapa faktor perubahan.
2.1.4
Pengertian Metode Peramalan Menurut
Assauri
(1984,
p7)
metode
peramalan
adalah
cara
memperkirakan secara kuantitatif apa yang akan terjadi pada masa depan, berdasarkan data yang relevan pada masa lalu. Oleh karena metode peramalan didasarkan pada data yang relevan pada masa lalu, maka metode peramalan ini dipergunakan dalam peramalan yang bersifat objektif. Sebagaimana diketahui, metode merupakan cara berfikir yang sistematis dan pragmatis atas pemecahan suatu masalah. Dengan dasar ini, maka metode peramalan merupakan cara memperkirakan apa yang akan terjadi pada masa depan secara sistematis dan pragmatis. Metode peramalan sangat berguna untuk memperkirakan secara sistematis dan pragmatis atas dasar data yang relevan pada masa lalu, sehingga metode peramalan diharapkan dapat memberikan objektivitas yang lebih besar. Metode peramalan kuantitatif dapat dibedakan atas 2 jenis, yaitu: a. Metode peramalan yang didasarkan atas penggunaan analisis pola hubungan antara variabel yang akan diperkirakan dengan variabel waktu, menurut deret waktu, yaitu:
10 1) Metode Smooting 2) Metode Box Jenkins. 3) Metode proyeksi trend dengan regresi. b. Metode peramalan yang didasarkan atas penggunaan analisis pola hubungan antara variabel yang akan diperkirakan dengan variabel lain yang mempengaruhinya, yang bukan waktu, yang disebut metode korelasi atau sebab-akibat, yaitu: 1) Metode regresi dan korelasi 2) Metode ekonometri 3) Metode Input-Output. Dalam penelitian ini, penulis melakukan peramalan dengan metode regresi dan korelasi, yaitu metode regresi stepwise untuk menentukan model terbaik terhadap biaya total pengiriman barang.
2.1.5
Model Transportasi Pada umumnya, masalah transportasi berhubungan dengan distribusi suatu produk tunggal dari beberapa sumber, dengan penawaran terbatas, menuju beberapa tujuan, dengan permintaan tertentu, pada biaya transpor minimum. Karena ada satu macam barang, suatu tempat tujuan dapat memenuhi permintaannya dari satu atau lebih sumber. Asumsi dasar model ini adalah bahwa biaya transpor pada suatu rute tertentu proporsional dengan banyaknya unit yang dikirimkan. Definisi ”unit yang dikirimkan” sangat tergantung pada jenis produk yang diangkut, yang
11 penting, satuan penawaran dan permintaan akan barang yang diangkut harus konsisten. Sebuah model transportasi dapat dibayangkan seperti contoh berikut. Misalnya, suatu produk yang dihasilkan pada tiga pabrik (sumber) harus didistribusikan ke tiga gudang (tujuan). Setiap pabrik memiliki kapasitas produksi tertentu, dan setiap gudang memiliki jumlah permintaan tertentu terhadap produk itu. Dengan diketahuinya biaya transpor per unit dari masing-masing pabrik ke masing-masing gudang, masalahnya adalah menentukan jumlah barang yang harus dikirim dari masing-masing pabrik ke masing-masing gudang, dengan tujuan meminimumkan biaya transpor. Persyaratan (kendala) masalah ini adalah bahwa permintaan pada setiap gudang harus dipenuhi tanpa melebihi kapasitas produksi pada setiap pabrik. Masalah itu diilustrasikan sebagai suatu model jaringan transportasi umum, seperti yang terlihat pada Gambar 2.1 (Mulyono, 2002, pp114-115). Sumber (Pabrik)
Tujuan (Gudang)
Cirebon
Semarang
Bandung
Jakarta
Cilacap
Purwokerto Gambar 2.1 Model Jaringan Transportasi Umum
12 Dalam perkembangannya, model transportasi telah diterapkan pada pelbagai macam organisasi bisnis. Pemecahan kasus-kasus dengan model transportasi telah mengakibatkan penghematan biaya yang luar biasa. Tujuan dari model transportasi adalah merencanakan pengiriman dari sumber-sumber ke tujuan sedemikian rupa untuk meminimumkan total biaya transportasi, dengan kendala-kendala (Aminudin, 2005, p64): a. Setiap permintaan tujuan terpenuhi b. Sumber tidak mungkin mengirim komoditas lebih besar dari kapasitasnya
2.1.6
Analisis Regresi Sederhana Persamaan matematika yang memungkinkan kita meramalkan variabelvariabel tak bebas dari nilai-nilai satu atau lebih variabel bebas disebut Persamaan Regresi (Hamang, 2005, p151). Tujuan utama analisis regresi adalah untuk mengestimasi / menduga nilai variabel random (variabel dependen / tak bebas) dengan syarat bahwa nilai variabel bebas (variabel independen) diketahui. Variabel dependen juga disebut sebagai variabel respons, sementara variabel independen juga sering disebut variabel prediktor. Persamaan regresi adalah rumus aljabar untuk mengetahui nilai taksiran variabel dependen (Kazmier, 2005, p109). Jenis data yang cocok untuk uji regresi linier, baik untuk variabel dependen maupun independen adalah data rasio. Namun dapat juga dalam data berbentuk kualitatif (kategori), tetapi harus dibantu dengan variabel boneka
13 (dummy). Persamaan regresi yang dihasilkan berupa taksiran (estimasi) dari hasil pengamatan. Oleh karena itu digunakan simbol Ŷ (Y dengan topi) yang menunjukkan hasil taksiran tersebut dan membedakannya dengan Y (Y tanpa topi) sebagai hasil pengamatan (Alhusin, 2001, p130). Adapun rumus Regresi Sederhana adalah: Yi = a + bXi
(1)
dimana: Y = variabel tak bebas (dependen) X = variabel bebas (independen) a = nilai konstanta b = koefisien regresi Harga a dapat dihitung dengan rumus:
a =
∑Yi (∑Xi2) − ∑Xi ∑Yi n∑Xi2 − (∑Xi)2
(2)
Harga b dapat dihitung dengan rumus:
b =
2.1.7
n∑XiYi − ∑Xi ∑XiYi n∑Xi2 − (∑Xi)2
(3)
Analisis Regresi Berganda Analisis regresi berganda adalah pengembangan analisis regresi sederhana terhadap aplikasi yang mencakup dua variabel independen (prediktor) atau lebih untuk menduga nilai variabel dependen (Kazmier, 2005, p118).
14 Secara umum, data hasil pengamatan Y bisa terjadi akibat variabel-variabel bebas X1, X2, ..., Xk. Akan ditentukan hubungan antara Y dan X1, X2, ..., Xk sehingga didapat regresi Y atas X1, X2, ..., Xk (Sudjana, 2005, p347). Adapun bentuk matematis analisis regresi linier berganda adalah: Y = β0 + β1X1 + β2X2 + ... + βkXk + ε
(4)
Dengan β0, β1, β2, …, βk merupakan koefisien-koefisien yang harus ditentukan berdasarkan data hasil pengamatan (koefisien regresi). Mudah dilihat bahwa regresi linier Ŷ = a + bX merupakan hal istimewa dari rumus (4) ini untuk β2 = β3 = … = βk = 0. Koefisien-koefisien β0, β1, β2, …, βk ditentukan dengan menggunakan metode kuadrat terkecil seperti halnya menentukan koefisien-koefisien a dan b untuk regresi linier Ŷ = a + bX. Oleh karena rumus (4) berisikan (k + 1) buah koefisien, maka β0, β1, β2, …, βk didapat dengan jalan menyelesaikan sistem persamaan yang terdiri atas (k + 1) buah persamaan. Bila pengamatan mengenai Y, X1, X2, …, Xk dinyatakan masing-masing dengan Yi, Xi1, Xi2, …, Xik dan galatnya εi, maka persamaan (4) dapat dituliskan sebagai Yi = β0 + β1Xi1 + β2Xi2 + ... + βkXik + εi,
i = 1, 2, ..., n
(5)
Dalam lambang matriks persamaan (5) menjadi Y1 Y2 Yn Misalkan
=
1 X11 X12 … X1k 1 X21 X22 … X2k … 1 Xn1 Xn2 … Xnk
β0 β1 β2 βk
+
ε1 ε2 εn
15
Y=
Y1 Y2
,
X=
Yn
β=
β0 β1 β2
,
dan ε =
βk
1 X11 X12 … X1k 1 X21 X22 … X2k … 1 Xn1 Xn2 … Xnk ε1 ε2 εn
Maka persamaan (5) dapat disederhanakan penulisannya menjadi Y=Xβ+ε
(6)
Jadi persamaan (6) merupakan bentuk umum persamaan regresi dalam lambang matriks. Dalam bentuk umum ini Y merupakan vektor respons n x 1, X menyatakan matriks variabel bebas ukuran n x (k + 1), β vektor parameter ukuran (k + 1) x 1 dan ε vektor galat ukuran n x 1. Ada sebanyak k + 1 parameter yang harus ditaksir dari data, termasuk β0. Misalkan penaksir dari β0, β1, β2, ..., βn dinyatakan dengan b0, b1, b2, ..., bn. Maka persamaan regresi linier ganda yang mengandung sejumlah k variabel bebas akan ditaksir dengan persamaan sebagai berikut Ŷ = b0 + b1X1 + b2X2 + ... + bkXk + ε
(7)
Bila vektor Ŷ menyatakan taksiran dari Y, dan b taksiran dari β maka matriks taksiran kuadrat terkecil dari persamaan (7) dapat ditulis sebagai berikut (Sembiring, 1995, pp112-114) Ŷ=Xb
(8)
Penaksir-penaksir kuadrat terkecil dari parameter-parameter yang tak diketahui diperoleh dengan meminimumkan jumlah kuadrat residu :
16 ∑εi2 = ∑(Yi – b0 – b1X1i – b2X2i – … − bkXki)2
(9)
terhadap bj [j = 1, 2, ..., (k+1)]. Kemudian turunan parsial ini disamakan dengan nol untuk mendapatkan persamaan-persamaan normal. ∂∑ εi2 ∂b0 ∂∑ εi2 ∂b1 …
= -2∑( Yi – b0 – b1X1i – b2X2i – … − bkXki ) = 0
= -2∑X1i( Yi – b0 – b1X1i – b2X2i – … − bkXki ) = 0 …
∂∑ εi2 ∂bk
…
…
…
…
…
...
= -2∑Xki( Yi – b0 – b1X1i – b2X2i – … − bkXki ) = 0
Bentuk umum dari persamaan-persamaan di atas (kecuali yang pertama) adalah sebagai berikut (Sumodiningrat, 2003, p184) ∂∑ εi2
= -2∑Xji( Yi – b0 – b1X1i – … − bkXki ) = 0 ∂bj (j=1,2,…,k)
(10)
Dengan demikian, persamaan-persamaan normalnya adalah sebagai berikut : ∑Yi = nb0 + b1∑X1i + b2∑X2i + ..... + bk∑Xki ∑X1iYi = b0∑X1i + b1∑X21i + b2∑X1iX2i + ..... + bk∑X1iXki ∑X2iYi = b0∑X2i + b1∑X1iX2i + b2∑X22i + ..... + bk∑X2iXki ...
...
...
...
...
...
...
...
...
∑XkiYi = b0∑Xki + b1∑X1iXki + b2∑X2iXki + ..... + bk∑X2ki
(11)
17 Bila syarat-syarat itu benar-benar dipenuhi maka persamaan-persamaan itu dapat diselesaikan, sehingga diperoleh hasil berupa penaksir-penaksir parameter koefisien regresi parsial (Soelistyo, 2001, p306). Jika ditulis dalam lambang matriks maka persamaan (11) bentuknya menjadi ( X’X) b = X’Y
(12)
bila
X’ =
1 1 … 1 X11 X12 … Xn1 X12 X22 … Xn2 … X1k X2k … Xnk
Y’ = (Y1, Y2, ... , Yn), dan b’ = (b0, b1, b2, ... , bk) Bila X’X tidak singulir, jadi ada balikannya (inversinya), maka persamaan normal (12) mempunyai jawab yang tunggal (Sembiring, 1995, p117) b = ( X’X )-1 X’Y
(13)
Dalam prakteknya, regresi berganda justru lebih banyak digunakan, selain karena banyaknya variabel yang perlu dianalisis bersama juga karena banyaknya kasus regresi berganda lebih relevan digunakan. Dalam kasus regresi berganda jumlah variabel independen berkisar antara dua sampai empat variabel, walaupun secara teoritis biasa digunakan banyak variabel bebas, namun penggunaan lebih dari tujuh variabel independen dianggap akan tidak efektif (Rosalina, 2005, p77).
18 2.1.8
Koefisien Korelasi Berganda Koefisien korelasi ganda menunjukkan tingginya derajat asosiasi antara variabel-variabel bebas yang dipakai dengan variabel terikat. Tetapi dalam analisis regresi, koefisien korelasi ganda atau pangkat duanya, koefisien determinasi, lebih banyak digunakan untuk menguji seberapa jauh garis regresi penaksir sesuai dengan pengamatan yang diperoleh. Koefisien determinasi ditulis sebagai R2Y.X1X2...Xk. Secara umum rumus koefisien determinasi dapat ditulis : 2
R
Y.X1X2...Xk
=
b1∑xi1yi + b2∑xi2yi + ..... + bk∑xikyi ∑yi2
(14)
dengan ∑ xiyi = ∑(Xi − X ) (Yi − Y ) ∑ yi2 = ∑ (Yi − Y )2 Jelaslah bahwa penambahan variabel-variabel bebas baru selalu akan menambah besarnya koefisien determinasi, walaupun hampir tidak pernah mencapai nilai satu. Tetapi rumus koefisien determinasi ini belum memperhitungkan besarnya derajat kebebasan yang hilang karena penambahan variabel-variabel bebas baru ke dalamnya. Untuk menyesuaikan besarnya koefisien determinasi dengan hilangnya derajat kebebasan, dipakailah rumus koefisien determinasi yang sudah disesuaikan (adjusted) Radj, sebagai berikut : Radj2 = 1 –
JKS / (n – p) JKT / (n – 1)
(15)
19 Atau 2
Radj = 1 –
n–1
( 1 – R2 )
n–p
(16)
Bila n besar dan p sedikit, maka nilai R2 dan Radj2 tidak akan berbeda banyak. Tetapi apabila n kecil sedang p banyak, perbedaan nilai antara R2 dan Radj2 dapat berbeda banyak Radj2, bahkan dapat < 0, dan harus ditafsirkan sebagai R2 = 0. Hal itu dapat terjadi apabila variabel-variabel X yang ditambahkan ternyata tidak mampu memberikan tambahan penjelasan pada variasi variabel Y, padahal semakin banyak variabel X ditambahkan semakin banyak pula derajat kebebasan yang hilang. Perhatikan pada rumus Radj2 di atas. Apabila tambahan variabel-variabel X tidak menambah penjelasan R2 adalah konstan, padahal p bertambah besar sehingga Radj2 pasti akan menurun. Dari rumus R2Y.X1X2...Xk di atas terlihat bahwa besarnya R2 itu akan bergantung pada kemampuan masing-masing variabel bebas menjelaskan variasi variabel terikat. Karena itu besarnya kemampuan masing-masing variabel bebas untuk menjelaskan variasi variabel terikat juga dapat dicari dengan jalan mencari koefisien korelasi antara sebuah variabel bebas, misalnya saja X1i, dengan variabel terikat Yi, dan membuat pengaruh variabel-variabel bebas yang lain tetap tidak berubah (konstan). Koefisien korelasi seperti itu disebut koefisien korelasi parsial. Rumus-rumus koefisien korelasi parsial untuk regresi dengan 3 variabel adalah sebagai berikut (Soelistyo, 2001, pp309-313):
20 •
Untuk korelasi antara X1i dan Yi, X2i dibuat konstan, yaitu ryx1i.x2i yang untuk selanjutnya ditulis r12.3 :
ryx1i.x2i =
r12 – r13r23 √ (1-r213) √ (1-r223)
(17)
(1 mengganti Y; 2 mengganti X1i; 3 mengganti X2i) •
Untuk korelasi antara X2i dan Yi, X1i dibuat konstan, yaitu r13.2 :
r13.2 =
•
r13 – r12r32 √ (1-r212) √ (1-r232)
(18)
Untuk korelasi antara X1i dan X2i, Yi dibuat konstan, yaitu r23.1 :
r23.1 =
r23 – r21r31 √ (1-r221) √ (1-r231)
(19)
Untuk dapat menghitung rumus itu perlu dicari dulu besarnya koefisien korelasi sederhana r12, r13, dan r23 dengan rumus korelasi sederhana sebagai berikut :
r xy =
∑ (Xi − X) (Yi − Y) i
⎡ 2⎤ ⎡ 2⎤ ⎢∑ (Xi − X) ⎥.⎢∑ (Yi − Y) ⎥ ⎣ i ⎦⎣ i ⎦
(20)
Dari rumus-rumus koefisien parsial itu dapat pula diperoleh rumus koefisien determinasi sebagai berikut : R21.23 =
r212 + r213 – r12 r13 r23 1 – r223
(21)
21 2.1.9
Analisis Regresi Dengan Variabel Boneka (Dummy) Pembahasan regresi tidak saja berlaku hanya untuk harga-harga variabel,
baik respon maupun prediktor, berbentuk kuantitatif tetapi juga untuk variabel prediktor berbentuk kualitatif, khususnya kategori. Dengan menggunakan variabel boneka terhadap kategori, bersama-sama dengan variabel respon berbentuk kuantitatif, regresi variabel respon atas prediktor dapat dibahas dengan cara yang sudah dijelaskan. Dibatasi pada variabel prediktor terdiri atas dua kategori (misalnya: laki-laki atau perempuan, setuju atau tidak setuju) diberikan variabel boneka 0 untuk satu kategori dan variabel boneka 1 untuk kategori lainnya. Penentuan dan pembahasan regresi, seperti telah dikatakan, dilakukan dengan menggunakan aturan-aturan dan rumus-rumus yang sudah diberikan. Variabel bebas X tidak saja hanya harus kuantitatif akan tetapi juga bisa berbentuk kualitatif, atribut, ataupun kategori dan regresinya dapat ditentukan dengan bantuan variabel boneka. Cara ini dapat digunakan untuk mencari regresi linier ganda apabila beberapa atau semua variabel bebasnya berupa kualitatif, atribut, atau kategori. Seperti biasa, variabel boneka yang dipakai adalah 1 untuk pengamatan yang masuk satu kategori dan 0 untuk pengamatan yang masuk kategori lain (Sudjana, 2003, p98).
2.1.10 Analisis Varians Dalam analisis regresi, deviasi-deviasi kuadrat dari rerata, telah diminimumkan dan hal itu telah dibuktikan bahwa :
22 _ ∑ (Yi – Y)2
_ = ∑ (Ŷi – Y)2
n
n
i
i
Total jumlah deviasi kuadrat
n
∑ (Yi – Ŷi)2 i
Jumlah deviasi kuadrat Jumlah kuadrat = dari garis regresi + dari faktor residu
∑yi2
Yaitu :
+
=
Variasi total
∑ŷi2
∑εi2
+
= Variasi yang dijelaskan
+ Variasi yang tak dijelaskan
Dengan kata lain, total variasi (total variations) dalam analisis regresi dipecah menjadi variasi yang bisa dijelaskan oleh variabel bebas (explained variations) dan variasi yang tidak bisa dijelaskan, diwakili variabel kesalahan, error term, (unexplained variations). Dalam prosedur analisis varian, total variasi dipecah menjadi variasi di antara (variation between) dan variasi di dalam (variation within). Ini berarti tipe tabel analisis varian untuk analisis regresi dapat disusun untuk uji signifikansi
menyeluruh
(overall
significance)
dari
hasil-hasil
regresi
(Sumodiningrat, 2003, pp220-221).
Tabel 2.1 Analisis Varians
Sumber variasi
Jumlah kuadrat (JK)
Derajat bebas (dk)
Rerata jumlah kuadrat (RK)
Dijelaskan (JKR)
∑ŷi2
p–1
∑ŷi2 / (p – 1)
Residu (JKS)
∑εi2
n–p
∑εi2 / (n – p)
Total (JKT)
∑yi2
n–1
∑yi2 / (n – 1)
23 Tabel 2.1 ini adalah bentuk baku (standar) dari Tabel ANOVA (Analysis of Variance), yaitu dengan menyusun berbagai jumlah kuadrat disertai derajat bebas masing-masing. Dari hasil-hasil Tabel 2.1 diperoleh statistik F : RK dari JKR F =
= RK dari JKS
∑ŷi2 / (p – 1) ∑εi2 / (n – p)
(22)
Analisis varians dapat digunakan untuk menguji perbedaan di antara sejumlah mean populasi. Hipotesis nolnya adalah bahwa sejumlah mean populasi tersebut sama. Prosedur sampling yang digunakan adalah dengan mengumpulkan beberapa sampel random yang independen, satu untuk setiap kategori data (tingkat perlakuan). Asumsi yang mendasari penggunaan analisis varians adalah bahwa beberapa mean sampel diperoleh dari populasi dengan distribusi normal yang mempunyai varians s2 yang sama. Namun, prosedur tes menemukan bahwa pelanggaran asumsi normalitas ini tidak begitu berpengaruh jika populasinya unimodal dan ukuran sampelnya kira-kira sama. Karena hipotesis nol menyatakan bahwa mean populasi sama, asumsi varians yang sama (homogenitas varians) juga mengimplikasikan untuk tujuan praktis bahwa uji tersebut berhubungan dengan hipotesis bahwa mean berasal dari populasi yang sama. Hal ini disebabkan populasi manapun yang terdistribusi secara normal diukur menurut mean varians (atau deviasi standar)-nya sebagai dua parameter. Semua prosedur perhitungan yang dibahas dalam bab ini adalah untuk model efek tetap dan bukan model efek random (Kazmier, 2005, pp99-100).
24 2.2 Metode Pemilihan Terbaik 2.2.1 Metode Seleksi Maju (Forward) Menurut metode ini variabel bebas dimasukan satu demi satu menurut urutan besar pengaruhnya terhadap model dan berhenti bila semua yang memenuhi syarat telah masuk. Dimulai dengan memeriksa matriks korelasi dan kemudian mengambil variabel bebas yang menghasilkan r2xiy maksimum, i = 1, 2, ..., k. Perhatikan bahwa apakah korelasi positif atau negatif tidak dipersoalkan karena yang kita perhatikan hanyalah eratnya hubungan antara suatu variabel bebas dengan Y sedangkan arah hubungan tidak menjadi soal. (Tentunya dapat juga dipandang | rxiy | dan hasilnya tidak akan berbeda). Misalkan X1 yang memberikan korelasi yang tertinggi dengan Y. Masukkan X1 ke dalam model, dengan kata lain, hitung Ŷ = b0 + b1X1 dan uji apakah β1 = 0 dengan menggunakan patokan yang telah ditetapkan sebelumnya. Bila hipotesis β1 = 0 tidak ditolak maka selesai sudah pekerjaan, semua yang tersedia sama sekali tidak berguna untuk menerangkan variasi dalam Y. Misalkanlah hipotesis β1 = 0 ditolak, jadi X1 mempunyai pengaruh yang berarti terhadap Y. Tahap berikutnya adalah memilih dari variabel bebas yang tertinggal yang paling besar pengaruhnya terhadap Y sesudah pengaruh X1 diperhitungkan atau dikontrol. Ini dapat dikerjakan dengan memeriksa r2yxi.x1, untuk i ≠ 1, yaitu kuadrat korelasi parsial Y dengan Xi dikontrol terhadap X1 dan kemudian ambil Xi yang memberikan korelasi parsial yang maksimum. Misalkan variabel tersebut X2, lalu masukkan X2 ke dalam model sehingga diperoleh Ŷ = b0 + b1X1 + b2X2. Pengaruh X2 kemudian diuji apakah berarti atau tidak. Tahap
25 kedua ini, pada prakteknya, sama saja dengan memeriksa tambahan jumlah kuadrat regresi yang diakibatkan oleh pemasukan suatu peubah bebas setelah X1 berada dalam model. Untuk pemisalan di atas, ini berarti bahwa X2 memberikan
F=
JKR (X2 | X1) JKS (X1 , X2)
(23)
yang paling besar. Bila nilai F ini lebih kecil dari yang ditetapkan untuk pemasukan variabel bebas ke dalam model maka X2 tidak jadi masuk. Sebaliknya, yaitu bila hipotesis β2 = 0 ditolak, maka pemilihan calon berikutnya untuk dimasukkan ke dalam model dilanjutkan, seperti proses pada tahap 2. Sekarang yang diperiksa ialah korelasi parsial r2yxi.x1x2 , i ≠ 1, 2, atau periksa tambahan jumlah kuadrat regresi akibat setiap variabel bebas setelah X1 dan X2 berada dalam model. Uji dengan uji-F apakah tambahan tersebut cukup berarti atau tidak, dst. Seleksi maju ini merupakan metode yang paling sederhana dan sewaktu komputer belum banyak berperan merupakan metode yang amat populer. Salah satu keuntungannya ialah kita dapat melihat proses pembentukan model itu tahap demi tahap dimulai dari yang pertama sekali (Sembiring, 1995, p190).
2.2.2 Metode Penyisihan (Backward) Berlawanan dengan metode seleksi maju, pada metode penyisihan (eliminasi mundur) kita mulai dengan memasukkan seluruh variabel bebas ke dalam model kemudian sisihkan satu demi satu sampai semua yang tidak memenuhi patokan keluar dari model.
26 Pada tahap pertama semua variabel bebas dimasukkan ke dalam model. Uji seluruh koefisien regresi HN : β1 = β2 = ... = βk = 0. Bila hipotesis tidak ditolak, berarti semua variabel bebas tidak berpengaruh terhadap respons, pekerjaan selesai. Misalkan hipotesis tadi ditolak. Seperti pada seleksi maju, di sini juga digunakan uji-F, hanya saja namanya sekarang disebut F keluar. Pada tahap kedua, pandang tiap variabel bebas seolah-olah sebagai yang paling akhir masuk ke dalam model; ambil yang paling kecil pengaruhnya (paling kecil tambahan R2 atau korelasi parsialnya paling kecil). Uji apakah pengaruh variabel tersebut berarti atau tidak. Jika berarti, pekerjaan selesai, semua variabel bebas berada dalam model. Bila tidak berarti maka keluarkan variabel tersebut. Tahap ketiga dan selanjutnya mengulangi proses pada tahap kedua. Pandang lagi dari setiap variabel yang tinggal seolah-olah yang terakhir masuk ke dalam model. Ambil lagi yang terkecil pengaruhnya, uji seperti sediakala. Jika berarti, selesai pekerjaan, dan bila tidak berarti keluarkan variabel tersebut, dst. Kelebihan metode ini dengan yang sebelumnya ialah bahwa kita berkesempatan melihat seluruh variabel bebas dalam model secara lengkap (Sembiring, 1995, pp195-196).
2.2.3 Metode Bertahap (Stepwise) Metode ini merupakan gabungan dari metode seleksi maju (forward) dan metode penyisihan (backward) yang diterapkan secara bergantian. Pada tahap pertama, gunakan seleksi maju dan misalkan variabel bebas yang pertama
27 masuk ke dalam model adalah X1 (misalkan β1 ≠ 0), diikuti kemudian oleh X2, misalkan setelah diuji, β2 ≠ 0 setelah X1 masuk terlebih dahulu. Pada tahap ini dengan menggunakan metode penyisihan, ingin dipertanyakan apakah kalau tadinya X2 masuk terlebih dahulu pengaruh X1 masih berarti. Jadi pada metode ini, pada tiap tahap, selalu dipertanyakan apakah suatu variabel yang telah masuk ke dalam model masih perlu dipertahankan atau sebaiknya ke luar. Jika sekiranya pengaruh X1, setelah X2 masuk, tidak berarti maka X1 dikeluarkan oleh model, dan bila sebaliknya maka X1 boleh tinggal dalam model sampai pengujian tahap berikutnya. Tahap
selanjutnya,
menyeleksi
variabel
berikutnya
yang
akan
dimasukkan ke dalam model; misalkanlah X3 dan misalkan pula pengaruhnya berarti. Kembali gunakan metode penyisihan untuk menguji apakah X1 dan X2 masih tetap tinggal atau harus ke luar dari model Begitu selanjutnya secara bergantian kedua metode digunakan sampai selesai (Sembiring, 1995, pp196197).
2.3 Kriteria Statistik 2.3.1 Best Linear Unbiased Estimator (BLUE) Untuk memperoleh model regresi yang terbaik, dalam arti secara statistik adalah BLUE (Best Linear Unbiased Estimator), maka model regresi yang diajukan harus memenuhi kriteria sebagai berikut (Sulaiman, 2004, pp8687):
28 a. Uji R2 (Koefisien Determinasi) Nilai R2 mempunyai interval antara 0 sampai 1 (0 ≤ R2 ≤ 1). Semakin besar R2 (mendekati 1), semakin baik hasil untuk model regresi tersebut dan semakin mendekati 0, maka variabel independen secara keseluruhan tidak dapat menjelaskan variabel dependen. Untuk memperoleh R2 dipakai rumus berikut:
R2 =
∑(Ŷ−
)2 =
∑(Y−
Jumlah kuadrat regresi
)2
Jumlah kuadrat total
(24)
dengan: Y = nilai pengamatan Ŷ = nilai Y yang ditaksir dengan model regresi = nilai rata-rata pengamatan b. Uji F Uji F dilakukan untuk melihat pengaruh variabel-variabel independen secara keseluruhan terhadap variabel dependen. Pengujian ini dilakukan dengan membandingkan nilai Fhitung dengan nilai Ftabel. Untuk memperoleh nilai F hitung dipakai rumus berikut: ∑(ŶFhitung =
)2 / ( p -1 )
∑ ( Y - Ŷ )2 / ( n – p )
=
Rata-rata kuadrat regresi Rata-rata kuadrat residual
dengan: Y = nilai pengamatan Ŷ = nilai Y yang ditaksir dengan model regresi
(25)
29 = nilai rata-rata pengamatan n = jumlah pengamatan/sampel p = jumlah parameter dalam model c. Uji t Nilai b yang diperoleh dalam regresi linier merupakan hasil yang diperoleh dari suatu prosedur sampling. Oleh karena itu nilai b bukanlah merupakan parameter yang riil (β), tetapi merupakan parameter yang diestimasi. Oleh karena itu perlu diuji apakah nilai b tersebut mendekati nilai parameter β sehingga dapat dianggap sama. Uji t didasarkan atas nilai “student-t distribution”, yang menunjukkan seluruh nilai-nilai yang mungkin, jika b diambil sebagai hasil dari sampling. Varians dari b menggambarkan besarnya dispersi dari nilai sebenarnya secara teoritis. Hasil bagi dari akar varians dengan “degrees of freedom” (dalam regresi linier berganda adalah n – p), disebut standart error of estimate. Standard error ini menunjukkan suatu distribusi sampling. Untuk uji ini perlu dicari standard error dari koefisien b. Standard error dari koefisien b diperoleh menggunakan rumus: sb =
su =
su
∑ (X
i
−X
i
ˆ −Y
∑ (Y
n−2
)
2
)
(26)
2
=
∑ε
2 i
n−2
dimana s u : standard deviasi dari regresi (standart error of estimate)
(27)
30 s b : standard error dari koefisien b Setelah didapat nilai standard error koefisien b, dihitung nilai uji t untuk tiap koefisien. Untuk memperoleh nilai t hitung dipakai rumus berikut:
t hitung =
bi – ( βi ) se ( bi )
(28)
dengan: bi = koefisien variabel ke-i βi = parameter ke-i yang dihipotesiskan se (bi) = simpangan baku dari bi Setelah diperoleh nilai t hitung, maka dilakukan pembandingan antara nilai t
hitung
yang didapat dengan nilai t
tabel
pada “tabel nilai kritik sebaran t”
dengan tingkat keyakinan atau tingkat kepercayaan tertentu (umumnya 90%, 95%, dan 99%). Bila nilai t
hitung
lebih besar dari nilai t
tabel,
maka
dapat disimpulkan bahwa nilai koefisien regresi b secara statistik adalah berbeda nyata (significant) dari 0 (nol). Sebaliknya bila nilai t hitung lebih kecil dari nilai t
tabel,
maka dapat disimpulkan bahwa nilai koefisien
regresi b secara statistik tidak menunjukkan perbedaan nyata (significant) dari 0 (nol).
2.3.2 Pengujian Model Setelah model diperoleh, maka harus menguji model tersebut sudah termasuk BLUE (Best Linear Unbiased Estimator) atau tidak. Suatu model
31 dikatakan BLUE bila memenuhi persyaratan sebagai berikut (Sulaiman, 2004, pp87-89) : a. Linieritas Untuk menguji linieritas hubungan dua variabel maka harus membuat diagram pencar (scatter plot) antara dua variabel tersebut. Dari sini bisa terlihat apakah titik-titik data membentuk pola linier atau tidak. b. Homoskedasitas dan Heteroskedasitas Keadaan heteroskedasitas adalah lawan dari homoskedasitas (kesamaan varians). Dalam uji heteroskedasitas, pengujian yang dilakukan adalah dengan uji Park. Park menyarankan penggunaan ei2 sebagai pendekatan σi2 dan melakukan regresi sebagai berikut: Ln ei2 = ln σ2 + β ln Xi + vi = α + β ln Xi + vi
(29)
dengan: vi = unsur gangguan (disturbance) yang stokastik Jika β ternyata signifikan secara statistik, maka dikatakan bahwa dalam data tersebut terjadi heteroskedasitas; dan apabila tidak signifikan, maka dikatakan data tersebut terjadi homoskedasitas. c. Nonautokorelasi dan autokorelasi Untuk mendeteksi ada atau tidaknya autokorelasi maka dilakukan pengujian Durbin-Watson (DW) yang dihitung berdasarkan jumlah selisih kuadrat nilainilai taksiran faktor-faktor gangguan yang berurutan dengan ketentuan sebagai berikut:
32 1) 1,65 < DW < 2,35
tidak ada autokorelasi
2) 1,21 < DW < 1,65 atau 2,35 < DW < 2,79 3) DW < 1,21 atau DW > 2,79
tidak dapat disimpulkan
terjadi autokorelasi
d. Nonmultikolinieritas dan multikolinieritas Multikolinieritas berarti ada hubungan linier yang “sempurna” (pasti) di antara beberapa atau semua variabel independen dari model regresi. Adapun cara pendeteksiannya adalah jika multikolinieritas tinggi, seseorang mungkin memperoleh R2 yang tinggi tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang signifikan / penting secara statistik. e. Normalitas Salah satu cara mengecek normalitas adalah dengan plot Probabilitas Normal. Melalui plot ini, masing-masing nilai pengamatan dipasangkan dengan nilai harapan dari distribusi normal, dan apabila titik-titik (data) terkumpul di sekitar garis lurus.
2.4 Rekayasa Perangkat Lunak 2.4.1 Pengertian Perangkat Lunak Menurut Pressman (1992, p45), pengertian perangkat lunak adalah: a. Instruksi pada komputer yang bila dijalankan akan memberikan fungsi dan hasil yang diinginkan. b. Dokumen yang menjelaskan operasi dan penggunaan program. c. Struktur data yang menjadikan program dapat memanipulasi suatu informasi.
33 Dengan demikian, dapat disimpulkan bahwa rekayasa perangkat lunak adalah instruksi, dokumentasi, dan struktur data yang menyediakan metode logika dan prosedur yang diinginkan.
2.4.2 Model Waterfall Model Waterfall merupakan model proses yang digunakan penulis dalam
penelitian.
Model
ini
merupakan
sebuah
pendekatan
kepada
perkembangan perangkat lunak yang sistematik dan sekuensial yang mulai pada tingkat dan kemajuan sistem pada seluruh analisis, desain, kode, pengujian, dan pemeliharaan. Urutan kerjanya disajikan dalam gambar di bawah ini: ANALISIS DESAIN CODING DAN DEVELOPMENT IMPLEMENTASI / TESTING MAINTENANCE
Gambar 2.2 Model Waterfall
Penjelasan tahapan dalam model Waterfall adalah sebagai berikut:
34 a. Analisis Kebutuhan Proses pengumpulan kebutuhan diintensifkan dan difokuskan, khususnya pada perangkat lunak. Tujuan tahap ini adalah untuk mengetahui kebutuhan piranti lunak, sumber informasi piranti lunak, fungsi-fungsi yang dibutuhkan, kemampuan piranti lunak dan antarmuka piranti lunak tersebut. b. Desain Proses desain merupakan representasi kebutuhan ke bentuk perangkat lunak yang dapat dinilai kualitasnya sebelum dilakukan pengkodean. Tahap ini meliputi perancangan struktur data, perancangan arsitektur piranti lunak, perancangan rincian prosedur dan perancangan user interface. c. Pengkodean Desain harus dapat diterjemahkan ke dalam bentuk bahasa pemrograman yang bisa dibaca. d. Implementasi dan Pengujian Setelah program aplikasi selesai dikode, program akan diujicobakan dan juga dilakukan pengujian. Pengujian dilakukan secara menyeluruh hingga semua perintah dan fungsi telah diuji sampai output yang dihasilkan oleh program sesuai dengan yang diharapkan. e. Pemeliharaan Pemeliharaan perangkat lunak dilakukan karena sering terjadinya perubahan atau peningkatan fungsi piranti lunak. Hal ini sesuai
35 permintaan pemakai, maka pirati lunak yang telah selesai dibuat perlu dipelihara agar dapat mengantisipasi permintaan pemakai terhadap fungsi-fungsi baru. Bila terjadi perubahan berarti membalikan tahapan ke tahapan yang lebih awal.
2.5 Interaksi Manusia dan Komputer Saat ini sistem atau program yang interaktif lebih populer dan digemari, karena itu penggunaan komputer telah berkembang pesat sebagai suatu program yang interaktif yang membuat orang tertarik untuk menggunakannya. Program yang interaktif ini perlu dirancang dengan baik sehingga pengguna dapat merasa senang dan juga dapat ikut berinteraksi dengan baik dalam menggunakannya. Suatu program yang interaktif dan baik harus bersifat user friendly. Shneiderman (1998, p15) menjelaskan lima kriteria yang harus dipenuhi oleh suatu program yang user friendly, yaitu: a. Waktu belajar yang tidak lama. b. Kecepatan penyajian informasi yang tepat. c. Tingkat kesalahan pemakaian rendah. d. Penghafalan sesudah melampaui jangka waktu. e. Kepuasan pribadi. Suatu program yang interaktif dapat dengan mudah dibuat dan dirancang dengan suatu perangkat bantu pengembang sistem antarmuka seperti Visual Basic, Borland Delphi, dan sebagainya. Menurut Sentosa (1997, p7), keuntungan penggunaan perangkat bantu untuk mengembangkan antarmuka adalah:
36 a. Antarmuka yang dihasilkan menjadi lebih baik. b. Program antarmukanya menjadi mudah ditulis dan lebih ekonomis untuk dipelihara.
2.6 Penelitian yang Relevan Penelitian yang relevan yang sudah ada antara lain: a. Judul : Perancangan program aplikasi peramalan biaya pemasaran dengan model regresi Ridge (Studi Kasus: PD. Daichi Mas). Nama : Chandra Suyanto (0400537730) Tahun : 2005 Pada penelitian ini, program lebih ditujukan untuk mengestimasi persamaan yang tepat untuk memrediksi seberapa besar biaya pemasaran produk. Hasil yang diperoleh dari perancangan ini adalah prediksi biaya pemasaran produk dengan model regresi Ridge. Sedangkan untuk penelitian kali ini, penulis akan merancang program aplikasi penentuan model regresi terbaik terhadap biaya pengiriman barang dengan metode stepwise. b. Judul : Perancangan Program Aplikasi Penentuan Harga Tiket Pesawat Berdasarkan Jarak Pesan dan Keramaian Menggunakan Metode Regresi Linier Berganda. Nama : Edo Ragadna P. Saragih (0400536665) Tahun : 2006 Pada penelitian ini, program lebih ditujukan untuk mengestimasi persamaan yang tepat untuk menetapkan harga tiket pesawat yang optimal
37 dengan metode regresi linier berganda menggunakan satu variabel kuantitatif dan satu variabel kualitatif dengan dua kategori. Sedangkan untuk penelitian kali ini, penulis akan merancang program aplikasi penentuan model regresi terbaik terhadap biaya pengiriman barang dengan metode stepwise menggunakan tujuh variabel bebas yang diantaranya ada satu variabel kualitatif.
2.7 Hipotesis Penelitian Menurut Wahid Sulaiman (2004, p81), untuk menguji ada tidaknya hubungan linier antara variabel independen terhadap variabel dependen, perlu dirumuskan terlebih dahulu. Sebab hal ini merupakan bagian terpenting dalam analisis regresi. Adapun hipotesisnya sebagai berikut: H0 : bi = 0 (tidak ada hubungan linier antara variabel independen dan variabel dependen). a. H1 : bi ≠ 0 (ada hubungan linier antara variabel independen dan variabel dependen). b. H1 : bi > 0 (ada hubungan linier antara variabel independen dan variabel dependen secara positif). c. H1 : bi < 0 (ada hubungan linier antara variabel independen dan variabel dependen secara negatif). Uji ini dikaitkan dengan uji nyata dari garis regresi yang diperoleh dari prediksi nilai pengamatan variabel dependen. Selain uji tersebut, masih perlu menguji nilai koefisien dari nilai b hasil prediksi nilai β yang diperoleh dari sampel.
38 Adapun hipotesisnya adalah: H0 : b = β (koefisien regresi tidak signifikan) H1 : b ≠ β (koefisien regresi signifikan)