BAB
V
UJI
ASUMSI KLASIK
1.
Rangkuman BAB V
dalam kedua regresi linier perlu memenuhi
asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut.
Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa
formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Jika hasil
regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh
akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
, Gujarati (1995) merinci 10 asumsi yang
menjadi syarat penerapan OLS,18 yaitu:
Asumsi 1: Linear
regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol
(zero mean of disturbance)
Asumsi 4: Homoskedastisitas, atau variabel
pengganggu e memiliki variance yang
sama sepanjang observasi dari berbagai nilai X.
Asumsi 5: Tidak ada otokorelasi antara variabel
e pada setiap nilai xi dan ji (No
autocorrelation between the
disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.
Asumsi 7: Jumlah observasi atau besar sampel
(n) harus lebih besar dari jumlah parameter yang diestimasi.
Asumsi 9: Model regresi secara benar telah
terspesifikasi.
Asumsi 10. Tidak ada multikolinearitas antara
variabel penjelas.
A. Uji Autokorelasi
A.1. Pengertian autokorelasi
Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada
periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang
diteliti, baik itu data jenis runtut waktu (time
series) ataupun data kerat silang (cross
section) Asumsi terbebasnya
autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan
variannya konstan.
autokorelasi akan muncul apabila ada
ketergantungan atau adanya kesalahan pengganggu yang secara otomatis
mempengaruhi data berikutnya. Jika terdapat ketergantungan, dalam bahasa
matematisnya dituliskan sebagai berikut:
E(ui,
uj) ≠ 0; i ≠ j
Sebaliknya, jika tidak terdapat
ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis
mempengaruhi data berikutnya maka masalah autokorelasi tidak akan muncul. Hal
seperti itu dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui,
uj) = 0; i ≠ j
A.2. Sebab-sebab Autokorelasi
·
Kesalahan
dalam pembentukan model
·
Tidak
memasukkan variabel yang penting
·
Manipulasi
data
·
Menggunakan
data yang tidak empiris
A.3.
Akibat Autokorelasi
Meskipun ada autokorelasi, nilai parameter
estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam
memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard
error (Sb1, Sb 2) akan bias. Akibatnya adalah nilai t hitung akan menjadi
bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).
Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
A.4. Pengujian Autokorelasi
Terdapat beberapa cara untuk mendeteksi ada
tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Formula yang digunakan untuk mendeteksi
terkenal pula dengan sebutan Durbin-Watson d statistic
2.
Menggunakan
metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan
variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model.
Variabel tambahan tersebut adalah data Lag dari variabel dependen.
B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk
menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.
Beberapa cara dapat dilakukan untuk melakukan
uji normalitas, antara lain:
1) Menggunakan metode numerik yang membandingkan
nilai statistik, yaitu antara nilai median
dengan nilai mean.
2)
Menggunakan
formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
3)
Mengamati sebaran data, dengan melakukan
hitungan-hitungan berapa prosentase data observasi dan berada di area mana.
C. Uji Heteroskedastisitas
C.1. Pengertian Heteroskedastisitas
adalah residual harus homoskedastis, artinya, variance residual harus memiliki
variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama.
Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas.
C.2. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu
asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta
random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198).
C.3. Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s
Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji,
2004: 18) Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan
dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya. Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan
dengan cara melakukan regresi atas residual .
D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana
terjadi korelasi linear yang ”perfect”
atau eksak di antara variabel penjelas yang dimasukkan ke dalam model Tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
D.2. Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan
penting yang harus dilakukan dalam suatu penelitian, karena apabila belum
terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya,
sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
D.3. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji
multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan
regresi partial dengan teknik auxilary regression, atau dapat pula
dilakukan dengan mengamati nilai variance
inflation factor (VIF). Cara
mendeteksi ada tidaknya multikolinieritas
dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara
untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation.
Selain itu metode ini lebih mudah dan lebih
sederhana tetapi tetap memenuhi syarat untuk dilakukan.
2.maksud dari rangkuman.
Uji asumsi klasik digunakan untuk memenuhi asumsi formula atau
rumus regresiyang diturunkan dari suatu asumsi tertentu. Regresi yang memenuhi
asumsi-asumsi regresi akan bersifat BLUE yaitu singkatan dari Blue,
Linear, Unbiased, dan
Estimator. Untuk menghasilkan hasil regresi yang BLUE (Best, Linear,Unbiased,
Estimator) maka perlu adanya pengujian yang diperlukan, yaitu denganuji
autokorelasi, uji normalitas, uji heteroskedasitas dan uji multikolinearitas
3.
a) Asumsi klasik adalah
suatu syarat yang harus ada atau dipenuhi dalam regresilinear sederhana
atau regresi linear berganda dengan menghasilkan nilai parameteryang memenuhi
asumsi tidak ada autokorelasi, tidak ada multikolinearitas, dantidak ada heteroskedasitas
sehingga menghasilkan hasil regresi yang BLUE (best,linear, unbiased,
estimator).
b) Asumsi 1: Linear regression
Model. Model regresi merupakan hubungan linear dalam parameter.
Asumsi 2: Nilai X adalah
tetap dalam sampling yang diulang-ulang (X
fixed in repeated sampling).
Asumsi 3: Variabel
pengganggu e memiliki rata-rata nol (zero
mean of disturbance).
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi
dari berbagai nilai X.
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai
xi dan ji (No autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance
e tidak berkorelasi.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar
dari jumlah parameter yang diestimasi.
Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
Asumsi 9: Model regresi secara benar telah
terspesifikasi.
Asumsi 10. Tidak ada multikolinearitas antara
variabel penjelas.
c) Karena asumsi-asumsi tersebut telah memenuhi
asumsi regresi dan nilai yangdiperoleh telah bersifat BLUE (Best, Linear,
Unbiased, Estimator).
d) Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada
periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data
yang diteliti, baik itu data jenis runtut waktu(time series) atau data kerat
silang (cross section). Masalah autokorelasi lebihsering muncul pada data time
series, karena sifatnya lekat dengan kontinyuitas danadanya sifat
ketergantungan antar data, sedangkan pada cross section hal itu
kecilkemungkinan terjadi.
e) 1. Kesalahan dalam pembentukan model, artinya
model yang digunakan untukmenganalisis regresi tidak didukung oleh
teori-teori yang relevan dan mendukung.2.Tidak memasukkan variabel yang
penting. Variabel penting yang dimaksudadalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y.3.Manipulasi data.4. Menggunakan data yang tidak
empiris.
SUPAWI PAWENANG,MODUK EKONOMETRIKA,UNIBA:2017
f) Cara menguji autokorelasi yaitu dengan cara :1)
Uji Durbin-Watson (DW Test). Dengan langkah-langkahnya
menentukanhipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua
ujungnyatidak ada serial autokorelasi baik positif maupun negatif.2)
Menggunakan metode LaGrange Multiplier (LM). LM sendiri merupakanteknik
regresi yang memasukkan variabel lag, sehingga terdapat variabeltambahan yang
dimasukkan dalam model. Variabel tambahan tersebut adalah dataLag dari variabel
dependen.
g) Nilai parameter
estimator (b1, b2,.....¸bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Nilai
variance tidak minimumdan standard error akan bias. Akibatnya adalah nilai t
hitung akan menjadi bias,karena nilai t diperoleh dari hasil bagi Sb
terhadap b (t = b/sb).
h) Heteroskedastisitas adalah residual yang
harus homoskedastis, artinya variance residual harus memiliki variabel yang
konstan atau dengan kata lain rentangan e kurang lebih sama.
Karena jika variancenya tidak sama, model akan menghadapimasalah
heteroskedastisitas.
i) Heteroskedastisitas muncul apabila kesalahan
atau residual dari model yangdiamati tidak memiliki varians yang konstan dari
satu observasi ke observasilainnya (Kuncoro, 2001:112). Masalah
heteroskedastisitas lebih sering munculdalam data cross section dari pada
data time series (Kuncoro, 2001:112; Setiaji,2004:17 ).
j) Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran
antara nilai prediksi variabel terikat dengan residualnya,yang output pendeteksiannya akan tertera berupa
sebaran data pada scatter plot. Pengujian heteroskedastisitas
menggunakan uji Arch dilakukan dengan caramelakukan regresi atas residual,
dengan model yang dapat dituliskan e2= a + bŶ2 + u.
k) Munculnya masalah heteroskedastisitas yang
mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai
F yang menjadi tidak dapat ditentukan.Karena nilai t dihasilkan dari hasil bagi
antara b dengan Sb.
l) Multikolinieritas adalah
suatu keadaan dimana terjadi korelasi linear yang “perfect ” atau eskak diantara variabel penjelas yang dimasukkan
ke dalam model.Tingkat kekuatan hubungan antar variabel penjelas dapat
ditrikotomikan lemah,tidak berkolinear, dan sempurna.
m) Multikolinieritas timbul karena nilai
koefisien regresi (b) masing-masingvariabel bebas dan standar error nya (Sb)
cenderung bias dalam arti tidak dapatditentukan kepastian nilainya
n) Cara mendeteksi ada
tidaknya multikolinieritas dengan menghitung nilaikorelasi antar
variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan
skala ordinal (Kuncoro, 2001: 114). Sementarauntuk data interval atau
nominal dapat dilakukan dengan Pearson Correlation
o) Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukandalam
suatu penelitian, karena apabila belum terbebas dari masalahmultikolinearitas
akan menyebabkan nilai koefisien regresi (b) masing-masingvariabel bebas dan
nilai standar error-nya (Sb) cenderung
bias, dalam arti tidakdapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadapnilai t (Setiaji, 2004: 26).
p) Normalitas adalah untuk menguji
aspek variabel pengganggu (e) memilikidistribusi normal atau tidak yang
dapat dilakukan sebelum atau setelah tahapananalisis regresi.
q) Normalitas timbul karena mempunyai dua
kemungkinan, yaitu apakah variabel pengganggu pada data berdistribusi
normal atau tidak normal.
r) Beberapa cara dapat
dilakukan untuk melakukan uji normalitas antara lain :
1. Menggunakan metode numerik yang membandingkan
nilai statistik, yaituantara nilai median dengan nilai mean. Data
dikatakan normal jika perbandingananatara mean dan median
menghasilkan nilai yang kurang lebih sama.
2. Menggunakan formula Jarque Bera (JB test).
3. Mengamati sebaran
data, dengan melakukan hitungan-hitungan berapa prosentase data
observasi dan berada di area mana. Untuk menentukan posisi normaldari sebaran
data, langkah awal yag dilakukan adalah menghitung standar deviasi.
s) Konsekuensi
normalitas dalam model berdampak pada nilai t dan
F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
t) Apabila data tidak
normal, maka diperlukan upaya untuk mengatasi seperti :memotong data yang out
liers, memperbesar sampel, atau melakukan transformasidata
Komentar
Posting Komentar