EKONOMETRIKA Pertemuan 9: Pengujian Asumsi-asumsi Klasik (Bagian 1) Dosen Pengampu MK: Evellin D. Lusiana, S.Si, M.Si
Pengujian Asumsi-asumsi Klasik Normality Multicollinearity Heteroskedasticity Autocorrelation
Asumsi Normalitas Pelanggaran, dengan kemungkinan penyebab: Distribusi variabel dependen tidak normal Pelanggaran asumsi linieritas (kesalahan spesifikasi model) Distribusi residual menjulur karena adanya pencilan/outlier Ukuran sampel yang terlalu kecil Efek pelanggaran: Pencilan/outlier berpengaruh besar terhadap estimator (bias) Hasil pengujian tidak sah Selang kepercayaan terlalu lebar atau terlalu sempit
Asumsi Normalitas Bagaimana mendeteksinya? Normal probability plot Histogram dari residual/error Chi square goodness test of fit Anderson Darling normality test Jarque Berra normality test Jika dilanggar, bagaimana memperbaikinya? Transformasi non linier pada penyebab 1 atau 2 Pada penyebab 3, pencilan/outlier harus dievaluasi penyebabnya Murni kesalahan: pencilan dapat dibuang Apa adanya: pencilan memberikan informasi tambahan pada hasil analisis Perbesar ukuran sampel untuk penyebab 4 Transformasi: sesuaikan dengan permasalahan teori ekonomi yang ingin dianalisis Ukuran sampel yang diperbesar dapat memperbaikinya
Uji Jarque-Bera Ho: residual/error berdistribusi normal H1 : residual/error tidak berdistribusi normal Di mana: n = jumlah pengamatan S = koefisien skewness K = koefisien kurtosis. Ho ditolak jika p-value statistik uji Jarque-Bera tidak signifikan (p-value<α=0.05).
Contoh 1: Pendapatan Rumput Laut X Y 21600 8550000 28800 10001666.67 18000 6577500 60000 26725000 30000 9532500 12095000 43200 15132500 24000 6159333.333 11804166.67 14400 6656666.667 9420000 16000 7735000 32000 14440833.33 56000 28923958.33 19200 10871428.57 7972857.143 30720 11840000 64000 19350000 96000 29575000 9400000 X = Hasil produksi rumput laut (kg/th) Y = Pendapatan petani rumput laut Model yang diestimasi:
Deteksi Normalitas: Uji Jarque Bera P-value=0.028716 < α=0.05 Keputusan: Tolak Ho Kesimpulan: error tidak berdistribusi normal (asumsi dilanggar)
Penanganan Normalitas Ada observasi yang memiliki residual diatas 8000000 (outlier), shg observasi ini harus dihilangkan dari analisis
Menghilangkan Data Outlier Sample: 1 20 abs(resid) < 8000000 Artinya, observasi yg diikutkan dalam analisis adalah yg residualnya kurang dari 8000000
Normalitas Tanpa Outlier P-value=0.069352 > α=0.05 Keputusan: Terima Ho Kesimpulan: error/residual berdistribusi normal (asumsi terpenuhi)
Model yang digunakan adalah yang memenuhi asumsi normalitas Model estimasi yang diperoleh:
Asumsi Multikolinieritas Terdapat hubungan linier di antara variabel independen Multikolinieritas sempurna: Satu variabel independen adalah fungsi linier dari variabel independen yang lain
Multikolinieritas tak sempurna Terjadi jika terdapat hubungan linier yang tidak sempurna antar peubah eksogen Dengan v sebagai error random yang tidak sama dengan nol Kasus ini sering terjadi pada kasus terapan Bagaimana mengidentifikasi seberapa serius derajat multikolinieritas yang terjadi.
Efek dari Multikolinieritas Estimator OLS tetap dapat diestimasi dan bersifat BLUE. Namun, varians yang dihasilkan memiliki nilai yang cukup besar Selang kepercayaan (interval konfidensi) menjadi lebih lebar Statistik uji t dari satu atau beberapa parameter tidak signifikan (terima Ho), walaupun nilai R2 tinggi Tanda bagi estimator parameter berkebalikan dengan teori apriorinya
Deteksi Multikolinearitas Koefisien korelasi Pearson Koefisien korelasi Pearson antar variabel independen, misalnya korelasi antar X1 dan X2 yang dihitung dengan rumus Dapat menunjukkan adanya multikolineritas serius jika r12 ≥ 0.9. Cara ini efektif bila terdapat 2 variabel independen dalam model.
Deteksi Multikolinearitas Koefisien determinasi (R2) Regresi Auxiliary Regresi auxiliary adalah model regresi antar suatu variabel independen dengan sisa variabel independen lainnya. Misal, bila dalam satu model terdapat 3 variabel independen yaitu X1, X2, dan X3 maka ada 3 model regresi auxiliary yang dapat terbentuk yakni X1 terhadap X2 dan X3 (R21), X2 terhadap X1 dan X3 (R22), serta X3 terhadap X1 dan X2 (R23). Multikolinearitas terjadi apabila terdapat koefisien determinasi auxiliary yang bernilai lebih besar dari koefisien determinasi model regresi asli (R2j>R2 ). Cara ini efektif bila terdapat 3 atau lebih variabel independen dalam model.
Deteksi Multikolinearitas Variance Inflation Factors (VIF) VIF dan Tolerance dihitung berdasarkan nilai koefisien determinasi regresi auxiliary ( R2j) yaitu Rule of thumb yang biasa digunakan sebagai acuan adalah jika VIF>10, maka terdeteksi adanya multikolinieritas.
Penanganan Multikolinearitas Tidak melakukan apa-apa/tanpa perbaikan (do nothing) Menghilangkan variabel independen Transformasi variabel Penambahan data
Contoh 2: Data Jumlah Penduduk Miskin No Y X1 X2 X3 1 193.8 6.93 15639 7.21 2 255.6 5.44 3515 5 3 285.4 5.33 13610 7.01 4 179.2 5.84 22294 8.12 256.6 5.73 5084 5.2 6 24.9 5.91 9625 7 10.1 6.33 33779 9.87 8 48.4 6.52 21404 8.34 9 41.4 6.04 14318 7.32 10 168.8 22223 8.67 11 8.9 6.56 15180 7.5 12 105.2 5.62 14063 13 276.6 6.46 6780 5.7 14 199.3 6.76 26847 8.5 15 145.4 6.19 16809 7.3 16 125.4 6.81 10362 6.8 17 166.4 6.31 20869 8.33 18 151.6 6.75 15950 19 102.3 5.92 22251 8.4 20 80.2 5.83 2472 5.5 X1 = laju pertumbuhan ekonomi (%) X2 = jumlah pengangguran (jiwa) X3 = angka rata-rata lama sekolah (tahun) Y = jumlah penduduk miskin (ribu jiwa)
Deteksi Multikolinearitas: VIF
Deteksi Multikolinearitas: VIF VIF > 10 Asumsi non-multikolinearitas dilanggar Untuk penanganan, hilangkan salah satu variabel X2 atau X3. Misal, yang dihilangkan adalah X3
Deteksi Multikolinearitas: VIF (tanpa X3) VIF < 10 Asumsi non-multikolinearitas terpenuhi
Model tanpa multikolinieritas