Upload presentasi
Presentasi sedang didownload. Silahkan tunggu
Diterbitkan olehUdin Syank Telah diubah "9 tahun yang lalu
1
Uji Asumsi Klasik Pada Regresi Dengan Metode Kuadrat Terkecil (OLS)
Oleh: Ari Tjahjawandita
2
eMateri Presentasi: Data:
3
Peringatan Panduan ini hanya panduan singkat
Sangat tidak disarankan untuk dijadikan panduan utama Sangat disarankan digunakan/diaplikasikan lebih jauh melalui mata kuliah ekonometrika atau melalui buku ekonometrika, bukan buku panduan sebuah perangkat lunak.
4
Multikolinearitas
5
Apa itu multikolinearitas?
Sebuah masalah yang muncul dalam regresi linear klasik sebagai akibat adanya hubungan antara variabel-variabel penjelas dalam model terlalu erat (bahkan sempurna). 1x1 + 2x2 + 3x3 +…+ ixi = 0 Misal: x1 – x2 = 0 sehingga x1 = x2
6
Pernyataan statistik formalnya:
7
Apa akibat multikolinearitas?
Memenuhi kriteria Gauss- Markov (BLUE), namun varians dan covarians-nya besar standard error koefisien regresi cenderung besar, menuju tak hingga koefisien regresi cenderung tidak signifikan (ingat t‑hitung = i/Se(i)), Nilai R2 bisa sangat tinggi (too good to be true), Koefisien regresi dan standard error-nya sensitif terhadap perubahan data, Koefisien regresi tidak bisa ditentukan.
8
Varians & covarians koefisen regresi besar
9
Koefisien regresi tidak bisa diestimasi
10
Deteksi masalah multikolinearitas
R2 tinggi tetapi koefisien regresi yang signifikan hanya sedikit, Koefisien korelasi pair-wise antara 2 variabel independen mencapai 0,8, Auxiliary regression: regress salah satu x terhadap x lainnya dan hitung nilai F berdasarkan nilai R Uji H0: tidak ada korelasi yang tinggi antara variabel- variabel independen.
11
Remedial masalah multikolinearitas
Informasi apriori, Setelah 2 diestimasi, 3 bisa dihitung.
12
Gunakan regresi data panel,
Keluarkan salah satu variabel, tetapi….. TIDAK MENIMBULKAN MASALAH KESALAHAN SPESIFIKASI, Transformasi variabel (rasio terhadap variabel lain, log, diferens, pertumbuhan), Menambah data, Kurangi kolinearitas dalam regresi polinomial: xn xn-1, Pilih variabel penjelas berdasarkan analsis faktor dan principal component analysis, tetapi….. TIDAK MENIMBULKAN MASALAH KESALAHAN SPESIFIKASI.
13
Heteroskedastisitas
14
Apa itu heteroskedastisitas?
Sebuah masalah yang muncul dalam regresi linear klasik sebagai akibat varians dari error term model yang diestimasi tidak konstan antara periode/cross section. Umum pada data cross-section dan data runtun waktu dengan frekwensi yang tinggi.
15
Pernyataan statistik formalnya:
16
. Secara grafis Homoskedastis yi f(yi) x1i x11=80 x13=100 expenditure
income Var(ui) = E(ui2)= 2 x12=90
17
Pola error term yang homoskedastis
. xi yi Error term tersebar merata
18
. Heteroskedastis x 1 x11 x12 yi f(yi) x13 expenditure
income Var(ui) = E(ui2)= i2
19
Pola error term yang heteroskedastis
. xt yt Error term menyebar secara unik
20
Deteksi secara grafis yes yes no heteroscedasticity yes yes yes
21
Apa akibat heteroskedastisitas?
Estimasi OLS tetap linier dan tidak bias, namun… tidak minimum, bukan yang terbaik (best), tidak efisien, tidak BLUE (hanya LUE), t-hitung dan F-hitung tidak bisa dipercaya, karena: oleh karenanya error term tidak akan minimum.
22
Bukti
23
Deteksi masalah heteroskedastisitas: Uji Heteroskedastisitas White (LM test)
Uji Heteroskedastisitas White (tanpa cross-term):
24
Uji Heteroskedastisitas White (dengan cross-term):
25
Remedial masalah heteroskedastisitas: Metode Weighted Least Square (WLS)
Bila Yi = 1 + 2X2 + 3X3 + ui E(ui) = 0, E(ui,uj) = 0 i j Var (ui2) = i2 = 2 Z(X2) = 2Zi2 = 2E(Yi)2 Transformasi semua variabel dalam model menjadi:
26
Masalahnya 2 dan Z tidak diketahui.
Lalu bagaimana menentukan Z ? Plot residual dan kuadrat residual terhadap salah satu variabel independen. X3 ui + - ^ u2
27
Bila polanya seperti berikut:
X3 ui + - ^ u2
28
Otokorelasi/ Korelasi Serial
29
Apa itu otokorelasi? Bila error term di satu periode memiliki korelasi dengan error term di periode lainnya.
30
Macam & sifat otokorelasi
Hanya terdapat pada data runtun waktu (time series). First order autocorrelation: bila berkorelasi dengan error term satu periode sebelumnya/sesudahnya. Second order autocorrelation: bila berkorelasi dengan error term dua periode sebelumnya/sesudahnya, dst. Otokorelasi negatif: bila berkorelasi negatif dengan error term di periode lainnya. Otokorelasi positif: bila berkorelasi positif dengan error term di periode lainnya.
31
Pernyataan statistik formalnya:
32
Apa akibat otokorelasi?
Estimasi OLS tetap linier dan tidak bias, namun… sama seperti heteroskedastisitas, tidak minimum, bukan yang terbaik (best), tidak efisien, tidak BLUE (hanya LUE), , standard error koefisien regresi cenderung besar, sehingga t-hitungnya kecil, sehingga koefisiennya menjadi tidak signifikan.
33
Bukti
34
Deteksi masalah otokorelasi: Uji Breusch-Godfrey (LM test)
Estimasi model OLS dan hitung ut. Regress ut terhadap semua variabel independen, ditambah ut-1, ut-2, ut-3,…, ut-i ut = 1 + 2xt + ut-1 + ut-2 + ut-3 + … + ut-p + vt Hitung nilai BG-statistik = (n-p)R2~2 p is jumlah of orde kelambanan Bila BG > 2p, tolak Ho (ada otokorelasi) Bila BG < 2p, jangan tolak Ho (tidak ada otokorelasi)
35
Remedial masalah otokorelasi
Transformasi semua variabel ke bentuk first difference, Tambahkan data Trend sebagai variabel penjelas, Cochrane-Orcutt Two-Step procedure (CORC), Prais-Winsten transformation, Durbin’s Two-Step method, Gunakan AR(1), yaitu variabel dependen dalam bentuk kelambanan (lag) sebagai variabel penjelas.
36
Cochrane-Orcutt Two-step procedure (CORC)
^ Cochrane-Orcutt Two-step procedure (CORC) (1) Regress Yt = 1 + 2 Xt + ut (2) Regress ut = ut-1 + vt (3) Gunakan untuk mentranformasi variabel: Yt* = Yt - Yt Yt = 1 + 2 Xt + ut Xt* = Xt - Xt-1 Yt-1 = 1 + 2 Xt-1 + ut-1 (Yt - Yt-1) = 1(1-) +2(Xt - Xt-1) + (ut -ut-1) (4) Regress Yt* = 1* + 2* Xt* + ut* (5) Kalau berdasarkan BG test masih ada otokorelasif, ulangi lagi langkahnya dengan menggunakan ut* ^ ^ ^ ^ Generalized Least Squares (GLS) method
37
Diperoleh dari tahap kedua mengestimasi
(6) Regress ut* = ut-1* + vt’ ^ ( ) DW2 2 Diperoleh dari tahap kedua mengestimasi ^ (7) Gunakan untuk mentransformasi variabel ^ ^ ^ Yt** = Yt - Yt Yt = 1 + 2 Xt + ut ^ ^ ^ ^ ^ Xt** = Xt - Xt Yt-1 = 1 + 2 Xt-1 + ut-1 (8) Regress Yt** = 1** + 2** Xt** + ut** Dimana (Yt - Yt-1) = 1 (1 - ) + 2 (Xt - Xt-1) + (ut - ut-1) (9) Ulangi langkahnya sampai ( - < 0.01) ^
38
Terima kasih
Presentasi serupa
© 2024 SlidePlayer.info Inc.
All rights reserved.