UJI ASUMSI KLASIK & GOODNESS OF FIT MODEL REGRESI LINEAR
Persamaan Regresi Linear Berganda Y = a + b1x1 + b2x2 + ... + bnxn + e Y = variabel dependen a = konstanta b = koefisien regresi X = variabel independen e = error term/disturbance
Y = 2.553 – 1.092 X1 + 1.961 X2 a = 2.553, artinya ketika variabel x1 dan x2 bernilai konstan atau 0, maka y bernilai positif sebesar 2.553 b1 = - 1.092, artinya ketika variabel x2 bernilai konstan, dan ketika x1 meningkat satu satuan maka y akan menurun sebesar 1.092 b2 = 1.961, artinya ketika variabel x1 bernilai konstan, dan ketika x2 meningkat satu satuan maka y ikut meningkat sebesar 1.961
Uji Multikolinieritas Uji Autokorelasi (time series) UJI ASUMSI KLASIK Analisis regresi memerlukan beberapa asumsi agar model layak digunakan. Asumsi yang digunakan adalah: Uji Normalitas Uji Multikolinieritas Uji Autokorelasi (time series) Uji Heteroskedastisitas
GOODNESS OF FIT Uji Signifikansi Simultan/Uji -F Uji Signifikansi Parsial / Uji-t Koefisien Determinasi (r2)
Yang Dimaksud dengan Kurva Normal Distribusi normal merupakan suatu kurve berbentuk lonceng. Penyebab data tidak normal, karena terdapat nilai ekstrim dalam data seri yang diambil. Nilai ektrim adalah nilai yang terlalu rendah atau terlalu tinggi.
Kapan Data Dikatakan Normal Ekstrim Rendah Ektrim Tinggi -2,58 2,58 Pada =0,01 Ekstrim Rendah Ektrim Tinggi -1,96 1,96 Pada =0,05
Berikut ini manakah data yang Ekstrim Ekstrim Rendah Ektrim Tinggi -2,58 2,58
UJI NORMALITAS PENGERTIAN UJI NORMALITAS Uji normalitas di maksudkan untuk mengetahui apakah residual yang tidak terstandarisasi yang diteliti berdistribusi normal atau tidak. PENYEBAB TIDAK NORMAL Disebabkan karena terdapat nilai ektrim dalam data yang kita ambil.
Uji Normalitas CARA MENDETEKSI: 1. Dengan Grafik Normal probability-plot: asumsi normalitas terpenuhi jika titik- titik data pada grafik mendekati garis diagonalnya . 2. Untuk memperkuat pengujian dapat dipergunakan - Uji Kolmogorov-Smirnov Chi Kuadrat (X2) Kurtosis dan skewness
Uji Normalitas Uji normalitas dapat dilakukan secara: Univariate Dilakukan dengan menguji normalitas pada semua variabel yang akan dianalisis. Multivariate Dilakukan dengan menguji normalitas pada nilai residual yang telah distandarisasi / tidak distandarisasi.
Berikut ini adalah data time series, Contoh Kasus Berikut ini adalah data time series, Berdasarkan data tersebut ujilah apakah data tersebut Normal secara Multivariate.
Pengujian Normalitas Dengan SPSS Memunculkan Nilai Residual Terstandarisasi Buka file : Data_Regresi_1 Analyze Regression Linear... Masukan variabel Y pada kotak Dependent X1, X2, pada kotak Independent Save…: pada kotak Residual : klik unstandardized Continue (bertujuan untuk membuat variabel / kolom baru pada data yaitu res_1 ) Abaikan pilihan yang lain OK Uji Kolmogornov Smirnov Buka file : Data Regresi_1 Analyze Non Parametrics Test 1 Sample K-S... Masukan variabel unstandardized Residual pada kotak Test Variable List Abaikan pilihan yang lain (biarkan pada posisi defaultnya) OK
Output Kolmogornov Smirnov Karena Nilai Sig. > 0,05 maka tidak signifikan. Tidak siginifikan berarti data relatif sama dengan rata-rata sehingga disebut normal.
UJI MULTIKOLINIERITAS PENGERTIAN Uji multikolinieritas berarti terjadi korelasi yang kuat (hampir sempurna) antar variabel bebas. Tepatnya multikolinieritas berkenaan dengan terdapatnya lebih dari satu hubungan linier pasti, dan istilah kolinieritas berkenaan dengan terdapatnya satu hubungan linier.
Uji Multikolinearitas Cara mendeteksi: 1. Dengan melihat koefesien korelasi antar variabel bebas: Jika koefesien korelasi antar variabel bebas ≥ 0,9 maka terjadi multikolinier. (Ghozali, 2006) 2. Dengan melihat nilai Tolerance dan VIF (Varian Infloating Factor): Jika nilai Tolerance > 0.1 dan VIF ≤ 10 maka tidak terjadi multikolinearitas.
Pengujian Multikolinier Dengan SPSS Buka file : Data_Regresi_1 Analyze Regression Linear... Masukan variabel Y pada kotak Dependent X1, X2, pada kotak Independent Statistics…: klik covariance matrix dan Coliniarity Diagnosis Continue
Karena nilai Tolerance > 0 Karena nilai Tolerance > 0.1 dan VIF < 10 maka tidak terjadi multikoleniaritas.
CARA MENGATASI MULTIKOLINIER Memperbesar ukuran sampel Memasukan persamaan tambahan ke dalam model. Menghubungkan data cross section dan data time series. Mengeluarkan suatu variabel dan bias spesifikasi. Transformasi variabel.
UJI HETEROSKEDASTISITAS PENGERTIAN situasi dimana keragaman variabel independen bervariasi pada data yang kita miliki. Salah satu asumsi kunci pada metode regresi biasa adalah bahwa error memiliki keragaman yang sama pada tiap-tiap sampelnya. Asumsi inilah yang disebut homoskedastisitas. Jika keragaman residual/error tidak bersifat konstan, data dapat dikatakan bersifat heteroskedastisitas. Karena pada metode regresi ordinary least-squares mengasumsikan keragaman error yang konstan, heteroskedastisitas menyebabkan estimasi OLS menjadi tidak efisien.
Uji Heteroskedastisitas CARA MENDETEKSI: Dengan Grafik Scatterplot bebas dari heterokedastisitas ketika titik-titik data menyebar secara merata di atas dan dibawah angka 0 pada sumbu Y dan tidak membentuk suatu pola tertentu. 2. Dengan Uji Park Yaitu dengan meregresikan variabel bebas terhadap nilai log-linier kuadrat. 3 . Dengan Uji Glejser Yaitu dengan meregresikan variabel bebas terhadap nilai residual mutlaknya. 4. Dengan Uji Korelasi Rank Spearman Mengkorelasikan nilai residual dengan variabel bebas dengan menggunakan Rank-spearman.
Pengujian Heteroskedastisitas Dengan SPSS Memunculkan Nilai Residual Buka file : Data_Regresi_1 Analyze Regression Linear... Masukan variabel Y pada kotak Dependent X1, X2, pada kotak Independent Save…: pada kotak Residual : klik unstandardized Continue (bertujuan untuk membuat variabel / kolom baru pada data yaitu res_1 ) Abaikan pilihan yang lain OK Mutlakan Nilai Residualnya Buka file : Data Regresi_1 Tranform Compute Pada Target Variabel diisi dengan ABRES Pada Numeric Expresion diisi dengan ABS(RES_1) Meregresikan variabel bebas terhadap Nilai Mutlak Residual Masukan variabel ABRES pada kotak Dependent
Prose Memunculkan Nilai Residual dan Memutlakannya Memutlakan Nilai Residual
Meregresikan variabel bebas terhadap Nilai Mutlak Residual X1 tidak signifikan karena p-value > 0,05 sehingga X1 tidak terjadi gejala heteroskedastisitas. X2 signifikan karena p-value < 0,05 sehingga X2 terjadi gejala heteroskedastisitas.
UJI AUTOKORELASI PENGERTIAN Uji autokorelasi digunakan untuk melihat apakah ada hubungan linier antara error serangkaian observasi yang diurutkan menurut waktu (data time series). Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data time series (Gujarati, 1993).
Uji Autokorelasi Uji Durbin Watson Uji Run (Run test) Uji Lagrange Multiplier Uji Breusch-Godfrey
Uji Durbin Watson Area keputusan autokorelasi dengan uji durbin watson
Pengujian Otokorleasi Dengan SPSS Memunculkan Nilai Residual Buka file : Data_Regresi_1 Analyze Regression Linear... Masukan variabel Y pada kotak Dependent X1, X2, pada kotak Independent Klik Statistics…: Pada Residual pilih Durbin Watson Klik Continue Abaikan pilihan yang lain OK
Proses Analisi Surbin Watson dengan SPSS
Output Uji Durbin Watson
Jika diketahui Junmlah Variabel bebas 3, pengamatan 20, dan diperoleh nilai durbin watson sebesar 2,354. Ujilah apakah terjadi gejala outokorelasi ? Gunakan gambar untuk menguji !
Kriteria Pengujian Tabel Durbin Watson dk =k,n K=2 dan n=10 dL = 0,697 1,641 Tabel Durbin Watson dk =k,n K=2 dan n=10 dL = 0,697 dU = 1,641 4-dU = 2,359 4-dL = 3,303 Tidak ada Otokorelasi Tanpa Kesimpulan Otokorelasi + Otokorelasi – dL dU 4 – dU 4 – dL 2 0,697 1,641 2,359 3,303 3,386
Goodness of Fit Test Setelah kita melakukan uji normalitas data dan model terbebas dari asumsi klasik, maka kita perlu melakukan Uji kesesuaian model atau seberapa besar kemampuan variable bebas dalam menjelaskan varian variabel terikatnya.
Goodness of Fit Test - R2 R2 adalah seberapa besar kemampuan variasi Y (dependent) mampu dijelaskan oleh variasi x (independen) dalam model. Jika selain x1 dan x2 semua variabel di luar model yang diwadahi dalam E dimasukkan ke dalam model, maka nilai R2 akan bernilai 1. Ini berarti seluruh variasi Y dapat dijelaskan oleh variabel penjelas yang dimasukkan ke dalam model. Contoh Jika variabel dalam model hanya menjelaskan 0,4 maka berarti sebesar 0,6 ditentukan oleh variabel di luar model, nilai diperoleh sebesar R2 = 0,4.
Nilai adjusted R square sebesar 0 Nilai adjusted R square sebesar 0.840 artinya variasi variabel y mampu dijelaskan oleh variasi variabel x sebesar 84% dan sisanya (100 - 84 ) 16% dijelaskan oleh variabel lain di luar model penelitian
Goodness of Fit Test – Uji Signifikansi Simultan /Uji F Selain R2 ketepatan model hendaknya diuji dengan uji F. Hipotesis dalam uji F adalah sebagai berikut: Hipotesis mengenai ketepatan model: Ho : b1 = b2 = 0 (Pengambilan variabel X1 dan X2 tidak cukup tepat dalam menjelaskan variasi Y, ini berarti pengaruh variabel di luar model terhadap Y, lebih kuat dibanding dengan variabel yang sudah dipilih). Ha : b1 ≠ b2 ≠ 0 (Pengambilan variabel X1 dan X2 sudah cukup tepat karena mampu menjelaskan variasi Y, dibanding dengan pengaruh variabel di luar model atau errror terhadap Y).
Uji Signifikansi Simultan/ Uji F Uji F adalah uji simultan untuk melihat pengaruh variabel-variabel independen/bebas (x1, x2, x3…) secara bersama-sama/simultan terhadap variabel terikatnya/dependen
diterima. Jadi, semua variabel x secara bersama-sama/simultan Sig. 0.01 (p<0.05) berarti Ha diterima. Jadi, semua variabel x secara bersama-sama/simultan berpengaruh terhadap variabel y. H0 : semua variabel x tidak berpengaruh secara bersama-sama terhadap variabel y. Ha : semua variabel x berpengaruh secara bersama-sama terhadap variabel y. Kriteria : Sig. < = 0.05 maka Ha diterima atau Sig. > 0.05 maka H0 diterima
Uji Signifikansi Parsial/ Uji t Uji t adalah uji parsial untuk melihat pengaruh masing-masing variabel independen atau bebas (x) berpengaruh nyata atau tidak secara parsial terhadap variabel dependen/terikatnya (Y)
H0 : masing-masing variabel x tidak berpengaruh terhadap variabel y. Ha : masing-masing variabel x berpengaruh terhadap variabel y. Kriteria : Sig. < = 0.05 maka Ha diterima atau Sig. > 0.05 maka H0 diterima
Variabel x1 sig. 005 (p< 0. 05) maka Ha diterima Variabel x1 sig. 0.005 (p< 0.05) maka Ha diterima. Jadi variabel x1 berpengaruh terhadap y. Variabel x2 sig. 0.000 (p< 0.05) maka Ha diterima. Jadi variabel x2 berpengaruh terhadap y.