Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

UJI HIPOTESIS. Persamaan Regresi Linier Berganda Y = a + b1x1 + b2x2 + bnxn + … + e Y = variabel dependen a = konstanta b = koefisien determinasi X =

Presentasi serupa


Presentasi berjudul: "UJI HIPOTESIS. Persamaan Regresi Linier Berganda Y = a + b1x1 + b2x2 + bnxn + … + e Y = variabel dependen a = konstanta b = koefisien determinasi X ="— Transcript presentasi:

1 UJI HIPOTESIS

2 Persamaan Regresi Linier Berganda Y = a + b1x1 + b2x2 + bnxn + … + e Y = variabel dependen a = konstanta b = koefisien determinasi X = variabel independen e = error term

3 Uji Asumsi Klasik Analisis regresi memerlukan beberapa asumsi agar model layak digunakan. Asumsi yang digunakan adalah: – Uji Normalitas – Uji Multikolinieritas – Uji Heterosdastisitas – Uji Autokorelasi

4 Uji Normalitas Untuk menentukan apakah data terdistribusi secara normal atau tidak. Menggunakan plot grafik dimana asumsi normalitas terpenuhi jika titik-titik pada grafik mendekati sumbu diagonalnya Untuk memperkuat pengujian dapat dipergunakan Uji Kolmogorov-Smirnov

5 Uji Kolmogorov-Smirnov Grafik Uji Normalitas Nilai signifikansi 0,868 > 0,05 menunjukkan data terdistribusi normal (asumsi signifikansi 0,05)

6 Uji Multikolinieritas Multikolinieritas: kondisi dimana terjadi korelasi yang kuat diantara variabel-variabel bebas (X) yang diikutsertakan dalam pembentukan model regresi linier. Kondisi yang menyalahi asumsi regresi linier. TIDAK MUNGKIN TERJADI apabila variabel bebas (X) yang diikutsertakan hanya satu.

7 Uji Multikolinieritas Ciri-ciri yang sering ditemui apabila model regresi linier kita mengalami multikolinieritas adalah: – Terjadi perubahan yang berarti pada koefisien model regresi (misal nilainya menjadi lebih besar atau kecil) apabila dilakukan penambahan atau pengeluaran sebuah variabel bebas dari model regresi. – Diperoleh nilai R-square yang besar, sedangkan koefisien regresi tidak signifikan pada uji parsial. – Tanda (+ atau -) pada koefisien model regresi berlawanan dengan yang disebutkan dalam teori (atau logika). Misal, pada teori (atau logika) seharusnya b1 bertanda (+), namun yang diperoleh justru bertanda (-). – Nilai standard error untuk koefisien regresi menjadi lebih besar dari yang sebenarnya (overestimated)

8 Uji Multikolinieritas Untuk mendeteksi apakah model regresi mengalami multikolinieritas, dapat diperiksa menggunakan VIF (Variance Inflation Factor). Nilai VIF > 10 berarti telah terjadi multikolinieritas yang serius di dalam model regresi kita.

9 Uji Multikolinieritas

10 Uji Heteroskedastisitas situasi dimana keragaman variabel independen bervariasi pada data yang kita miliki. Salah satu asumsi kunci pada metode regresi biasa adalah bahwa error memiliki keragaman yang sama pada tiap-tiap sampelnya. Asumsi inilah yang disebut homoskedastisitas.regresi Jika keragaman residual/error tidak bersifat konstan, data dapat dikatakan bersifat heteroskedastisitas. Karena pada metode regresi ordinary least-squares mengasumsikan keragaman error yang konstan, heteroskedastisitas menyebabkan estimasi OLS menjadi tidak efisien.ordinary least-squares Model yang memperhitungkan perubahan keragaman dapat membuat penggunaan dan estimasi data menjadi lebih efisien.

11 Uji Heteroskedastisitas Beberapa asumsi dalam model regresi yang terkait dengan heteroskedastisitas antara lain adalah residual (e) memiliki nilai rata-rata nol, keragaman yang konstan, dan residual pada model tidak saling berhubungan, sehingga estimator bersifat BLUE. Jika asumsi ini dilanggar maka prediksi model yang dibuat tidak dapat diandalkan.

12 Uji Heteroskedastisitas

13 Uji Goldfeld-Quandt Uji Korelasi Spearman Uji Glejser Uji Bruesch-Pagan-Godfrey dll

14 Uji Autokorelasi Uji autokorelasi digunakan untuk melihat apakah ada hubungan linier antara error serangkaian observasi yang diurutkan menurut waktu (data time series). Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data time series (Gujarati, 1993). Menggunakan Uji Durbin Watson

15

16 Goodness of Fit Test Setelah kita melakukan uji normalitas data, maka kita perlu melakukan Uji kesesuaian model atau seberapa besar kemampuan variable bebas dalam menjelaskan varian variabel terikatnya

17 Goodness of Fit Test - R 2 R 2 adalah perbandingan antara variasi Y yang dijelaskan oleh x1 dan x2 secara bersama-sama dibanding dengan variasi total Y. Jika selain x1 dan x2 semua variabel di luar model yang diwadahi dalam E dimasukkan ke dalam model, maka nilai R 2 akan bernilai 1. Ini berarti seluruh variasi Y dapat dijelaskan oleh variabel penjelas yang dimasukkan ke dalam model. Contoh Jika variabel dalam model hanya menjelaskan 0,4 maka berarti sebesar 0,6 ditentukan oleh variabel di luar model, nilai diperoleh sebesar R 2 = 0,4.

18 Goodness of Fit Test – Uji F Selain R 2 ketepatan model hendaknya diuji dengan uji F. Hipotesis dalam uji F adalah sebagai berikut: Hipotesis mengenai ketepatan model: Ho : b 1 = b 2 = 0 (Pengambilan variabel X1 dan X2 tidak cukup tepat dalam menjelaskan variasi Y, ini berarti pengaruh variabel di luar model terhadap Y, lebih kuat dibanding dengan variabel yang sudah dipilih). Ha : b 1 ≠ b 2 ≠ 0 (Pengambilan variabel X1 dan X2 sudah cukup tepat karena mampu menjelaskan variasi Y, dibanding dengan pengaruh variabel di luar model atau errror terhadap Y).

19 Uji F Uji F adalah uji simultan untuk melihat pengaruh variabel-variabel independen/bebas (x1, x2, x3…) secara serempak terhadap variabel terikatnya/dependen

20 Uji t Uji t adalah uji parsial untuk melihat pengaruh masing-masing variabel independen atau bebas (x) berpengaruh nyata atau tidak secara parsial terhadap variabel dependen/terikatnya (Y)


Download ppt "UJI HIPOTESIS. Persamaan Regresi Linier Berganda Y = a + b1x1 + b2x2 + bnxn + … + e Y = variabel dependen a = konstanta b = koefisien determinasi X ="

Presentasi serupa


Iklan oleh Google