Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

UJI ASUMSI KLASIK. Tujuan Pengajaran: •Mengerti apa yang dimaksud dengan uji asumsi klasik •Mengerti item-item asumsi •Menjelaskan maksud item-item asumsi.

Presentasi serupa


Presentasi berjudul: "UJI ASUMSI KLASIK. Tujuan Pengajaran: •Mengerti apa yang dimaksud dengan uji asumsi klasik •Mengerti item-item asumsi •Menjelaskan maksud item-item asumsi."— Transcript presentasi:

1 UJI ASUMSI KLASIK

2 Tujuan Pengajaran: •Mengerti apa yang dimaksud dengan uji asumsi klasik •Mengerti item-item asumsi •Menjelaskan maksud item-item asumsi •Menyebutkan nama-nama asumsi yang harus dipenuhi •Mengerti apa yang dimaksud dengan autokorelasi

3 •Mengerti apa yang dimaksud dengan Multikolinearitas •Mengerti apa yang dimaksud dengan Heteroskedastisitas •Mengerti apa yang dimaksud dengan Normalitas •Menjelaskan timbulnya masalah- masalah dalam uji asumsi klasik

4 •Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas •Menyebutkan alat deteksi dari masalah-masalah tersebut

5 •Menggunakan sebagian alat-alat deteksi •Menjelaskan keterkaitan asumsi- asumsi •Menjelaskan konsekuensi-konsekuensi dari Asumsi

6 asumsi-asumsi klasik •Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE: (Best,Linear, Unbiased, Estimator.) •

7 Gauss-Markov Theorem. •BLUE: (Best,Linear, Unbiased, Estimator.) • Adalahasumsiyang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem.

8 Best dimaksudkan sebagai terbaik •Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil.

9 Linear •Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. •Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel

10 •Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.

11 10 asumsi yang menjadi syarat penerapan OLS, •Gujarati (1995): • Asumsi 1: Linearregression Model. •Modelregresi merupakan hubungan linear dalam parameter. •Y = a + bX +e •

12 •Untuk model regresi: •Y = a + bX + cX2 + e •Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

13 • Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). • Tepatnya bahwa nilai X adalah nonstochastic (tidak random).

14 •Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).

15 •Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki varianceyangsamasepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas

16 •Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiapnilaixidan ji (Noautocorrelation between the disturbance).

17 •Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.

18 •Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebihbesardari jumlahparameteryang •diestimasi.

19 •Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

20 •Asumsi 9: Model regresi secara benar telah terspesifikasi. •Artinya, tidak ada spesifikasi yang bias, karena semuanyatelahterekomendasi atausesuai •dengan teori.

21 •Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas.Jelasnya kolinearantaravariabel penjelas tidak boleh sempurna atau tinggi. •

22 •meskipun nilait sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya.

23 •Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti: •uji normalitas,autokorelasi, heteroskedastisitas, atupun multikolinearitas.

24 •Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,danTidakada Heteroskedastisitas.

25 A. Uji Autokorelasi

26 A.1. Pengertian autokorelasi •Autokorelasi adalah keadaan dimana variabel gangguanpadaperiode tertentuberkorelasi denganvariabel gangguanpada periodelain.

27 •Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.

28 A.2. Sebab-sebab Autokorelasi • •1. Kesalahan dalam pembentukan model, •2. Tidakmemasukkanvariabel yangpenting. •3. Manipulasi data •4. Menggunakan data yang tidak empiris

29 A.3. Akibat Autokorelasi •Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading). •( Karena adanya masalah korelasi dapatmenimbulkanadanyabias pada hasil regresi.)

30 1. Uji Durbin-Watson (DW Test).

31 dapat pula ditulis dalam rumus sebagai berikut:

32 DW test ini terdapat beberapa asumsi penting • •1. Terdapat intercept dalam model regresi. •2. variabelpenjelasnyatidak random (nonstochastics).

33 3. Tidak ada unsur lag dari variabel dependen di dalam model. 4. Tidak ada data yang hilang. 5. υ t = ρυ t −1 + ε t

34 Langkah-langkahpengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis. •(H◦)erdapatautokorelasi positif, atau, terdapat autokorelasi negatif. •

35 •Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW berada.

36 Jelasnya adalah sebagai berikut: • DW < dL=terdapatatokorelasi positif •dL< DW DW >4-dU=tidakterdapat autokorelasi •4-dU < DW <4-dL= tidak dapat disimpulkan •(inconclusive) •DW > 4-dL=terdapatautokorelasi negatif

37 •Dimana: •DW= Nilai Durbin-Watson d statistik •dU= Nilai batas atas (didapat dari tabel) •dL=Nilaibatasbawah (didapatdari tabel) •

38 •Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

39 Gambar 3.3.: Daerah Uji Durbin Watson

40 •Bantuan dengan spss:

41 •(α)=5%, •N = 22 •Prediktor : 2 •batas atas (U) =1,54 •sedang batas bawah (L) = 1,15. •DW = 0,883

42 •0,883 yang berarti lebih kecil dari nilai batas bawah, maka koefisien autokorelasi lebih kecil dari nol. •Dengan demikian dapat disimpulkan bahwa hasil regresi tersebut belum terbebas dari masalah autokorelasi positif.

43 •Dengan katalain,Hipotesis nol (H◦) yang menyatakan tidak terdapat masalah autokorelasi dapat ditolak, •sedang hipotesis nol (H◦) yang menyatakan terdapat masalah autokorelasi dapat diterima

44 Uraian di atas dapat pula dijelaskan dalam bentuk gambar sbb

45 B. Uji Normalitas •Tujuan dilakukannya uji normalitas adalah untuk mengujiapakah variabel penganggu (e) memiliki distribusi normal atau tidak.

46 Beberapa cara untuk melakukan uji normalitas, antara lain: •1. tendesi sentral (mean – median = 0) •2. Menggunakan formula Jarque Bera (JB test),

47 formula Jarque Bera (JB test),

48 •dimana: •S = Skewness (kemencengan) distribusi data •K= Kurtosis (keruncingan)

49 Skewness

50 Kurtosis

51 •Bantuan SPSS : Hal

52 • •3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentasedata observasi dan berada di area mana.

53 Untuk menentukan posisi normal dari sebaran data, langkahawalyang dilakukanadalah menghitung standar deviasi.

54 •SD1 = 68 % •SD2 = 95% •SD3 = 99,7 %

55 Penentuan area ini penting, karena sebaran datayangdikatakannormalapabila tersebar sebagai berikut: •Sebanyak 68% dari observasi berada pada area SD1 •Sebanyak 95% dari sisanya berada pada area •SD2 •Sebanyak 99,7% dari sisanya berada pada area SD3

56 sebaran datayang dikatakannormal

57 •Apabila data tidak normal, maka •diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

58 •Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung •menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Datadikatakannormal jikadatanyasimetris.

59 Lihat gambar berikut:

60

61

62 •Ilustrasi: •Mean : 46 kg •Sd = 5 kg •68% x 30 = 10: (41-46) kg »10 : (46-52) kg »4 (36 – 41 ) kg »5 (51 – 56 ) kg »1 (> 36) Kg)

63

64 C. Uji Heteroskedastisitas • •C.1. Pengertian Heteroskedastisitas •Model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan (e) atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya

65 •rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakantidak homoskedastik atau mengalami heteroskedastisitas

66 C.2. Konsekuensi Heteroskedastisitas 1. Sb menjadi bias 2. nilai b bukan nilai yang terbaik. 3. Munculnyamasalah heteroskedastisitasyang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.

67 •Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.

68 C.3. Pendeteksian Heteroskedastisitas •Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier •Membandingkan sebaran data pada scatter plot

69 menggunakan uji Arch, •e ² = a + bỶ ² + u. •Cari R ² •Kalikan R ² dengan n (sampel)/ R ² x n.

70 •Jika R2 x N lebih besar dari chi-square (χ2) tabel, makastandarerror mengalami heteroskedastisitas. •Sebaliknya, jika R2 x N lebih kecil dari chi-square (χ2) tabel, maka standar error telah bebas dari masalah •heteroskedastisitas, atau telah homoskedastis.

71 •Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series •Karena dalam data cross section menunjukkan obyek yang berbeda dan •waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu.

72 •Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama.

73 D. Uji Multikolinieritas •D.1. Pengertian Multikolinearitas •Multikolinearitas: Multikolinieritas adalahsuatukeadaandimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.

74 Sebagaigambaran penjelas,

75

76

77 D.2. Konsekuensi Multikolinearitas •Apabila belum terbebasdari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b)masing-masingvariabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t •

78 D.3. Pendeteksian Multikolinearitas •Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan PearsonCorrelationatau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknikauxilaryregression,

79 •pendapat Gujarati (1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius.

80 •Gujarati juga menambahkan bahwa, apabila korelasiantaravariabel penjelas tidaklebih besar dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius.

81 •Dengan demikian,dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas.

82 •Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalahmultikolinearitas, dengan smempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.

83


Download ppt "UJI ASUMSI KLASIK. Tujuan Pengajaran: •Mengerti apa yang dimaksud dengan uji asumsi klasik •Mengerti item-item asumsi •Menjelaskan maksud item-item asumsi."

Presentasi serupa


Iklan oleh Google