UJI ASUMSI KLASIK.

Slides:



Advertisements
Presentasi serupa
Analisis Regresi.
Advertisements

Evaluasi Model Regresi
Auto Correlation/ Serial Correlation
MODEL REGRESI DENGAN DUA VARIABEL
AUTOKORELASI (Autocorrelation)
UJI HIPOTESIS.
L/O/G/O MODEL REGRESI. Keilmuan sosial mempunyai karakteristik berupa banyaknya variabel-variabelatau faktor-faktoryang saling mempengaruhi satu sama.
REGRESI LINIER BERGANDA
Analisis Regresi Berganda & Pengujian Asumsi OLS
REGRESI LINIER.
Estimating Demand Problems in Applying the Linear Regression Model
BETYARNINGTYAS CYNTHIA LA SARIMA MUH Tabrani Nuri NURWAHIDA VIEVIEN
Operations Management
Heteroskedastisitas Penyimpangan asumsi ketika ragam galat tidak konstan Ragam galat populasi di setiap Xi tidak sama Terkadang naik seiring dengan nilai.
UJI ASUMSI KLASIK.
Erni Tri Astuti Sekolah Tinggi Ilmu Statistik
UJI MODEL Pertemuan ke 14.
Analisis Data: Memeriksa Perbedaan
Uji Asumsi Klasik Oleh : Boyke Pribadi.
Uji Asumsi Klasik Pada Regresi Dengan Metode Kuadrat Terkecil (OLS)
Regresi dengan Autokorelasi Pada Error
PEMBAHASAN Hasil SPSS 21.
BAB XIII REGRESI BERGANDA.
BAB VI REGRESI SEDERHANA.
Analisis Regresi Linier
UJI ASUMSI KLASIK.
11 Pebruari 2008 hadi paramu ekonometrika dan analisis multivariat 1 Asumsi Dalam Metode OLS Kuliah III.
Regresi Linier Berganda
PERTEMUAN 6 Teknik Analisis dan Penyajian Data
Regresi Linear Dua Variabel
Anas Tamsuri UJI STATISTIK UJI STATISTIK.
Contoh Perhitungan Regresi Oleh Jonathan Sarwono.
Richard Matias A.muh.Awal Ridha s Alfiani Nur Islami
Analisis Korelasi dan Regresi linier
UJI ASUMSI KLASIK & GOODNESS OF FIT MODEL REGRESI LINEAR
Uji Asumsi Klasik Heteroskedastisitas
Bab 4 Estimasi Permintaan
ANALISIS REGRESI DAN KORELASI BERGANDA
Program Studi Statistika Semester Ganjil 2012
EKONOMETRIKA Pertemuan 4,5 Estimasi Parameter Model Regresi
Pertemuan Ke-7 REGRESI LINIER BERGANDA
Heterokedastisitas Model ARACH dan GARCH
Analisis Regresi Berganda
Uji Asumsi Klasik MULTIKOLINIERITAS 2. AUTOKORELASI
EKONOMETRIKA Pertemuan 11: Pengujian Asumsi-asumsi Klasik (Bagian 2)
ANALISIS REGRESI BERGANDA
EKONOMETRIKA Pertemuan 10: Pengujian Asumsi-asumsi Klasik (Bagian 1)
Uji Asumsi Klasik Multikolinearitas Normalitas
Program Studi Statistika Semester Ganjil 2012
Regresi Sederhana : Estimasi
Operations Management
Agribusiness Study of Programme Wiraraja University
EKONOMETRIKA Pertemuan 9: Pengujian Asumsi-asumsi Klasik (Bagian 1)
EKONOMETRIKA Pertemuan 9: Pengujian Asumsi-asumsi Klasik (Bagian 1)
Program Studi Statistika, semester Ganjil 2012/2013
EKONOMETRIKA Pertemuan 11: Pengujian Asumsi-asumsi Klasik (Bagian 2)
Operations Management
EKONOMETRIKA Pertemuan 4,5 Estimasi Parameter Model Regresi
Pengujian Asumsi OLS Aurokorelasi
Asumsi Non Autokorelasi galat
Disampaikan Pada Kuliah : Ekonometrika Terapan Jurusan Ekonomi Syariah
Agribusiness Study of Programme Wiraraja University
Uji Asumsi Analisis Regresi Berganda Manajemen Informasi Kesehatan
BAB 6 MULTIKOLINIERITAS
Uji Asumsi Model Part 1 – Deteksi Pelanggaran Asumsi*
UJI ASUMSI KLASIK Oleh: Dr. Suliyanto, SE,MM
Pertemuan 13 Autokorelasi.
Analisis Regresi Berganda & Pengujian Asumsi OLS
EKONOMETRIKA Pertemuan 11: Pengujian Asumsi-asumsi Klasik (Bagian 1)
Regresi Linier dan Korelasi
Transcript presentasi:

UJI ASUMSI KLASIK

Tujuan Pengajaran: Mengerti apa yang dimaksud dengan uji asumsi klasik Mengerti item-item asumsi Menjelaskan maksud item-item asumsi Menyebutkan nama-nama asumsi yang harus dipenuhi Mengerti apa yang dimaksud dengan autokorelasi

Mengerti apa yang dimaksud dengan Multikolinearitas Mengerti apa yang dimaksud dengan Heteroskedastisitas Mengerti apa yang dimaksud dengan Normalitas Menjelaskan timbulnya masalah-masalah dalam uji asumsi klasik

Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas Menyebutkan alat deteksi dari masalah-masalah tersebut

Menggunakan sebagian alat-alat deteksi Menjelaskan keterkaitan asumsi-asumsi Menjelaskan konsekuensi-konsekuensi dari Asumsi

asumsi-asumsi klasik Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE: (Best, Linear, Unbiased, Estimator.)

Gauss-Markov Theorem. BLUE: (Best, Linear, Unbiased, Estimator.) Adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem.

Best dimaksudkan sebagai terbaik Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil.

Linear Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel

Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.

10 asumsi yang menjadi syarat penerapan OLS, Gujarati (1995): Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e

Untuk model regresi: Y = a + bX + cX2 + e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).  Tepatnya bahwa nilai X adalah nonstochastic (tidak random).

Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).

Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas Variance……

Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap. nilai Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).

Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.

Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih. besar Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi.

Asumsi 8: Variabel X harus memiliki variabilitas Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.

Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.  

meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya.

Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti: uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.

Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.

A. Uji Autokorelasi

A.1. Pengertian autokorelasi Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain.

Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.

A.2. Sebab-sebab Autokorelasi   1. Kesalahan dalam pembentukan model, 2. Tidak memasukkan variabel yang penting. 3. Manipulasi data 4. Menggunakan data yang tidak empiris

A.3. Akibat Autokorelasi Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading). ( Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.)

1. Uji Durbin-Watson (DW Test).

dapat pula ditulis dalam rumus sebagai berikut:

DW test ini terdapat beberapa asumsi penting 1. Terdapat intercept dalam model regresi. 2. variabel penjelasnya tidak random (nonstochastics).

3. Tidak ada unsur lag dari variabel dependen di dalam model. 4. Tidak ada data yang hilang. 5. υ t = ρυ t −1 + ε t

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis. (H◦)erdapat autokorelasi positif, atau, terdapat autokorelasi negatif.  

Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW berada.

Jelasnya adalah sebagai berikut:  DW < dL = terdapat atokorelasi positif dL< DW <dU = tidak dapat disimpulkan (inconclusive) dU > DW >4-dU = tidak terdapat autokorelasi 4-dU < DW <4-dL = tidak dapat disimpulkan DW > 4-dL = terdapat autokorelasi negatif

Dimana: DW = Nilai Durbin-Watson d statistik dU = Nilai batas atas (didapat dari tabel) dL = Nilai batas bawah (didapat dari tabel)  

Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

Gambar 3.3.: Daerah Uji Durbin Watson

Bantuan dengan spss: 109-110

(α)=5%, N = 22 Prediktor : 2 batas atas (U) =1,54 sedang batas bawah (L) = 1,15. DW = 0,883

0,883 yang berarti lebih kecil dari nilai batas bawah, maka koefisien autokorelasi lebih kecil dari nol. Dengan demikian dapat disimpulkan bahwa hasil regresi tersebut belum terbebas dari masalah autokorelasi positif.

Dengan. kata. lain,. Hipotesis Dengan kata lain, Hipotesis nol (H◦) yang menyatakan tidak terdapat masalah autokorelasi dapat ditolak, sedang hipotesis nol (H◦) yang menyatakan terdapat masalah autokorelasi dapat diterima

Uraian di atas dapat pula dijelaskan dalam bentuk gambar sbb

B. Uji Normalitas Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.

Beberapa cara untuk melakukan uji normalitas, antara lain: 1. tendesi sentral (mean – median = 0) 2. Menggunakan formula Jarque Bera (JB test),

formula Jarque Bera (JB test),

dimana: S = Skewness (kemencengan) distribusi data K= Kurtosis (keruncingan)

Skewness

Kurtosis

Bantuan SPSS : Hal 115 - 116

  3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana.

Untuk menentukan posisi normal dari sebaran data, langkah. awal Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi.

SD1 = 68 % SD2 = 95% SD3 = 99,7 %

Sebanyak 68% dari observasi berada pada area SD1 Penentuan area ini penting, karena sebaran data yang dikatakan normal apabila tersebar sebagai berikut: Sebanyak 68% dari observasi berada pada area SD1 Sebanyak 95% dari sisanya berada pada area SD2 Sebanyak 99,7% dari sisanya berada pada area SD3

sebaran data yang dikatakan normal

Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris.

Lihat gambar berikut:  

Ilustrasi: Mean : 46 kg Sd = 5 kg 68% x 30 = 10: (41-46) kg

C. Uji Heteroskedastisitas   C.1. Pengertian Heteroskedastisitas Model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan (e) atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya

rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas

C.2. Konsekuensi Heteroskedastisitas 1. Sb menjadi bias 2. nilai b bukan nilai yang terbaik. 3. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.

Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.

C.3. Pendeteksian Heteroskedastisitas Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier Membandingkan sebaran data pada scatter plot

menggunakan uji Arch, e ² = a + bỶ ² + u . Cari R ² Kalikan R ² dengan n (sampel)/ R ² x n.

Jika R2 x N lebih besar dari chi-square (χ2) tabel, maka. standar Jika R2 x N lebih besar dari chi-square (χ2) tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (χ2) tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah homoskedastis.

Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series Karena dalam data cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu.

Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama.

D. Uji Multikolinieritas D.1. Pengertian Multikolinearitas Multikolinearitas: Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.

Sebagai gambaran penjelas,

D.2. Konsekuensi Multikolinearitas Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t  

D.3. Pendeteksian Multikolinearitas Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression,

pendapat Gujarati (1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius.

Gujarati juga menambahkan bahwa, apabila korelasi. antara Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius.

Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas.

Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan smempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.