Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan.

Slides:



Advertisements
Presentasi serupa
Evaluasi Model Regresi
Advertisements

AUTOKORELASI (Autocorrelation)
UJI HIPOTESIS.
William J. Stevenson Operations Management 8 th edition PENYIMPANGANREGRESI Rosihan Asmara
Analisis Regresi Berganda & Pengujian Asumsi OLS
REGRESI LINIER.
BETYARNINGTYAS CYNTHIA LA SARIMA MUH Tabrani Nuri NURWAHIDA VIEVIEN
UJI ASUMSI KLASIK.
UJI MODEL Pertemuan ke 14.
UJI ASUMSI KLASIK.
Uji Asumsi Klasik Oleh : Boyke Pribadi.
Uji Asumsi Klasik Pada Regresi Dengan Metode Kuadrat Terkecil (OLS)
Regresi dengan Autokorelasi Pada Error
PEMBAHASAN Hasil SPSS 21.
BAB XIII REGRESI BERGANDA.
BAB VI REGRESI SEDERHANA.
UJI ASUMSI KLASIK.
Anas Tamsuri UJI STATISTIK UJI STATISTIK.
Contoh Perhitungan Regresi Oleh Jonathan Sarwono.
FEB Univ. 17 Agustus 1945 Jakarta
Richard Matias A.muh.Awal Ridha s Alfiani Nur Islami
MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA
FEB Univ. 17 Agustus 1945 Jakarta
ANALISIS REGRESI DAN KORELASI LINIER
Analisis Korelasi dan Regresi linier
UJI ASUMSI KLASIK & GOODNESS OF FIT MODEL REGRESI LINEAR
Uji Asumsi Klasik Heteroskedastisitas
Bab 4 Estimasi Permintaan
ANALISIS REGRESI DAN KORELASI BERGANDA
Pertemuan Ke-7 REGRESI LINIER BERGANDA
Asumsi Klasik (Multikolinieritas)
Muchdie, Ir, MS, Ph.D. FE-Uhamka
Analisis Regresi Berganda
Uji Asumsi Klasik MULTIKOLINIERITAS 2. AUTOKORELASI
EKONOMETRIKA Pertemuan 11: Pengujian Asumsi-asumsi Klasik (Bagian 2)
JURUSAN PENDIDIKAN EKONOMI
ANALISIS REGRESI BERGANDA
REGRESI LINEAR SEDERHANA
EKONOMETRIKA Pertemuan 10: Pengujian Asumsi-asumsi Klasik (Bagian 1)
STATISTIK II Pertemuan 12: Asumsi Analisis Regresi Dosen Pengampu MK:
Uji Asumsi Klasik Multikolinearitas Normalitas
Agribusiness Study of Programme Wiraraja University
EKONOMETRIKA Pertemuan 9: Pengujian Asumsi-asumsi Klasik (Bagian 1)
EKONOMETRIKA Pertemuan 9: Pengujian Asumsi-asumsi Klasik (Bagian 1)
ANALISIS DASAR DALAM STATISTIKA
ANALISIS REGRESI LINIER BERGANDA
Program Studi Statistika, semester Ganjil 2012/2013
EKONOMETRIKA Pertemuan 11: Pengujian Asumsi-asumsi Klasik (Bagian 2)
Operations Management
STATISTIK II Pertemuan 12-13: Asumsi Analisis Regresi
VALIDITAS DAN REABILITAS REGRESI BERGANDA Nori Sahrun, S.Kom., M.Kom
Asumsi Non Autokorelasi galat
REGRESI BERGANDA dan PENGEMBANGAN Nori Sahrun., S.Kom., M.Kom
Disampaikan Pada Kuliah : Ekonometrika Terapan Jurusan Ekonomi Syariah
Uji Asumsi Analisis Regresi Berganda Manajemen Informasi Kesehatan
STATISTIK II Pertemuan 13: Asumsi Analisis Regresi Dosen Pengampu MK:
BAB 6 MULTIKOLINIERITAS
Pengantar Aplikasi Komputer II Analisis Regresi Linier Berganda
Pengantar Aplikasi Komputer II
ANALISIS REGRESI & KORELASI
UJI ASUMSI KLASIK Oleh: Dr. Suliyanto, SE,MM
Pertemuan 13 Autokorelasi.
UJI ASUMSI KLASIK.
PRAKTIKUM STATISTIKA INDUSTRI
UJI AUTOKORELASI ARIF GUNAWAN PENGERTIAN Dwi Priyanto (2009:61) Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual untuk.
Analisis Regresi Berganda & Pengujian Asumsi OLS
EKONOMETRIKA Pertemuan 11: Pengujian Asumsi-asumsi Klasik (Bagian 1)
Regresi Linier dan Korelasi
BAB VIII REGRESI &KORELASI BERGANDA
Analisis Regresi Regresi Linear Berganda
Transcript presentasi:

Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan atau perbedaan variabel atau kasus yang dibandingkan Korelasi distances bisa digunakan untuk jenis data apapun

Misalkan kita ingin mengetahui kesamaan pengaruh, motivasi, iklim organisasi terhadap kinerja Misalkan dari penelitian diperoleh data sebagai berikut

Mengerjakan dengan korelasi distances, jangan menantai between variabel, Similarities, dan pada measures pilih Pearson correlation pilih pearson

Jangan lupa buat dulu rumusan masalahnya Berapa besar korelasi antara motivasi dengan kinerja Berapa besar korelasi antara Iklim Organisasi denan Kinerja Bagaimana kesamaan nilai korelasi antara motivasi dengan Iklim organisasi

Diperoleh hasil sbb

Dapat disimpulkan bahwa Korelasi antara motivasi dengan kinerja sangat kuat yaitu 0.949 Korelasi antara Iklim organisasi dengan kinerja juga sangat kuat yaitu 0.942 Jika dibandingkan antara hasil korelasi Motivasi dengan Kinerja dan antara Iklim organisasi dengan Kinerja, maka korelasinya sangat kuat. Jadi Motivasi dan Iklim organisasi mempunyai kesamaan dalam menentukan kinerja

KULIAH KE 10

TENTU SEBELUMNYA KITA BICARA REGRESI DAN KORELASI REMIDIAL DULU APA SYARAT KORELASI APA FUNGSI ANOVA DALAM REGRESI BAGAIMANA CARA UJI LINEARITAS KALAU TIDAK LINEAR DI APAKAN ??

SEBELUMNYA JUGA PERLU DIINGAT BILA DILAKUKAN UJI VALIDITAS DAN REALIABILITAS (BAGAIMANA CARA MELAKUKAN UJINYA) UNTUK APA GUNANYA UJI NORMALITAS DAN HOMOGENITAS DAN BAGAIMANA MELAKUKAN UJINYA INGAT TENTANG UJI ASUMSI DASAR LAINNYA

AUTOKORELASI MULTIKOLINEARITAS HETEROKEDASTISITAS

AUTOKORELASI Otokorelasi: korelasi antara variabel itu sendiri, pada pengamatan yang berbeda waktu atau individu. Umumnya kasus otokorelasi banyak terjadi pada data time series Kondisi sekarang dipengaruhi waktu lalu. Misal: Tinggi badan, upah, dsbnya. Salah satu alat deteksi: melihat pola hubungan antara residual (ui) dan variabel bebas atau waktu (X).

AUTOKORELASI Sebab-sebab terjadinya AUTOKORELASI antara lain adalah Dalam suatu model regresi asumsi yang harus dipenuhi adalah tidak adanya autokorelasi antara kesalahan pengganggu periode t dengan kesalahan pengganggu pada periode (t – 1) atau tidak ada serial korelasi. mestinya E(eie j) = 0 untuk i  j Sebab-sebab terjadinya AUTOKORELASI antara lain adalah

(1) Kelambanan : Besar kemungkinan terjadi pada data historis (1) Kelambanan : Besar kemungkinan terjadi pada data historis. Perubahan situasi ekonomi biasanya tidak terjadi dengan segera, biasa lamban, dan tergantng besarnya pengaruh variabel-variabel yang ikut menentukan panjangnya siklus dan kecepatan perubahan; (2) Spesifikasi bias : Apabila dalam suatu model tidak mengikutsertakan suatu atau beberapa variabel, padahal variabel tersebut relevan, maka dapat menimbulkan AUTOKORELASI (penghilangan sejumlah variabel penjelas);

(3) Kesalahan spesifikasi bentuk model matematis yang dipilih sebagai model empiris : misalnya yang seharusnya model itu non linier, tetapi dipaksa secara linier, maka akan menimbulkan AUTOKORELASI pada kesa-lahan pengganggu; (4) Pengaruh time lag : apabila variabel dependen tidak hanya dipengaruhi oleh variabel independen, tetapi juga oleh variabel dependen pada periode sebelumnya.

Masihada penyebab lain, misalnya . Phenomena sarang laba-laba . Adanya manipulasi data Tapi ingat kebanyakan autokorelasi terjadi pada data runtun waktu (time series)

Akibat terjadinya autokorelasi 1.Interval konfidensi menjadi sangat lebar 2. Signifikansi tidak kuat 3. Variansi kesalahan variabel pengganggu S2 akan underestimate untuk 2 4. Penggunaan uji t atau F tidak lagi syah (valid) 5. dll

Pengujian AUTOKORELASI Cara untuk menguji apakah model tersebut bersifat Autokorelasi atau tidak, dapat dipergunakan Uji Durbin – Watson.

Untuk mendeteksi adanya AUTOKORELASI Durbin – Watson mempergunakan rumus : Cara pengujian : (a) Uji AUTOKORELASI positif, (b) Uji autokorlasi negatif, (c) Uji AUTOKORELASI dua sisi.

Uji AUTOKORELASI positif Durbin – Watson menyatakan bahwa apabila angka statistik d  0, maka ada AUTOKORELASI positif. Ho : Tidak ada AUTOKORELASI positif Ha : Ada AUTOKORELASI positif Dengan :

d < dL berarti d adalah bermakna (signifikan) sehingga d < dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis alternatif yang menyatakan ADA AUTOKORELASI positif. d > dU berarti d adalah tidak bermakna (tidak signifikan) sehingga menerima hipotesis nol yang menyatakan positif TIDAK ADA AUTOKORELASI dL < d < dU berarti pengujian tidak dapat memberikan keputusan (inconclusive --- ragu-ragu)

dU dL d tidak dapat memberikan keputusan ADA AUTOKORELASI positif TIDAK ADA AUTOKORELASI ADA AUTOKORELASI positif dL dU tidak dapat memberikan keputusan

Uji AUTOKORELASI negatif Pada kasus AUTOKORELASI negatif , pengujiannya adalah : d > 4 – dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis alternatif yang menyatakan ada AUTOKORELASI negatif. d < 4 – dU berarti d adalah tidak bermakna (tidak signi- fikan) sehingga menerima hipotesis nol yang menyatakan tidak ada AUTOKORELASI negatif. 4 – dU < d < 4 – dL berarti pengujian tidak dapat membe- rikan keputusan (inconclusive --- ragu-ragu)

4-dU 4-dL dU dL ????? tidak ada AUTOKORELASI negatif ADA AUTOKORELASI

Uji AUTOKORELASI dua sisi Pada kasus AUTOKORELASI uji dua sisi , pengujiannya adalah : d < dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis yang menyatakan ada AUTOKORELASI. d > 4 – dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis yang menyatakan ada AUTOKORELASI dU < d < 4 – dU berarti ?????

ADA AUTOKORELASI ADA AUTOKORELASI dU 4-dU dL 4-dL ?????

Statistik Durbin-Watson (D-W) Persamaan: Nilai kiraan mungkin di antara 0 dan 4. Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif Tidak tahu Tidak tahu Korelasi positif Tidak ada korelasi Korelasi negatif 0 dL dU 4-dU 4-dL 4 T. Ramayah Kaedah Penyelidikan Perniagaan

PANDUAN LAIN, uji Autokorelasi dan uji Kolinearitas dapat ditentukan dengan Durbin-Waltson (DW) sebagai berikut 1.65 < DW < 2.35 Tidak terjadi Autokorelasi 1.21 < DW < 1.65 atau 2.35 < DW < 2.79 Tidak dapat disimpulkan DW < 1.21 atau DW > 2.79 terjadi Autokorelasi

MENGATASI AUTOKORELASI Banyak cara yang dapat ditempuh tapi sangat memerlukan perhitungan matemati yang rumit, Cara yang agak sederhana yang dapat ditempuh adalah sebagai berikut : Pertama-tama hitung nilai  yaitu : atau Yang kanan lebih banyak digunakan

Kemudian hitung nilai xi , yi yang baru dengan Rumus berikut Kemudian hitung lagi regresinya Sebetulnya banyak model lain Silakan baca buku

Untuk pengecekan dengan menggunakan SPSS Lakukan seperti mengerjakan Regresi dan jangan lupa mengklik boks statistik (Durbin-Watson)

KOLINEARITAS (multikolinearitas) ADANYA HUBUNGAN LINEAR YANG SEMPURNA ANTARA VARIABEL-VARIABEL BEBAS KOLINEARITAS BERARTI HUBUNGAN BERARTI HUBUNGAN LINEAR TUNGGAL. KOLINEARITAS GANDA (MULTIKOLINEARITAS) MENUNJUKKAN ADANYA LEBIH DARI SATU HUBUNGAN LINEAR YANG SEMPURNA

APABILA HANYA ADA 2 VARIABEL, INTER KORELASI DIUKUR DENGAN KOEFISIEN KORELASI SEDERHANA JIKA DUA VARIABEL ATAU LEBIH , INTERKORELASI DAPAT DI UKUR DENGAN KOEFISIEN KORELASI PARSIAL ATAU KOEFISIEN KORELASI BERGANDA ANTARA VARIABEL BEBAS DENGAN SISA VARIABEL LAINNYA

DALAM REGRESI LINEAR HARUS DIANGGAP BAHWA TIDAK ADA KOLINEARITAS GANDA DIANTARA VARIABEL BEBAS DENGAN ALASAN APABILA KOLINEARITAS SEMPURNA TERJADI PAPA A1X1 + A2X2 + . . .+ An Xn = 0, MAKA KOEFISIEN TIDAK DAPAT DITENTUKAN DAN STANTARD ERRORNYA MENJADI TAK HINGGA. TAPI KALAU PADA A1X1 + A2X2 + . . .+ An Xn +VI= 0 DENGAN VI = KESALAHAN PENGGANGGU, JUGA AKAN MEMPUNYAI STANTARD ERROR YANG TINGGI.

Pada prakteknya, hampir mustahil variabel-variabel yang benar-benar tidak berhubugan. Kita mau menunjukkan bahwa multikolinearitas tidak berpengaruh terhadap kemampuan persamaan regresi berganda untuk memprediksi variabel terikat. Jadi kita mesti mengurangi dampak dari multikolinearitas tersebut

UJI MULTIKOLINEARITAS (MENDETEKSI KOLINEARITAS GANDA) Multikolinieritas dapat dideteksi dengan menghitung koefisien korelasi ganda dan membandingkannya dengan koefisien korelasi antar variabel bebas. Sebagai contoh, diambil kasus regresi x1, x2, x3, x4 terhadap y. Pertama dihitung Ry, x1x2x3x4. Setelah itu, dihitung korelasi antar enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4. Apabila salah satu darikoefisien korelasi itu sangat kuat, maka dilanjutkan dengan menghitung koefisien korelasi ganda dari masing-masing variabel bebas dengan 3 variabel bebas lainnya, yaitu Rx1, x2x3x4; Rx2, x1x3x4; Rx3,x1x2x4; dan Rx4, x1x2x3. Apabila beberapa koefisien korelasi tersebut mendekati Ry, x1x2x3x4, maka dikatakan terjadi multikolinieritas.

Repot juga melakukan hal di atas Jika ada koefisien korelasi yang sangat tinggi, maka mesti dilanjutkan dengan menghitung Koefisien korelasi ganda antar variabel bebas Yaitu Rx1,x2x3x4 , Rx2, x1x3x4 Rx3,x1x2x4 Rx4,x1x2x3 Jika ada nilainya yang mendekati Ry,x1x2x3x4 maka berarti terjadi multikolinearitas Repot juga melakukan hal di atas

Kalau kita menggunakan faktor inflasi variansi VIF (Variance Inflation Factor) Dengan rj2 adalah koefisien determinasi, maka bila rj = 0.7, maka rj2 =0.49 sehingga 1 - rj2 = 0.51 yang mengakibatkan VIF < 2, itu sebanya jika nilai r terletak -0.7  r  0.7 di anggap tidak masalah untuk menggunakan variabel-variabel bebas tersebut Jika 0.7 < r  1, ada masalah kolinearitas

Uji multikolonieritas dengan SPSS dilakukan dengan uji regresi, dengan patokan nilai VIF (variance inflation factor) dan koefisien korelasi antar variabel bebas. Kriteria yang digunakan adalah: jika nila VIF di sekitar angka 1 atau memiliki toerance mendekati 1, maka dikatakan tidak terdapat masalah multikolinieritas dalam model regresi; jika koefisien korelasi antarvariabel bebas kurang dari 0,5, maka tidak terdapat masalah multikolinieritas.

Uji multikolinearitas, autokorelasi secara bersama-sama Lakukan regresi linear ,Pada statistik pilih Estimates Covariance matrik Model Fit Descriptives Colinearity diagnostic Dusbin-Watson Jangan lupa *SRESID Pada Y dan *ZPRED pada X Juga klik Normal Probability plot

Colinearity Diagnostic untuk pengecekan Muliticolinearity Durbin-Watson untuk pengecekan Autokorelasi Perhatikan hasilnya

Kalau kita ambil patokan -0. 7  r  0 Kalau kita ambil patokan -0.7  r  0.7 maka tidak ada masalah dengan multicolinearitas, tapi kalau dipilih r < 0.5, baru timbul masalah

Ingat kembali dengan patokan nilai VIF (variance inflation factor) dan koefisien korelasi antar variabel bebas. Kriteria yang digunakan adalah: jika nila VIF di sekitar angka 1 atau memiliki toerance mendekati 1, maka dikatakan tidak terdapat masalah multikolinieritas dalam model regresi; jika koefisien korelasi antarvariabel bebas kurang dari 0,5, maka tidak terdapat masalah multikolinieritas.

Karena nilai VIF semuanya berkisar di angka 1, maka dapat disimpulkan tidak ada masalah dengan multikolinearitas Alat ukur lain yaitu nilai tolerasi > 0.1 Dan nilai VIF < 10 (contoh lain lihat buku Nisfiannoor M hal 176-182)

Ingat kembali, uji Autokorelasi dan uji Kolinearitas dapat ditentukan dengan Durbin-Waltson (DW) sebagai berikut 1.65 < DW < 2.35 Tidak terjadi Autokorelasi 1.21 < DW < 1.65 atau 2.35 < DW < 2.79 Tidak dapat disimpulkan DW < 1.21 atau DW > 2.79 terjadi Autokorelasi

Statistik Durbin-Watson (D-W) Persamaan: Nilai kiraan mungkin di antara 0 dan 4. Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif 0 dl du 4 - du 4 - dl 4 Nilai 2 menunjukkan tiada autokorelasi manakala 0 dan 4 menunjukkan autokorelasi sempurna positif dan negatif T. Ramayah Kaedah Penyelidikan Perniagaan

DW = 2.269, jadi tidak masalah dg autokorelasi Yang terbaik, bandingkan nilai DW dengan tabel Durbin-Watson Jika nilai DW > nilai di tabel DW, maka tidak ada masalah dengan autokorelasi

Cara di atas, masih memberikan indikasi yang kurang jelas, untuk itu ada cara lain yang lebih kongkrit, yaitu dengan menggunakan uji korelasi (parsial)

Silakan coba data tadi dengan menggunakan uji korelasi parsial Jangan lupa memasukkan variabel Y pada variabel yang di kontrol Diperoleh hasil sebagai berikut

Mana diantara hubungan variabel yang sig <  berarti terjadi multikolinearitas

MENGATASI KOLINEARITAS GANDA (MULITKOLINEARITAS) INGAT TIDAK SATUPUN CARA YANG TEPAT UNTUK MENGATASINYA. KARENA KOLINEARITAS GANDA MERUPAKAN PERSOALAN SAMPEL. HANYA ADA BEBERAPA ATURAN/CARA YANG DAPAT DITEMPUH

MISALKAN Y= a0 + a1X1 + a2X2 + I DENGAN : Y = KINERJA X1 = MOTIVASI X2 = IKLIM ORGANISASI TELAH ADA KAJIAN SEBELUMNYA BAHWA MOTIVASI DAN IKLIM ORGANISASI MEMPUNYAI KOLINEARITAS YANG TINGGI, SEHNGGA a2 = 0.2 a1 , MAKA ROBAH MODEL REKRESINYA MENJADI Y = a0 + a1X1 + 0.2a1X2 + I = a0 + aXI + I DENGAN XI = (X2 +0.2X3)

2. MENGGABUNGKAN DATA CROSS SECTION DAN BERKALA DATA PENAMPANG (CROSS SECTION ) ADALAH DATA YANG MENGAMBARKAN KEADAAN PADA SUATU WAKTU TERTENTU DATA BERKALA DATA YANG MENGGAMBARKAN PERKEMBANGAN DARI WAKTU KE WAKTU INGAT DATA BERKALA CENDERUNG AKAN MENGAKIBATKAN KORELASI YANG TINGGI

ampun MAU TAU RUMUS STAT NYA ROBAH MENJADI DENGAN Y* = LN Y - a2 Ln X2 Ln Y= a0 + a1LnX1 + a2 Ln X2 +  I Y*= a0 + a1LnX + I

3. Mengeluarkan satu variabel atau lebih dan kesalahan spesifikasi Misalkan dari persamaan Y= a0 + a1X1 + a2X2 + I Keluarkan variabel X1 maka persamaannya menjadi Y= a0 + a2X2 + I Mesti memberikan alasan yang cukup mengapa X1 yang di keluarkan Ingat dengan menghilangkan salah satu var, akan terjadi kesalahan specifikasi

Hal di atas di lakukan jika Jika nila VIF > 10, maka dianggap bahwa kita mesti membuang variabel-variabel bebas tersebut Bisakah anda pikirkan berapakah nilai r sehingga nilai VIF > 10 ????

4. Transformasi variabel (ini banyak dilakukan untuk variabel data time series Yt = a0 + a1X1t + a2X2t + t Yt-1 = a0 + a1X1t-1 + a2X2t-1 + t Maka Yt - Yt-1 = a1(X1t -X1t-1 ) + a2 (X2t - X2t-1 )+Vt

5. Penambahan data baru Metoda ini yang paling sederhana untuk di gunakan

Mengatasi Multikolinearitas Sekarang metoda ini yang paling banyak digunakan Regresi ridge

Dengan regresi ridge Y = a0 + a1X1 + a2X2 + + anXn Di Transformasi menjadi : Y* = b0 + b1Z1 + b2Z2 + + bnZn Transformasi datanya menjadi :

HETEROSKEDASTISITAS SALAH SATU ASUMSI DASAR LAIN YANG PENTING UNTUK MODEL REGRESI KLASIK ADALAH ERROR (VAR PENGGANGGU) MEMPUNYAI VARIANSI YANG SAMA ARTINYA VAR (I) = E (I) = 2 INI DISEBUT DENGAN HOMOSKEDASDIK MASALAHNYA BAGAIMAN KALAU HAL DI ATAS

ILUSTRASI HETEROSKEDASTISITAS

PADAHAL DALAM KEADAAN MONOSKEDASTIK MESTILAH VAR (I) = E (I) = 2 KALAU TERJADI HETEROSKEDASTISITAS, MAKA BIAS AKAN TINGGI

MENDETEKSI HETEROKEDASTISITAS INGAT JUGA TIDAK ADA CARA/METODA YANG PASTI UNTUK MENDETEKSINYA MAKA YANG ADA HANYA ALTERNATIF UNTUK MENDETEKSINYA

BEBERAPA CARA MENDETEKSINYA SIFAT PERSOALAN METODA GRAFIK Curvelinier Tak tentu Curvelinier positif Curvelinier negatif

Pola Grafik Pengamatan: 1.Tidak adanya pola yang sistematis. ui2 , Pengamatan: 1.Tidak adanya pola yang sistematis. 2.Berapapun nilai Y prediksi, residual kuadratnya relatif sama. 3.Variansi konstan, dan data homoskedastis.

Pola Adanya Heteroskedastisitas ui2 ui2 Pola sistematis

3. Uji Park Prinsip: memanfaatkan bentuk regresi untuk melihat adanya heteroskedastisitas. Langkah-langkah yang dikenalkan Park: 1. Run regresi Yi = 0 + 0Xi + ui 2. Hitung ln ui2 3. Run regresi ln ui2 =  +  ln Xi + vi 4. Lakukan uji-t. Bila  signifikan, maka ada heteroskedastisitas dalam data.

4. Uji Glejser Banyak rumus lain lagi

5. Uji korelasi rank spearman’s Dengan nilai t hitung adalah Hipotesa diterima jika th >tt

Kalau tak mampu juga dengan rumus di atas, lakukan dengan menggunakan SPSS Silakan di coba di rumah dan pada waktunya akan saya minta secara acak untuk mempresentasikannya

Atau perhatikan cara berikut Silakan masukka ke SPSS data yang akan anda lakukan uji Heterokedastisitas Analyz e Regresion linear dst Pindahkan variabel y ke dependent list dan variabel x ke faktor list. Selanjutnya, pilih kotak dialog plots, dan masukkan *SRESID ke Y dan *ZPRED ke X,

Uji multikolinearitas Multikolinearitas muncul ketika variabel-variabel bebasnya saling berkorelasi. Variabel-variabel bebas yang berkorelasi membuat kita sulit mengambil kesimpulan tentang masing-masing koefisien regresinya dan masing-masing dampaknya terhadap variabel terikat.

Regresi berjenjang Pertama-tama buat regresi linear sederhana dengan memilih variabel bebas yang korelasinya paling besar dengan variabel Y, Lanjutnya dengan menambahkan variabel bebas lainnya yang korelasinya paling besar ke 2 dst Buang variabel yang menyebabkan multikolinearitas (hati-hati memilihnya)

Cari dulu korelasi antara y dengan semua variabel bebas

<

korelasi antar enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4.