Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan atau perbedaan variabel atau kasus yang dibandingkan Korelasi distances bisa digunakan untuk jenis data apapun
Misalkan kita ingin mengetahui kesamaan pengaruh, motivasi, iklim organisasi terhadap kinerja Misalkan dari penelitian diperoleh data sebagai berikut
Mengerjakan dengan korelasi distances, jangan menantai between variabel, Similarities, dan pada measures pilih Pearson correlation pilih pearson
Jangan lupa buat dulu rumusan masalahnya Berapa besar korelasi antara motivasi dengan kinerja Berapa besar korelasi antara Iklim Organisasi denan Kinerja Bagaimana kesamaan nilai korelasi antara motivasi dengan Iklim organisasi
Diperoleh hasil sbb
Dapat disimpulkan bahwa Korelasi antara motivasi dengan kinerja sangat kuat yaitu 0.949 Korelasi antara Iklim organisasi dengan kinerja juga sangat kuat yaitu 0.942 Jika dibandingkan antara hasil korelasi Motivasi dengan Kinerja dan antara Iklim organisasi dengan Kinerja, maka korelasinya sangat kuat. Jadi Motivasi dan Iklim organisasi mempunyai kesamaan dalam menentukan kinerja
KULIAH KE 10
TENTU SEBELUMNYA KITA BICARA REGRESI DAN KORELASI REMIDIAL DULU APA SYARAT KORELASI APA FUNGSI ANOVA DALAM REGRESI BAGAIMANA CARA UJI LINEARITAS KALAU TIDAK LINEAR DI APAKAN ??
SEBELUMNYA JUGA PERLU DIINGAT BILA DILAKUKAN UJI VALIDITAS DAN REALIABILITAS (BAGAIMANA CARA MELAKUKAN UJINYA) UNTUK APA GUNANYA UJI NORMALITAS DAN HOMOGENITAS DAN BAGAIMANA MELAKUKAN UJINYA INGAT TENTANG UJI ASUMSI DASAR LAINNYA
AUTOKORELASI MULTIKOLINEARITAS HETEROKEDASTISITAS
AUTOKORELASI Otokorelasi: korelasi antara variabel itu sendiri, pada pengamatan yang berbeda waktu atau individu. Umumnya kasus otokorelasi banyak terjadi pada data time series Kondisi sekarang dipengaruhi waktu lalu. Misal: Tinggi badan, upah, dsbnya. Salah satu alat deteksi: melihat pola hubungan antara residual (ui) dan variabel bebas atau waktu (X).
AUTOKORELASI Sebab-sebab terjadinya AUTOKORELASI antara lain adalah Dalam suatu model regresi asumsi yang harus dipenuhi adalah tidak adanya autokorelasi antara kesalahan pengganggu periode t dengan kesalahan pengganggu pada periode (t – 1) atau tidak ada serial korelasi. mestinya E(eie j) = 0 untuk i j Sebab-sebab terjadinya AUTOKORELASI antara lain adalah
(1) Kelambanan : Besar kemungkinan terjadi pada data historis (1) Kelambanan : Besar kemungkinan terjadi pada data historis. Perubahan situasi ekonomi biasanya tidak terjadi dengan segera, biasa lamban, dan tergantng besarnya pengaruh variabel-variabel yang ikut menentukan panjangnya siklus dan kecepatan perubahan; (2) Spesifikasi bias : Apabila dalam suatu model tidak mengikutsertakan suatu atau beberapa variabel, padahal variabel tersebut relevan, maka dapat menimbulkan AUTOKORELASI (penghilangan sejumlah variabel penjelas);
(3) Kesalahan spesifikasi bentuk model matematis yang dipilih sebagai model empiris : misalnya yang seharusnya model itu non linier, tetapi dipaksa secara linier, maka akan menimbulkan AUTOKORELASI pada kesa-lahan pengganggu; (4) Pengaruh time lag : apabila variabel dependen tidak hanya dipengaruhi oleh variabel independen, tetapi juga oleh variabel dependen pada periode sebelumnya.
Masihada penyebab lain, misalnya . Phenomena sarang laba-laba . Adanya manipulasi data Tapi ingat kebanyakan autokorelasi terjadi pada data runtun waktu (time series)
Akibat terjadinya autokorelasi 1.Interval konfidensi menjadi sangat lebar 2. Signifikansi tidak kuat 3. Variansi kesalahan variabel pengganggu S2 akan underestimate untuk 2 4. Penggunaan uji t atau F tidak lagi syah (valid) 5. dll
Pengujian AUTOKORELASI Cara untuk menguji apakah model tersebut bersifat Autokorelasi atau tidak, dapat dipergunakan Uji Durbin – Watson.
Untuk mendeteksi adanya AUTOKORELASI Durbin – Watson mempergunakan rumus : Cara pengujian : (a) Uji AUTOKORELASI positif, (b) Uji autokorlasi negatif, (c) Uji AUTOKORELASI dua sisi.
Uji AUTOKORELASI positif Durbin – Watson menyatakan bahwa apabila angka statistik d 0, maka ada AUTOKORELASI positif. Ho : Tidak ada AUTOKORELASI positif Ha : Ada AUTOKORELASI positif Dengan :
d < dL berarti d adalah bermakna (signifikan) sehingga d < dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis alternatif yang menyatakan ADA AUTOKORELASI positif. d > dU berarti d adalah tidak bermakna (tidak signifikan) sehingga menerima hipotesis nol yang menyatakan positif TIDAK ADA AUTOKORELASI dL < d < dU berarti pengujian tidak dapat memberikan keputusan (inconclusive --- ragu-ragu)
dU dL d tidak dapat memberikan keputusan ADA AUTOKORELASI positif TIDAK ADA AUTOKORELASI ADA AUTOKORELASI positif dL dU tidak dapat memberikan keputusan
Uji AUTOKORELASI negatif Pada kasus AUTOKORELASI negatif , pengujiannya adalah : d > 4 – dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis alternatif yang menyatakan ada AUTOKORELASI negatif. d < 4 – dU berarti d adalah tidak bermakna (tidak signi- fikan) sehingga menerima hipotesis nol yang menyatakan tidak ada AUTOKORELASI negatif. 4 – dU < d < 4 – dL berarti pengujian tidak dapat membe- rikan keputusan (inconclusive --- ragu-ragu)
4-dU 4-dL dU dL ????? tidak ada AUTOKORELASI negatif ADA AUTOKORELASI
Uji AUTOKORELASI dua sisi Pada kasus AUTOKORELASI uji dua sisi , pengujiannya adalah : d < dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis yang menyatakan ada AUTOKORELASI. d > 4 – dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis yang menyatakan ada AUTOKORELASI dU < d < 4 – dU berarti ?????
ADA AUTOKORELASI ADA AUTOKORELASI dU 4-dU dL 4-dL ?????
Statistik Durbin-Watson (D-W) Persamaan: Nilai kiraan mungkin di antara 0 dan 4. Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif Tidak tahu Tidak tahu Korelasi positif Tidak ada korelasi Korelasi negatif 0 dL dU 4-dU 4-dL 4 T. Ramayah Kaedah Penyelidikan Perniagaan
PANDUAN LAIN, uji Autokorelasi dan uji Kolinearitas dapat ditentukan dengan Durbin-Waltson (DW) sebagai berikut 1.65 < DW < 2.35 Tidak terjadi Autokorelasi 1.21 < DW < 1.65 atau 2.35 < DW < 2.79 Tidak dapat disimpulkan DW < 1.21 atau DW > 2.79 terjadi Autokorelasi
MENGATASI AUTOKORELASI Banyak cara yang dapat ditempuh tapi sangat memerlukan perhitungan matemati yang rumit, Cara yang agak sederhana yang dapat ditempuh adalah sebagai berikut : Pertama-tama hitung nilai yaitu : atau Yang kanan lebih banyak digunakan
Kemudian hitung nilai xi , yi yang baru dengan Rumus berikut Kemudian hitung lagi regresinya Sebetulnya banyak model lain Silakan baca buku
Untuk pengecekan dengan menggunakan SPSS Lakukan seperti mengerjakan Regresi dan jangan lupa mengklik boks statistik (Durbin-Watson)
KOLINEARITAS (multikolinearitas) ADANYA HUBUNGAN LINEAR YANG SEMPURNA ANTARA VARIABEL-VARIABEL BEBAS KOLINEARITAS BERARTI HUBUNGAN BERARTI HUBUNGAN LINEAR TUNGGAL. KOLINEARITAS GANDA (MULTIKOLINEARITAS) MENUNJUKKAN ADANYA LEBIH DARI SATU HUBUNGAN LINEAR YANG SEMPURNA
APABILA HANYA ADA 2 VARIABEL, INTER KORELASI DIUKUR DENGAN KOEFISIEN KORELASI SEDERHANA JIKA DUA VARIABEL ATAU LEBIH , INTERKORELASI DAPAT DI UKUR DENGAN KOEFISIEN KORELASI PARSIAL ATAU KOEFISIEN KORELASI BERGANDA ANTARA VARIABEL BEBAS DENGAN SISA VARIABEL LAINNYA
DALAM REGRESI LINEAR HARUS DIANGGAP BAHWA TIDAK ADA KOLINEARITAS GANDA DIANTARA VARIABEL BEBAS DENGAN ALASAN APABILA KOLINEARITAS SEMPURNA TERJADI PAPA A1X1 + A2X2 + . . .+ An Xn = 0, MAKA KOEFISIEN TIDAK DAPAT DITENTUKAN DAN STANTARD ERRORNYA MENJADI TAK HINGGA. TAPI KALAU PADA A1X1 + A2X2 + . . .+ An Xn +VI= 0 DENGAN VI = KESALAHAN PENGGANGGU, JUGA AKAN MEMPUNYAI STANTARD ERROR YANG TINGGI.
Pada prakteknya, hampir mustahil variabel-variabel yang benar-benar tidak berhubugan. Kita mau menunjukkan bahwa multikolinearitas tidak berpengaruh terhadap kemampuan persamaan regresi berganda untuk memprediksi variabel terikat. Jadi kita mesti mengurangi dampak dari multikolinearitas tersebut
UJI MULTIKOLINEARITAS (MENDETEKSI KOLINEARITAS GANDA) Multikolinieritas dapat dideteksi dengan menghitung koefisien korelasi ganda dan membandingkannya dengan koefisien korelasi antar variabel bebas. Sebagai contoh, diambil kasus regresi x1, x2, x3, x4 terhadap y. Pertama dihitung Ry, x1x2x3x4. Setelah itu, dihitung korelasi antar enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4. Apabila salah satu darikoefisien korelasi itu sangat kuat, maka dilanjutkan dengan menghitung koefisien korelasi ganda dari masing-masing variabel bebas dengan 3 variabel bebas lainnya, yaitu Rx1, x2x3x4; Rx2, x1x3x4; Rx3,x1x2x4; dan Rx4, x1x2x3. Apabila beberapa koefisien korelasi tersebut mendekati Ry, x1x2x3x4, maka dikatakan terjadi multikolinieritas.
Repot juga melakukan hal di atas Jika ada koefisien korelasi yang sangat tinggi, maka mesti dilanjutkan dengan menghitung Koefisien korelasi ganda antar variabel bebas Yaitu Rx1,x2x3x4 , Rx2, x1x3x4 Rx3,x1x2x4 Rx4,x1x2x3 Jika ada nilainya yang mendekati Ry,x1x2x3x4 maka berarti terjadi multikolinearitas Repot juga melakukan hal di atas
Kalau kita menggunakan faktor inflasi variansi VIF (Variance Inflation Factor) Dengan rj2 adalah koefisien determinasi, maka bila rj = 0.7, maka rj2 =0.49 sehingga 1 - rj2 = 0.51 yang mengakibatkan VIF < 2, itu sebanya jika nilai r terletak -0.7 r 0.7 di anggap tidak masalah untuk menggunakan variabel-variabel bebas tersebut Jika 0.7 < r 1, ada masalah kolinearitas
Uji multikolonieritas dengan SPSS dilakukan dengan uji regresi, dengan patokan nilai VIF (variance inflation factor) dan koefisien korelasi antar variabel bebas. Kriteria yang digunakan adalah: jika nila VIF di sekitar angka 1 atau memiliki toerance mendekati 1, maka dikatakan tidak terdapat masalah multikolinieritas dalam model regresi; jika koefisien korelasi antarvariabel bebas kurang dari 0,5, maka tidak terdapat masalah multikolinieritas.
Uji multikolinearitas, autokorelasi secara bersama-sama Lakukan regresi linear ,Pada statistik pilih Estimates Covariance matrik Model Fit Descriptives Colinearity diagnostic Dusbin-Watson Jangan lupa *SRESID Pada Y dan *ZPRED pada X Juga klik Normal Probability plot
Colinearity Diagnostic untuk pengecekan Muliticolinearity Durbin-Watson untuk pengecekan Autokorelasi Perhatikan hasilnya
Kalau kita ambil patokan -0. 7 r 0 Kalau kita ambil patokan -0.7 r 0.7 maka tidak ada masalah dengan multicolinearitas, tapi kalau dipilih r < 0.5, baru timbul masalah
Ingat kembali dengan patokan nilai VIF (variance inflation factor) dan koefisien korelasi antar variabel bebas. Kriteria yang digunakan adalah: jika nila VIF di sekitar angka 1 atau memiliki toerance mendekati 1, maka dikatakan tidak terdapat masalah multikolinieritas dalam model regresi; jika koefisien korelasi antarvariabel bebas kurang dari 0,5, maka tidak terdapat masalah multikolinieritas.
Karena nilai VIF semuanya berkisar di angka 1, maka dapat disimpulkan tidak ada masalah dengan multikolinearitas Alat ukur lain yaitu nilai tolerasi > 0.1 Dan nilai VIF < 10 (contoh lain lihat buku Nisfiannoor M hal 176-182)
Ingat kembali, uji Autokorelasi dan uji Kolinearitas dapat ditentukan dengan Durbin-Waltson (DW) sebagai berikut 1.65 < DW < 2.35 Tidak terjadi Autokorelasi 1.21 < DW < 1.65 atau 2.35 < DW < 2.79 Tidak dapat disimpulkan DW < 1.21 atau DW > 2.79 terjadi Autokorelasi
Statistik Durbin-Watson (D-W) Persamaan: Nilai kiraan mungkin di antara 0 dan 4. Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif 0 dl du 4 - du 4 - dl 4 Nilai 2 menunjukkan tiada autokorelasi manakala 0 dan 4 menunjukkan autokorelasi sempurna positif dan negatif T. Ramayah Kaedah Penyelidikan Perniagaan
DW = 2.269, jadi tidak masalah dg autokorelasi Yang terbaik, bandingkan nilai DW dengan tabel Durbin-Watson Jika nilai DW > nilai di tabel DW, maka tidak ada masalah dengan autokorelasi
Cara di atas, masih memberikan indikasi yang kurang jelas, untuk itu ada cara lain yang lebih kongkrit, yaitu dengan menggunakan uji korelasi (parsial)
Silakan coba data tadi dengan menggunakan uji korelasi parsial Jangan lupa memasukkan variabel Y pada variabel yang di kontrol Diperoleh hasil sebagai berikut
Mana diantara hubungan variabel yang sig < berarti terjadi multikolinearitas
MENGATASI KOLINEARITAS GANDA (MULITKOLINEARITAS) INGAT TIDAK SATUPUN CARA YANG TEPAT UNTUK MENGATASINYA. KARENA KOLINEARITAS GANDA MERUPAKAN PERSOALAN SAMPEL. HANYA ADA BEBERAPA ATURAN/CARA YANG DAPAT DITEMPUH
MISALKAN Y= a0 + a1X1 + a2X2 + I DENGAN : Y = KINERJA X1 = MOTIVASI X2 = IKLIM ORGANISASI TELAH ADA KAJIAN SEBELUMNYA BAHWA MOTIVASI DAN IKLIM ORGANISASI MEMPUNYAI KOLINEARITAS YANG TINGGI, SEHNGGA a2 = 0.2 a1 , MAKA ROBAH MODEL REKRESINYA MENJADI Y = a0 + a1X1 + 0.2a1X2 + I = a0 + aXI + I DENGAN XI = (X2 +0.2X3)
2. MENGGABUNGKAN DATA CROSS SECTION DAN BERKALA DATA PENAMPANG (CROSS SECTION ) ADALAH DATA YANG MENGAMBARKAN KEADAAN PADA SUATU WAKTU TERTENTU DATA BERKALA DATA YANG MENGGAMBARKAN PERKEMBANGAN DARI WAKTU KE WAKTU INGAT DATA BERKALA CENDERUNG AKAN MENGAKIBATKAN KORELASI YANG TINGGI
ampun MAU TAU RUMUS STAT NYA ROBAH MENJADI DENGAN Y* = LN Y - a2 Ln X2 Ln Y= a0 + a1LnX1 + a2 Ln X2 + I Y*= a0 + a1LnX + I
3. Mengeluarkan satu variabel atau lebih dan kesalahan spesifikasi Misalkan dari persamaan Y= a0 + a1X1 + a2X2 + I Keluarkan variabel X1 maka persamaannya menjadi Y= a0 + a2X2 + I Mesti memberikan alasan yang cukup mengapa X1 yang di keluarkan Ingat dengan menghilangkan salah satu var, akan terjadi kesalahan specifikasi
Hal di atas di lakukan jika Jika nila VIF > 10, maka dianggap bahwa kita mesti membuang variabel-variabel bebas tersebut Bisakah anda pikirkan berapakah nilai r sehingga nilai VIF > 10 ????
4. Transformasi variabel (ini banyak dilakukan untuk variabel data time series Yt = a0 + a1X1t + a2X2t + t Yt-1 = a0 + a1X1t-1 + a2X2t-1 + t Maka Yt - Yt-1 = a1(X1t -X1t-1 ) + a2 (X2t - X2t-1 )+Vt
5. Penambahan data baru Metoda ini yang paling sederhana untuk di gunakan
Mengatasi Multikolinearitas Sekarang metoda ini yang paling banyak digunakan Regresi ridge
Dengan regresi ridge Y = a0 + a1X1 + a2X2 + + anXn Di Transformasi menjadi : Y* = b0 + b1Z1 + b2Z2 + + bnZn Transformasi datanya menjadi :
HETEROSKEDASTISITAS SALAH SATU ASUMSI DASAR LAIN YANG PENTING UNTUK MODEL REGRESI KLASIK ADALAH ERROR (VAR PENGGANGGU) MEMPUNYAI VARIANSI YANG SAMA ARTINYA VAR (I) = E (I) = 2 INI DISEBUT DENGAN HOMOSKEDASDIK MASALAHNYA BAGAIMAN KALAU HAL DI ATAS
ILUSTRASI HETEROSKEDASTISITAS
PADAHAL DALAM KEADAAN MONOSKEDASTIK MESTILAH VAR (I) = E (I) = 2 KALAU TERJADI HETEROSKEDASTISITAS, MAKA BIAS AKAN TINGGI
MENDETEKSI HETEROKEDASTISITAS INGAT JUGA TIDAK ADA CARA/METODA YANG PASTI UNTUK MENDETEKSINYA MAKA YANG ADA HANYA ALTERNATIF UNTUK MENDETEKSINYA
BEBERAPA CARA MENDETEKSINYA SIFAT PERSOALAN METODA GRAFIK Curvelinier Tak tentu Curvelinier positif Curvelinier negatif
Pola Grafik Pengamatan: 1.Tidak adanya pola yang sistematis. ui2 , Pengamatan: 1.Tidak adanya pola yang sistematis. 2.Berapapun nilai Y prediksi, residual kuadratnya relatif sama. 3.Variansi konstan, dan data homoskedastis.
Pola Adanya Heteroskedastisitas ui2 ui2 Pola sistematis
3. Uji Park Prinsip: memanfaatkan bentuk regresi untuk melihat adanya heteroskedastisitas. Langkah-langkah yang dikenalkan Park: 1. Run regresi Yi = 0 + 0Xi + ui 2. Hitung ln ui2 3. Run regresi ln ui2 = + ln Xi + vi 4. Lakukan uji-t. Bila signifikan, maka ada heteroskedastisitas dalam data.
4. Uji Glejser Banyak rumus lain lagi
5. Uji korelasi rank spearman’s Dengan nilai t hitung adalah Hipotesa diterima jika th >tt
Kalau tak mampu juga dengan rumus di atas, lakukan dengan menggunakan SPSS Silakan di coba di rumah dan pada waktunya akan saya minta secara acak untuk mempresentasikannya
Atau perhatikan cara berikut Silakan masukka ke SPSS data yang akan anda lakukan uji Heterokedastisitas Analyz e Regresion linear dst Pindahkan variabel y ke dependent list dan variabel x ke faktor list. Selanjutnya, pilih kotak dialog plots, dan masukkan *SRESID ke Y dan *ZPRED ke X,
Uji multikolinearitas Multikolinearitas muncul ketika variabel-variabel bebasnya saling berkorelasi. Variabel-variabel bebas yang berkorelasi membuat kita sulit mengambil kesimpulan tentang masing-masing koefisien regresinya dan masing-masing dampaknya terhadap variabel terikat.
Regresi berjenjang Pertama-tama buat regresi linear sederhana dengan memilih variabel bebas yang korelasinya paling besar dengan variabel Y, Lanjutnya dengan menambahkan variabel bebas lainnya yang korelasinya paling besar ke 2 dst Buang variabel yang menyebabkan multikolinearitas (hati-hati memilihnya)
Cari dulu korelasi antara y dengan semua variabel bebas
<
korelasi antar enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4.