Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

ANALISIS REGRESI BERGANDA

Presentasi serupa


Presentasi berjudul: "ANALISIS REGRESI BERGANDA"— Transcript presentasi:

1 ANALISIS REGRESI BERGANDA
Prof. Dr. H. Wahyu Widada, M.Pd. The Professor of Mathematics Education PROGRAM DOKTOR ILMU PENDIDIKAN FKIP-UNIVERSITAS BENGKULU 2017

2 ASUMSI KLASIK MULTIKOLINIERITAS: Diperlukan untuk mengetahui ada-tidaknya variable independen yang memiliki kemiripan antar variable dalam suatu model. Gunakan Uji VIF, jika hasilnya 1 < VIF < 10, maka tidak terjadi multi kolinieritas. AUTOKORELASI: untuk mengetahui ada-tidaknya korelasi antara variable pengganggu pada periode tertentu dengan variable sebelumnya. Gunakan nilai Durbin Watson (dl dan du), dengan kriteria du < d hitung < 4-du; du ditentukan dengan menggunakan Tabel Durbin Watson, du = (k, n) dengan k: banyaknya variable independen dan dependen; n: banyaknya sampel. HETEROSKENDASTISITAS: menguji terjadinya perbedaan variance residual suatu periode pengamatan ke periode pengamatan yang lain. Lihat Scatterplot: Titik-titik data menyebar di atas dan di bawah atau di sekitae angka nol. Titik-titik data tidak mengumpul hanya di atas atau di bawah saja. Penyebaran titik-titik data tidak boleh berpola gelombang melebar kmd menyempit di sekitar angka 0. Penyebaran titik-titk data tidak berpola.

3 UJI ASUMSI KLASIK SPSS Analyze - Regression – Linier;
Var Dependen ke Kotak Dependent dan Var Independen ke Kotak Independent. Klik Statistic  Estimates, Model Fit, Collinearity Diagnostics, Durbin Watson  Continue Klik Plot masukkan Dependent ke Kotak Y dan ZPRED ke kotak X Continue dan OK.

4

5 . . . . . Yi = 0 + 1 Xi + i i X Y X1 X2 X3 E(Yi) = 0 + 1 Xi X Y
. . Ÿi = b0 + b1 Xi Yi Ÿi i X Y Yi = 0 + 1 Xi i Variation in Y Systematic Variation Random Variation X1 X2 X3 E(Yi) = 0 + 1 Xi X Y Yi = 0 + 1 Xi + i Nilai rata2 Yi : E(Yi) = 0 + 1 Xi I = Yi - E(Yi)

6 Model Regresi Linier Berganda
Asumsi-asumsi Model Regresi Linier Berganda (Agar hasil estimasi dapat diinterpretasikan dengan baik - BLUE) Nilai rata-rata disturbance term adalah nol, E(i) = 0. Tidak tdpt serial korelasi (otokorelasi) antar i Cov(i,j) = 0 untuk i  j. Sifat homoskedastisitas: Var(i) = 2 sama utk setiap i  Kesalahan Pengganggu Mempunyai Varian Sama Covariance antara i dan setiap var bebas adalah nol. Cov(i,Xi) = 0 Tidak tdpt multikolinieritas antar variebel bebas. Model dispesifikasi dengan baik

7 MODEL REGRESSI LINIER BERGANDA
Model yg memperlihatkan hubungan antara satu variable terikat (dependent variable) dgn beberapa variabel bebas (independent variables). Yi = 0 + 1 X1i + 2 X2i + … + k Xki + i dimana: i = 1, 2, 3, …. N (banyaknya pengamatan) 0, 1, 2, …, k adalah parameter yang nilainya diduga melalui model: Yi = b0 + b1 X1i + b2 X2i + … + bk Xki

8 0 dan 1 : parameter dari fungsi yg nilainya akan diestimasi.
Bersifat stochastik  untuk setiap nilai X terdapat suatu distribusi probabilitas seluruh nilai Y atau Nilai Y tidak dapat diprediksi secara pasti karena ada faktor stochastik i yang memberikan sifat acak pada Y. Adanya variabel i disebabkan karena:  Ketidak-lengkapan teori  Perilaku manusia yang bersifat random  Ketidak-sempurnaan spesifikasi model  Kesalahan dalam agregasi  Kesalahan dalam pengukuran

9 Yi = b1 + b2 X2i + b3 X3i + … + bk Xki
Koefisien Regresi Partial (Partial Coefficient of Regression) Sampel : Yi = b1 + b2 X2i + b3 X3i + … + bk Xki Yi = b b12.3 X2i + b13.2 X3i + … + bk Xki b1.23 = intercept, titik potong antara garis regresi dengan sumbu tegak Y Nilai perkiraan rata-rata Y kalau X2 = X3 = 0 b12.3 = Besarnya pengaruh X2 terhadap Y kalau X2 tetap

10 Yi = Hasil Belajar (perkiraan atau ramalan) X2 = Kecerdasan Emosional
Yi = b b12.34 X2i + b13.24 X3i + b14.23 X4 Misalnya: Yi = Hasil Belajar (perkiraan atau ramalan) X2 = Kecerdasan Emosional X3 = Kecerdasan Intelektual X4 = Kecerdasan Spiritual JUDUL: Faktor-faktor Kecedasan yang Mempengaruhi Hasil Belajar Siswa SD Bengkulu Tengah

11 UJI HIPOTESIS Analyze - Regression – Linier;
Var Dependen ke Kotak Dependent dan Var Independen ke Kotak Independent. Klik Statistic  Estimates, Model Fit, Collinearity Diagnostics  Continue Klik Plot masukkan ZPRED ke Kotak Y dan ZRESID ke kotak X Continue dan OK.

12 Interpretasi Persamaan Regresi Berganda
Yi = b b12.3 X2i + b13.2 X3i +  E (Yi /X2,X3) = b b12.3 X2i + b13.2 X3i b13.2 mengukur besarnya perubahan Y kalau X3 Berubah sebesar satu satuan, dimana X2 konstan Yi ei ui X Xi Y SRF PRF ^

13 Metode Ordinary Least Squares (OLS)
Estimasi Koefisien Regresi Parsial Metode Ordinary Least Squares (OLS) Prinsip: Meminimumkan nilai error – mencari jumlah penyimpangan kuadrat (i2) terkecil. i = Yi - 0 - 1 Xi i2 = (Yi - 0 - 1 Xi)2 i2 =  (Yi - 0 - 1 Xi)2 i2 minimum jika: i2 /0 = 0  2 (Yi - 0 - 1 Xi) = 0 i2 /1 = 0  2  Xi (Yi - 0 - 1 Xi) = 0

14 Sederhanakan, maka didapat:
 (Xi – X) (Yi – Y) b1 =  (Xi – X)2 b0 = Y - b1X dimana b0 dan b1 nilai penduga untuk 0 dan 1. X dan Y adlh nilai rata2 pengamatan X dan Y

15 REGRESI LINIER BERGANDA Model: Yi = 0 + 1 X1i + 2 X2i + i
ESTIMASI MODEL REGRESI LINIER BERGANDA Model: Yi = 0 + 1 X1i + 2 X2i + i Model penduga: Ŷi = b0 + b1 X1i + b2 X2i b0, b1 dan b2 nilai penduga untuk 0, 1 dan 2. (yi x1i) (x22i ) – (yi x2i) (x1i x2i) b1 = (x21i ) (x22i ) – (x1i x2i)2 (yi x2i) (x21i ) – (yi x1i) (x1i x2i) b2 = (x21i ) (x22i ) – (x1i x2i)2 b0 = Yi – b1X1i – b2 X2i

16 Standard error of the estimates
Var(2) = 2 /  Xi2   Se(2) = Var(2) = =  Xi  Xi2  Xi2 Var(1) = 2 n  xi2 Se(1) = Var(1) = 2  i2 2 =  i2 =  yi2 – 22  xi2 n – 2  (xi yi) 2 =  yi2 –  xi2

17 i2 = y2i – b1 yi x1i – b2 yi x2i
ESTIMASI MODEL REGRESSI LINIER BERGANDA X21 x22i – X22 x21i – 2 X1 X2 x1i x2i var(b0) = 2 n (x21i ) (x22i ) – (x1i x2i)2 x21i var(b1)= (x21i )(x22i ) – (x1i x2i)2 se(bi) = var(bi) Utk i = 0, 1, 2. 2 x21i var(b1)= (x21i )(x22i ) – (x1i x2i)2 2 i2 2 = n – 3 i2 = y2i – b1 yi x1i – b2 yi x2i

18 Koefisien Determinasi
1 + 2 Xi Y RSS TSS TSS = RSS + ESS ESS RSS 1 = TSS TSS  (Ŷi - Y)  i2 =  (Yi - Y)  (Yi - Y)2 ESS Y X ESS  (Ŷi - Y)2 r2 = = TSS  (Yi - Y)2 atau ESS  i2 = 1 – = 1 – TSS  (Yi - Y)2 Atau:  xi2 r2 = 22  yi2  (xi yi) 2 =  xi2  yi2

19 Koefisien Korelasi

20


Download ppt "ANALISIS REGRESI BERGANDA"

Presentasi serupa


Iklan oleh Google