Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

1 ANALISIS REGRESI Erni Tri Astuti Sekolah Tinggi Ilmu Statistik.

Presentasi serupa


Presentasi berjudul: "1 ANALISIS REGRESI Erni Tri Astuti Sekolah Tinggi Ilmu Statistik."— Transcript presentasi:

1 1 ANALISIS REGRESI Erni Tri Astuti Sekolah Tinggi Ilmu Statistik

2 2 X : Variabel bebas (Independent Variable) Y : Variabel tak bebas (Dependent Variable) arah hubungan : X  Y Syarat : Y: Berjenis data kuantitatif X: Berjenis data kuantitatif atau kualitatif/kategorik Analisis Regresi  Hubungan antar variabel

3 3 Jenis Hubungan Antar variabel  Hubungan Fungsional (Functional/Mathematical Relationships) y=f(x)  Hubungan Statistik (Statistical Relationships)

4 4 Jenis data untuk Y  Data Observasi diperoleh tanpa melakukan kontrol thd var. X  tdk kuat menyatakan cause-effect relationships  Data Eksperimen diperoleh dengan melakukan kontrol thd var. X  dapat menyatakan cause-effect relationships

5 5 Konsep Dasar:  Pada suatu nilai X tertentu akan tdp banyak kemungkinan nilai-nilai Y (Y akan terdistribusi mengikuti suatu fungsi peluang tertentu  Distribusi Normal) dengan Nilai rata-rata E(Y) dan Nilai varians  2 tertentu  Nilai rata-rata E(Y) diasumsikan berubah secara sistematik meng- ikuti perubahan nilai X, yg digambarkan dalam bentuk garis linier  Nilai varians  2 pada setiap nilai X akan sama

6 6 Prosedur dalam analisis regresi: 1. Identifikasi dan pembentukan model 2. Pendugaan parameter model 3. Pengujian keberartian parameter 4. Penilaian ketepatan model (goodness of fit) dan pemeriksaan asumsi

7 7 1.` Identifikasi Model  scatter plot Scatter plot (diagram pencar) umumnya berguna dalam mengidentifikasi model hubungan antara variabel X dan Y. Bila pencaran titik-titik pada plot ini menunjukkan adanya suatu kecenderung-an (trend) yang linier, maka model regresi linier layak digunakan.

8 8 Model Regresi Linier Sederhana Y i =  0 +  1 X i +  i (i = 1, 2, …, n) dimana : Y i : nilai dari variabel dependent pada observasi ke i  o dan  1 : parameter model  i : komponen error (pengaruh variabel bebas lain selain variabel X) X i : nilai variabel bebas X pada observasi ke i n : banyaknya data observasi (sampel) Note:  o dan  1 disebut juga koefisien regresi,  o merupakan intercept dan  1 merupakan slope (gradien garis) yang menyatakan perubahan nilai Y untuk setiap kenaikan satu satuan X

9 9 Asumsi (Kondisi yg harus dipenuhi): 1. Linieritas 2. Normalitas 3. Homoskedastisitas 4. Independensi (tidak ada autokorelasi) 5. Tdk ada Multikollinieritas (pada model rgresi berganda)

10 10 Pendugaan Parameter Model 2.  Metoda Kuadrat terkecil (Least squre Method)  meminimumkan jumlah kuadrat error  Penduga Parameter yang diperoleh :  Prediksi/estimasi untuk Y jika nilai X diketahui Residual (ei) :

11 11 3. Pengujian Keberartian Model Pengujian Keberartian  melakukan inferensia hasil sampel ke populasi (membuat estimasi/penduga interval dan pengujian hipotesis parameter) Penduga Interval untuk  o dengan tingkat keyakinan (1-  )100%: Penduga Interval untuk  1 dengan tingkat keyakinan (1-  )100%:

12 12  Uji Hipotesis Tentang  1 (T – test) a.H 0 :  1 = 0b.H 0 :  1 ≤ 0c. H 0 :  1 ≥ 0 H 1 :  1 ≠ 0H 1 :  1 > 0 H 1 :  1 < 0 Statistik Uji: Keputusanpada tingkat sign.  : Tolak H 0 jika a. b. c. Kesimpulan : Jika Ho ditolak, maka dengan tingkat kepercayaan (1-  )100%, terdapat hubungan yang linier antara variabel X dan variabel Y

13 13 Pendekatan ANOVA dalam Analisis Regresi  Dasar: Partisi dari Sum Squares Total (SST) dan derajat bebas SST = SSE + SSR df n – 1 = n –  Rumus untuk penghitungan

14 14 Ilustrasi Geometris Partisi Jumlah Kuadrat YiYi

15 15  Mean Squares (MS): SS dibagi dengan derajat bebasnya Tabel ANOVA untuk Regresi Linear Sederhana Source of Variation SSdfMSE{MS}F* Regression1MSR Errorn–2MSE Totaln–1

16 16  Anova tersebut dapat digunakan untuk menguji (F – Test) Hipotesisa : H 0 :  1 = 0 vs H 1 :  1 ≠ 0 Keputusan : Tolak H 0 jika F* > F (1-  ;1, n-2) Note : Equivalence of F Test and t Test Untuk  tertentu, Statistik Uji F* adalah equivalent dengan statistik uji t* dua arah F (1-  ;1, n-2) = t2 (  /2, n-2)

17 17 4. Penilaian Ketepatan Model (Goodness of Fit)  Koefisien Determinasi (R 2 ) Mengukur proporsi keragaman/variasi dari observasi Y yang dapat dijelaskan oleh garis regresinya atau variabel bebas yg digunakan. Nilainya: 0 ≤ R 2 ≤ 1, makin mendekati 1 berarti model regresi yg digunakan makin tepat/baik

18 18  Koefisien korelasi suatu ukuran yang menyatakan erat tidaknya hubungan linier yang ada antara variable X dan Y, nilai korelasi dirumuskan sebagai tanda positif atau negatif dari R sesuai dengan tanda positif atau negatif pada parameter  1

19 19 Various degrees of linear correlation

20 20 Various degrees of linear correlation

21 21 Pemeriksaan Asumsi:  Linieritas, plot antara nilai-nilai residual (e i ) dengan nilai-nilai X i, Jika pencaran titik yang terbentuk tersebar secara acak di sekitar nol, maka asumsi linieritas terpenuhi.  Normalitas, plot antara residual yang diurutkan e (i) dengan nilai harapannya E(e (i) ) (Normal Probability Plot) Jika pencaran titik-titik nya membentuk atau mendekati suatu garis linier maka asumsi kenormalan terpenuhi.  Homoskedastisitas, sama halnya seperti pada linieritas jika plot antara e i dengan X i menunjukkan pola yang acak, atau plot antara e i dengan Y i menunjukkan pola acak, maka asumsi kesamaan varians (homoske- dastisitas) terpenuhi

22 22  Independensi/Autokorelasi, sering terjadi terutama jika data yang digunakan untuk analisis regresi merupakan data time series. Autokorelasi dapat menimbulkan masalah serius terutama pada nilai penduga dari varians sample (MSE). Pemeriksaan dengan membuat plot antara e t (residual pada waktu ke t) dengan waktu (t), atau dengan statistik Durbin Watson  Multikollinieritas, adalah korelasi antar variabel bebas pada model regresi berganda. Pemeriksaan awal dengan mencari nilai korelasi antar peubah bebas atau dengan melihat nilai VIF (Variance Inflaction Factor).Nilai VIF yang besar (>5) mengindikasikan adanya multikollinieritas

23 23 Model Regresi Linier Berganda Secara umum model regresi berganda dengan p variable bebas adalah : Dengan: Yi : nilai variabel respons untuk obesrvasi ke i (i=1,2,..n)  j : nilai koefisien regresi ke j (j=0, 1,2, …,p) Xij : nilai variabel bebas ke j dari observasi ke i

24 24 Dalam Notasi Matriks:

25 25 Penduga Koefisien Regresi  Dengan metoda kuadrat terkecil, penduga untuk vector parameter :  Penduga untuk E(Y) Penduga error (residual)

26 26 Inferensia Koefisien Regresi Uji Parameter simultan (Uji F) Ho: atau H1: paling tidak ada satu

27 27 Uji Parameter simultan SST = Y’Y-1/n(Y’JY) ; J matriks satuan SSR=SST-SSE tolak Ho jika Fobs > F (p, n-p-1) atau significance p- value <  Jika Ho ditolak artinya paling tidak ada salah satu variable bebas yang memiliki hubungan linier dengan variabel Y. Dilanjutkan dengan uji parsial

28 28 Uji Parameter Parsial

29 29 Model Regresi Polynomial  Model Regresi Polynomial Ordo ke – r (1 variabel bebas)  Digunakan jika scatter plot menunjukkan pola yang tidak linier.  Untuk pendugaan dan pengujian parameter ekivalen dengan regresi berganda  Sebelum dilakukan pendugaan parameter, untuk menghindari multikolinieritas, dilakukan transformasi untuk nilai var bebas X : x i =X i -X

30 30 Variabel Bebas Kualitatif/Kategorik Dibuat Indicator variable/Dummy variabel  meng”kuantitatifkan” data kualitatif, dengan kode 0 atau 1 Bila satu variabel bebas memiliki k kategori, maka akan dibuat sebanyak (k-1) variabel indikator, yg masing2 bernilai 0 atau 1 Selanjutnya pendugaan dan pengujian parameter ekivalen dengan regresi berganda

31 31 PEMILIHAN MODEL REGRESI TERBAIK 1. Backward Elimination, tahap pertama akan memasukkan semua variable bebas X, kemudian secara bertahap akan mengeluarkan satu-persatu X yang tidak potensial. Prosedur seleksi akan terhenti bila dikeluarkannya suatu variable bebas tidak lagi secara significant mereduksi SSE atau menambah nilai R Forward Elimination, metoda ini bekerja berkebalikan dari metoda backward dan dimulai dengan memasukkan variabel bebas yang memiliki korelasi paling erat dengan variabel tak bebasnya (variabel yang paling potensial untuk memiliki hubungan linier dengan Y ). Kemudian secara bertahap memasukkan variabel bebas yang petensial berikutnya. Prosedur seleksi akan terhenti sampai tidak ada lagi variabel bebas yang potensial 3. Stepwise Elimination,. Metoda stepwise memiliki prosedur yang hampir sama dengan metoda forward, hanya saja bila suatu variabel bebas telah masuk pada satu tahapan, dapat saja pada tahapan berikutnya variabel tersebut dikeluarkan karena menjadi tidak potensial lagi dibandingkan dengan variabel yang masuk model setelahnya.


Download ppt "1 ANALISIS REGRESI Erni Tri Astuti Sekolah Tinggi Ilmu Statistik."

Presentasi serupa


Iklan oleh Google