Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA

Presentasi serupa


Presentasi berjudul: "MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA"— Transcript presentasi:

1 MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA
Analisis Regresi Dr. Herman S. MBA MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA

2 ANALISIS REGRESI ANALISIS REGRESI ADALAH SUATU CARA STATISTIK UNTUK MELAKUKAN ESTIMASI (PERKIRAAN) MENGENAI HUBUNGAN, ANTARA DEPENDENT VARIABEL DAN SATU ATAU LEBIH VARIABEL INDEPENDENT LAINNYA SECARA KUANTITATIF.

3 ANALISIS REGRESI Analisis Regresi adalah adalah teknik analisis statistik dan modeling yang paling sering digunakan. Secara umum, menggunakan sebuah model response variable (Y) sebagai fungsi dari satu atau lebih variabel penggerak (X1, X2, ..., Xp). Hubungannya dapat dinyatakan sebagai berikut: Simpel Regression: bila terdapat satu variabel independent , Yi = 0 + 1X, atau Multipel atau multivariate Regression: bila terdapat lebih dari satu variabel independent, Yi = 0 + 1X1i + 2X2i pXpi + 

4 Symbol  pada Analisis Regresi
Symbol error () term adalah suatu “random error term” dan dapat menggambarkan adanya variabel lain yang belum dimasukan dalam hubungan tersebut.

5 Asumsi-asumsi () term pada Analisis Regresi
Error berdistribusi secara normal Mean = expected value = 0 Variance 2 = constant, untuk setiap waktu dan setiap X, tidak bergantung pada variabel yang ada. Error independent satu dengan lainnya

6 Scatter plots Analisis Regresi memerlukan data kuantitatif (interval atau ratio). Jika menggunakan variabel kategori (tipe nominal atau ordinal) maka perlu diubah ke bentuk numerik dengan memberi value, misal 1=pria, 2=wanita. Untuk melihat apakah data yang ada cocok dengan model regresi, sebaiknya lakukan analisis scatter plot. Kenapa? Analisis Regresi menggunakan asumsi hubungan yang linear. Jika hubungannya kuadratik atau tidak ada kaitannya maka menjadi tidak tepat.

7 Tipe hubungan

8 Contoh Sales = 0 + 1 (Advertising)
Hubungan antara penjualan dan advertising: advertising dapat merupakan independent variable dan sales sebagai dependent variable. Pertama, carilah data untuk menganalisis hubungan antara sales and advertising, lalu buatlah model Sales = 0 + 1 (Advertising) Setelah melakukan estimasi 0 dan 1 ,kemudian kita lihat hubungan antara ramalan penjualan dan tingkat advertising. Berapa banyak penjualann yang akan kita hasilkan jika kita melakukan advertising sejumlah biaya tertentu.

9 Scatter plot Gambar disamping menunjukkan hubungan yang linear.
Berkorelasi positif. Kenaikan jumlah sarjana meningkatkan jumlah pendapatan perkapita.

10 Regression Line Regression line adalah suatu garis lurus yang sangat baik untuk menjelaskan keterkaitan antar titik dan dapat digunakan untuk menjelaskan hubungan antar variabel. Jika semua titik2 berada sepanjang garis lurus kita memiliki mean 0 berarti relationshipnya sempurna.

11 Hal-hal yang perlu diperhatikan
Regressi fokus pada hubungan, bukan penyebab. Hubungan/keterkaitan adalah prasyarat penting untuk menduga penyebab, tetapi juga: Variabel independent waktunya harus mendahului variabel dependent. Kedua variabel secara teoritis harus memiliki keterkaitan, Pertentangan antara variabel independent harus dihilangkan.

12 ASUMSI ANALISIS REGRESI LINEAR
Distribusi data adalah normal dan hubungan antara variabel dependen dengan masing2 variabel independent adalah linear. Tidak adanya multikolinearites, heteroskesdastisitas, dan autokorelasi pada model regresi.

13 Tabel Regresi Koefisien regresi bukanlah indikator yang baik untuk menunjukkan kekuatan suatu hubungan. Dua scatter plots dengan penyebaran yang sangat berbeda dapat menghasilkan garis regresi yang sama.

14 Koefisien Regresi Koefisien regresi adalah kemiringan garis regresi yang menunjukkan pola hubungan antar variabel. Berapa besar perubahan variabel2 independent dikaitkan dengan besarnya perubahan yang terjadi pada variabel dependent. Semakin besar perubahan koefisien regresi semakin besar perubahannya.

15 Pearson’s r Untuk memperkirakan keeratan hubungan antar variabel cluster dari suatu regresi dapat digunakan r Pearson. Semakin besar hubungannya semakin tinggi. Pearson’s r dinyatakan dalam range -1 sampai + 1, dimana 0 artinya tidak memiliki hubungan linear sama sekali.

16 KOEFISIEN KORELASI PEARSON
-1 -0,25 0,25 1 -0,75 0,75 ERAT ERAT negatif positif

17 Korelasi

18 Analisis Regresi Pendugaan terhadap koefisien regresi:
b0 penduga bagi 0 dan b1 penduga bagi 1 Metode Kuadrat Terkecil Bagaimana Pengujian terhadap model regresi ?? parsial (per koefisien)  uji-t bersama  uji-F (Anova) Bagaimana menilai kesesuaian model ?? R2 (Koef. Determinasi: % keragaman Y yang mampu dijelaskan oleh X)

19 Membaca Tabel Ketika kita run suatu analisi regresi dengan SPSS akan diperoleh 3 tabel. Masing2 tabel menjelaskan tentang keterkaitan yang ada. Yang pertama adalah Model Summary. R adalah koefisien korelasi Product Moment Pearson Untuk contoh ini R adalah .736 R square menunjukkan besarnya pengaruh variabel independen terhadap variabel dependent.

20 R-Square R-Square adalah variansi proporsi dari variabel dependent (income per capita) yang dapat diprediksi variabel independent (level of education).  Hasil ini menunjukkan bahwa 54.2% dari variabel pendapatan dapat diprediksi dari variabel pendidikan.  Catatan: ini merupakan pengukuran secara umum terhadap tingkat kekuatan hubungan, dan tidak menggambarkan tingkat pengaruh yang khusus antara variabel independent terhadap variabel dependent.  R-Square disebut juga sebagai koefisien keterkaitan.

21 Adjusted R-square Sebagai predictors tambahan dari suatu model, masing2 predictor akan menerangkan beberapa variansi dari suatu variabel dependen karena suatu perubahan.  Kita dapat tetap menambahkan predictors kedalam model untuk meningkatkan kemampuan predictor menjelaskan variabel dependen, meskipun beberapa kenaikan R-square dapat disebabkan oleh variasi sampel.  Adjusted R-square merupakan usaha untuk mendapatkan nilai yang lebih mendekati keadaan sebenarnya untuk mengestimasi R-squared untuk suatu populasi.   Nilai R-square .542, sementara nilai Adjusted R-square adalah Tidak ada perbedaan yang berarti karena hanya pengamatan pada satu variabel independent.  Ketika jumlah pengamatan kecil dan jumlah prediktor besar, maka akan ada perbedaan yang besar pada R-square &adjusted R-square. Sebalimnya, jika jumlah pengamatan sangat besar dibandingkan dengan jumlah prediktor, nilai dari R-square dan adjusted R-square akan mendekati sama.

22 ANOVA p-value dikaitkan dengan F value adalah sangat kecil (0.0000).
Nilai/values ini digunakan untuk menjawab pertanyaan “apakah variabel independent dapat dipercaya untuk memprediksi variable dependent?".  p-value dibandingkan terhadap alpha level (biasanya 0.05) dan, jika lebih kecil, dapat disimpulkan bahwa “Ya, variabel2 independent dapat dipercaya untuk memprediksi variable dependent".  Jika p-value lebih besar dari 0.05, dapat disimpulkan bahwa variabel2 independent secara statistik tidak memiliki hubungan yang signifikan dengan dependent variable, atau grup variabel independent tersebut tidak dapat reliabel untuk memprediksi dependent variable. 

23 Coefficients B – adalah nilai dari persamaan regresi untuk memprediksi keterkaitan antara variabel independent terhadap variabel dependent.  Disebut unstandardized coefficients karena diukur berdasarkan unit sebenarnya.  Juga, koefisien B tidak dapat dibandingkan satu dengan yang lainnya untuk memperkirakan nyang mana yang lebih berpengaruh dalam suatu model, karena komponen tersebut diukur dengan skala yang berbeda.  

24 Coefficients Tabel ini memperlihatkan dua variabel dan menunjukkan bagaimana perbedaan dari nilai B. Oleh karena itu perlu dilihat standardized Beta untuk melihat perbedaannya.

25 Coefficients Beta – sebagai standardized coefficients.
Koefisien ini yang diperoleh jika semua variabel distandarkan dengan regresi baik dependent maupun independent variabel, dan run regresi.  Dengan menstandarkan variablel2 sebelum running regresi, kita menempatkan semua variabel pada skala yang sama , dan kita dapat membandingkan besaran koefisien untuk melihat mana yang memiliki pengaruh yang lebih besar. Dapat juga dilihat bahwa semakin besar beta semakin besar t-values.

26 Level anlisis Regressi dari Education oleh Income per capita
Konversi b ke Beta Level anlisis Regressi dari Education oleh Income per capita

27 Bagian Persamaan Regresi
b menggambarkan kemiringan garis Diperoleh dengan perbandingan antara perubahan variabel dependent oleh perubahan variabel independent. Residual adalah perbedaan antara nilai aktual Y dan jumlah perhitungan. Residual menggambarkan besarnya kesalahan prediksi nilai y dari masing2 fungsi X.

28 Perbandingan dua variabel
Analisis Regresi bermanfaat untuk membandingkan dua variabel apakah pengendalian suatu variabel independent mempengaruhi model yang ada. Untuk model variabel independent pertama, pendidikan, argumenya adalah penduduk semakin terdidik akan mendapatkan pembayaran yang lebih tinggi dalam pekerjaan, menghasilakan tingkat pendapatan perkapita yang semakin tinggi. Variabel independent kedua juga sama karena harapan mendapatkan pekerjaan dengan pembayaran yang lebih baik, dan selanjutnya mendapat kesempatan yang lebih besar untuk tinggal dikota dari pada di desa.

29 Single Multiple Regression

30 Contoh: Dik Data Delivery Time

31 Scatter Plot

32 Scatter Plot

33 Scatter Plot

34 Langkah-langkah Analisis Regresi dengan SPSS
Klik ganda icon SPSS pada desktop atau klik pada start menu untuk mengaktifkan program SPSS Setalah muncul kotak dialog SPSS for Windows maka klik Cancel (kalau ingin membuat data baru) Pada halaman SPSS data editor klik Variable View Untuk memasukkan variable langkah sebagai berikut : Ketik y pada kolom Name, pada Label ketik VAR independent (Y), dan pada kolom Measure pilih Scale Pada kolom Name dibawahnya ketik x1, pada Label ketik Var dependen 1 (X1), dan pada kolom Measure pilih Scale Padakolom Name dibawahnya ketik x2, pada Label ketik Var dependen 2 (X2), dan pada kolom Measure pilih Scale (Utk 2 var independent) Pada kolom Name dibawahnya ketik x3, pada Label ketik Var dependen 3 (X3), dan pada kolom Measure pilih Scale (Utk 2 var independent) Kolom-kolom lainnya biarkan isian default Setalah selesai memasukkan variable maka selanjutnya klik Data View Isikan data y, x1,x2 dan x3 sesuai dengan variabelnya

35 Langkah-langkah Analisis Regresi dengan SPSS
Setelah selesai mengisikan data maka selanjutnya klik : Analyze  Regression  Linear Setelah itu kemudian akan terbuka kotak dialog Linear Regression. Pindahkan variabel (Y) ke kotak Dependent, kemudian pindahkan variabel (X1), (X2), dan (X3) ke kotak Independen. Klik tombol Statistics, selanjutnya akan terbuka kotak dialog Linear Regression Statistics. Pilih Collinearity diagnostics untuk menguji multikolinearitas, dan pilih Durbin-Watson untuk menguji autokorelasi. Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya. Untuk uji heteroskedastisitas maka klik Plots terbuka, selanjutnya kotak dialog Linear Regression : Plots terbuka, masukkan *ZRESID (Standardized Residual) ke kotak Y, dan masukkan *ZPRED (Standardized Predicted Value) ke kotak X. Selanjutnya pilih Normal probability plot untuk uji normalitas. Klik Continue, selanjutnya akan kembali ke kotak dialog sebelumnya. Klik OK.

36 Melakukan Regresi

37 Melakukan Regresi

38 Output Regresi

39 Diagnosa Regresi Residual Analysis Normal Probability Plot
Gunakan deteksi Normality of Error Plot Residual terhadap Fitted Value Deteksi adanya Heteroscedasticity Plot of Residual terhadap Regressors Gunakan Linearity of Regressors

40 Construction of Residual Plots

41 The Normal Probability Plot

42 Plot Residuals terhadap Fitted Value

43 Autokorelasi Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual untuk pengamatan satu dengan pengamatan lain yang disusun menurut runtun waktu.Model regresi yang baik adalah mensyaratkan tidak adanya masalah autokorelasi. Dampak yang diakibatkan dengan adanya autokorelasi yaitu varian sampel tidak dapat menggambarkan varian populasinya. Untuk mendeteksi ada tidaknya autokorelasi dengan dilakukan uji Durbin-Watson dengan prosedur sebagai berikut : Menentukan hipotesis nol dan hipotesis alternatif H0 : tidak terjadi autokorelasi Ha : Terjadi autokorelasi b. Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05 c. Menentukan nilai d (Durbin-Watson) d. Menentukan nilai dL dan dU Nilai dL dan dU dapat dilihat pada table Durbin-Watson pada signifikansi 0,05, n = 24 (misal) dan k = 3 (misal) ( n adalah julah data dan k adalah jumlah variable independen ). Didapat dL = 1,101 dan dU = 1,656. Jadi dapat dihitung nilai 4-dU = 2,344 dan 4-dL = 2,899. Pengambilan keputusan dU < d < 4-dU maka H0 diterima ( tidak terjadi autokorelasi ) d < dL atau d > 4-dL maka H0 ditolak (terjadi autokorelasi ) dL < d < dL atau 4-dU < d < 4-dL maka tidak ada kesimpulan

44 Menghilangkan Autocorrelation
Autocorrelation dapat dihilangkan dengan menggunakan pemodelan

45 Contoh – Lanjutan

46 Menghilangkan Autocorrelation

47 Creation of Lagged Variable

48 Menghilangkan Autokorelasi

49 Contoh – Lanjutan

50 Hubungan Linear atau mendekati Linear diantara variables independent.
Multicollinearity Hubungan Linear atau mendekati Linear diantara variables independent. Jika hubungannya sempurna maka parameter tidak memungkinkan menggunakan metoda Classical Least Squares.

51 Multicollinearity Multikolinearitas adalah keadaan dimana antara dua variable independen atau lebih pada model regresi terjadi hubungan linier yang sempurna atau mendekati sempurna. Model regresi yang baik mensyaratkan tidak adanya masalah Multikolinearitas. Dampak yang diakibatkan dengan adanya Multikolinearitas antara lain yaitu : Nilai standart error untuk masing-masing koefisien menjadi tinggi, sehingga t hitung menjadi rendah Standart error of estimate akan semakin tinggi dengan bertambahnya variabel independen Pengaruh masing-masing variable independen sulit dideteksi Untuk mendeteksi ada tidaknya multikolinearitas dengan melihat nilai tolerance dan VIF. Semakin kecil nilai tolerance dan semakin besar VIF maka semakin mendekati terjadinya masalah multikolinearitas. Dalam kebanyakan penelitian menyebutkan bahwa jika tolerance lebih dari 0,1 dan VIF kurang dari 10 maka tidak terjadi multikolinearitas. Dari table coefficients dapat diketahui bahwa nilai Tolerance dari ketiga variable independen lebih dari 0,1 dan VIF kurang dari 10, jadi dapat disimpulkan bahwa dalam model regresi tidak terjadi masalah multikolinearitas.

52 Diagnosis Regresi : Multicollinearity

53 Contoh – Lanjutan

54 Contoh – Lanjutan

55 Contoh – Lanjutan

56 Contoh - Lanjutan

57 Uji F Uji F atau uji koefisien regresi secara serentak, yaitu untuk mengetahui pengaruh variabel independen secara serentak terhadap variabel dependen, apakah pengaruhnya signifikan atau tidak. Tahap-tahap pengujian sebagai berikut : Menentukan hipotesis nol dan hipotesis alternative H0 : b1 = b2 = b3 = b4 = 0 Artinya variabel independent (x1, x2, dan x3)secara serentak tidak berpengaruh terhadap Penjualan Ha : b1 ≠ b2 ≠ b3 ≠ b4 ≠ 0 Artinya variabel independen secara serentak berpengaruh terhadap Penjualan Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05 F hitung dan F kritis F hitung adalah nilai F hasil hitungan SPSS (lihat table ANOVA) F kritis dapat dicari pada table statistic pada signifikansi 0,05 df1 = k-1 atau 4-1 = 3, dan df2 = n-k atau 24-4 = 20 (k adalah jumlah variabel). Didapat F kritis adalah 3,098 (misal) Cara lain mencari F kritis yaitu menggunakan program Ms Excel. Pada cell kosong ketik FINV (0,05,3,20) kemudian tekan Enter Pengambilan keputusan F hitung < F kritis jadi H0 diterima F hitung > F kritis jadi H0 ditolak Bila F hitung > F table, hipotesis nol ditolak, kesimpulannya yaitu var independent secara secara serentak berpengaruh terhadap var dependen

58 Uji T Uji t untuk mengetahui pengaruh variabel independen secara parsial terhadap variabel dependen, apakah pengaruhnya signifikan atau tidak. Pengujian b1 (x1) Tahap-tahap pengujian sebagai berikut : Menetukan hipotes nol dan hipotesis alternatif H0 : b1 = 0 Artinya var independen (x1)tidak berpengaruh terhadap var dependen (Y) Ha : b1 ≠ 0 Artinya X1 berpengaruh terhadap Y Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,005 t hitung dan t kritis t hitung dapat dilihat pada table Coefficients t kritis dapat dicari pada table statistik pada signifikansi 0,05/2 = 0,025 (uji 2 sisi) dengan df = n-k-1 atau = 20 (k adalah jumlah variabel independen). Didapat t kritis adalah 2,086. Cara lain mencari t kritis yaitu menggunakan program Excel. Pada cell kosong ketik TINV (0.05,20) kemudian tekan Enter Pengambilan keputusan Kalau t hitung < t kritis jadi H0 diterima, t hitung > t kritis jadi H0 ditolak Bila diketahui bahwa t hitung > kritis, hipotesis nol ditolak, kesimpulannya yaitu X1 berpengaruh terhadap Y.

59 Uji Normalitas Syarat dalam analisi parametric yaitu distribusi data harus normal. Pengujian menggunakan uji Kolmogorov-Smirnov ( Analisis Explore ) untuk mengetahui apakah distribusi data pada tiap-tiap variable normal atau tidak. Langkah-langkah analisis explore adalah sebagai berikut : a) Klik Analyze Descriptive Statistics Explore Setelah itu akan terbuka kotak dialog Explore. Pindahkan semua variable ke kotak Dependent List. Pada Display pilih Plots b) Klik tombol Plots, selanjutnya akan terbuka kotak dialog Explore : Plots. Pilih Normality plots with test. c) Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya. d) Klik OK Kriteria pengambilan keputusan yaitu jika signifikansi > 0,05 maka data berdistribusi normal, dan jika Signifikansi < 0,05 maka data tidak berdistribusi normal. Kriteria pengambilan keputusan yaitu sebagai berikut : Jika data menyebar disekitar garis diagonal dan mengikuti arah diagonal, maka model regresi memenuhi asumsi normalitas. Jika data menyebar jauh dari garis diagonal atau tidak mengikuti arah diagonal, maka model regresi tidak memenuhi asumsi normalitas.

60 Tabel Durbin Watson Dengan Tingkat Signifikansi 0.05
dL dU 10 0.879 1.320 0.697 1.641 0.525 2.016 11 0.927 1.324 0.658 1.604 0.595 1.928 12 0.971 1.331 0.812 1.579 1.864 13 1.010 1.340 0.861 1.562 0.715 1.816 14 1.045 1.350 0.905 1.551 0.767 1.779 15 1.077 1.361 0.946 1.543 0.814 1.750 16 1.106 1.371 0.982 1.539 0.857 1.728 17 1.133 1.381 1.015 1.536 0.897 1.710 18 1.158 1.391 1.046 1.535 0.933 1.696 19 1.180 1.401 1.074 0.967 1.685 20 1.210 1.411 1.100 1.537 0.998 1.676 21 1.221 1.420 1.125 1.538 1.026 1.669 22 1.239 1.429 1.147 1.541 1.053 1.664 23 1.257 1.437 1.168 1.078 1.660 24 1.273 1.446 1.188 1.546 1.101 1.656 25 1.288 1.454 1.206 1.550 1.123 1.654 26 1.302 1.461 1.224 1.553 1.143 1.652 27 1.316 1.469 1.240 1.556 1.162 1.651 28 1.328 1.476 1.255 1.560 1.181 1.650 29 1.341 1.483 1.270 1.563 1.198 30 1.352 1.489 1.284 1.567 1.214

61 TERIMA KASIH


Download ppt "MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA"

Presentasi serupa


Iklan oleh Google