Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

S1 STATISTIKA UNPAD I GEDE NYOMAN MINDRA JAYA

Presentasi serupa


Presentasi berjudul: "S1 STATISTIKA UNPAD I GEDE NYOMAN MINDRA JAYA"— Transcript presentasi:

1 S1 STATISTIKA UNPAD I GEDE NYOMAN MINDRA JAYA
ANALISIS REGRESI S1 STATISTIKA UNPAD I GEDE NYOMAN MINDRA JAYA

2 Materi Analisis Regresi Sederhana Analisis Regresi Multipel
Kriteria Pemilihan Model Terbaik Analisis Residual Diagnostik Pengamatan Berpengaruh Pelanggaran Asumsi Klasik dan Transformasi

3 Buku Bacaan Weisberg, S Applied Linear Regression, 3th. John Wiley & Son Mayers Raymond H Classical And Modern Regression With Applications, 2ed, Virginia Polytechnic Institute and State University. Boston Sembiring, R.K. Analisis Regresi Edisi Kedua, Penerbit ITB Gujarati, 1999, Ekonometrika Dasar, Penerbit Erlangga, Jakarta

4 Komponen Penilaian Komponen Penilaian : KEJUJURAN : 100% Tugas : 15%
Kuis : 15% UTS : 35% UAS : 35%

5 “Scientific Research is systematic, controlled, empirical and critical investigation of natural phenomena guided by theory and hypotheses about the presumed relations among such phenomena (Kerlinger, 1986)”

6 REGRESI ATAU KORELASI ???? APA BILA PENGUKURAN/PENGAMATAN TERHADAP OBJEK YANG MENJADI PERHATIAN ADA DUA ATAU LEBIH (SETIAP HASIL ADALAH PASANGAN DUA ATAU LEBIH), MAKA DUA HAL YANG MENARIK UNTUK DIPERHATIKAN ADALAH : 1. BAGAIMANA ERATNYA HUBUNGAN 2. BAGAIMANA BENTUK HUBUNGAN

7 ASAL SEJARAH Isitah “Regresi”
Francis Galton (Law of Universal Regression) : Ada kecenderungan bagi orang tua yang tinggi mempunyai anak-anak yang tinggi dan bagi orang tua yang pendek untuk mempunyai anak-anak yang pendek, distribusi tinggi suatu populasi tidak berubah secara mencolok dari generasi-kegenerasi. Karl Pearson Rata-rata tinggi anak laki-laki dari kelompok ayah tinggi lebih rendah dari rata-rata tinggi ayah sedangkan kelompok anak laki-laki dari kelompok ayah pendek lebih tinggi dari rata-rata tinggi ayahnya. “Kemunduran (regress) ke arah sedang”

8 Hubugan Tinggi Ayah Dengan Tinggi Anak Laki-Laki

9 PENAFSIRAN MODERN REGRESI
Analisis Regresi berkenan dengan studi ketergantungan satu variabel, variabel tak bebas (response variable), pada satu atau lebih variabel lain, variabel yang menjelaskan (explanatory variables), dengan maksud menaksir dan atau meramalkan nilai rata-rata hitung (mean) atau rata-rata (populasi) variabel tak bebas, dipandang dari segi nilai yang diketahu atau tetap (dalam pengambilan sampel berulang) variabel yang menjelaskan (yang belakangan)

10 Contoh 1. Hubungan Umur dengan Tinggi

11 Contoh 2. Ahli ekonomi perburuhan mungkin ingin memperlajari tingkat perubahan upah dalam uang (money wage) dalam hubungannya dengan tingkat pengangguran.

12 Contoh 3. Seorang ahli agronomi mungkin tertarik untuk mempelajari ketergantungan hasil panen padi pada suhu, curah hujan, intensitas cahaya, dan pupuk.

13 TUJUAN PENGGUNAAN ANALISIS REGRESI
PREDIKSI SELEKSI VARIABEL SPESIFIKASI MODEL ESTIMASI PARAMETER

14 KETERGANTUNGAN STATISTIK Vs FUNGSIONAL
REGRESI = KETERGANTUNGAN STATISTIK Y=X+  REGRESI ≠ KETERGANTUNGAN FUNGSIONAL luas=p x l STATISTIK =STOKHASTIK FUNGSIONAL=DETERMINISTIK

15 REGRESSION AND CAUSATION
REGRESI ≠ CAUSATION Kendal dan Stuart : “Suatu hubungan statistik, bagaimanapun kuat dan sugestif, tidak pernah dapat menetapkan hubungan sebag akibat : gagasan kita mengenai sebab akibat harus datang dari luar statistik, pada akhirnya dari beberapa teori atau lainnya. Syarat berbicara PENGARUH : Korelasi yang kuat antara variabel Timer Order Dukungan Teori Kontrol

16 REGRESI VS KORELASI REGRESI = POLA HUBUNGAN → PREDIKSI NILAI RESPON Y : STOKASTIK X : FIXED KORELASI = KUAT HUBUGAN ANTARA VARIABEL SEMUA STOKASTIK

17 SOFTWARE R Sofware MyStat OpenStat EXCEL SPSS MINITAB STATISTICA, dll

18 ANALISIS REGRESI LINIER SEDERHANA
Sebuah Ilustrasi : Bayangkan sebuah kota dengan 60 kepala keluarga (populasi). Misalkan kita berminat untuk mempalajari hubungan antara belanja konsumsi keluarga mingguan Y dan pendapatan keluarga yang dapat dibelanjakan (disposable) atau setelah dipotong pajak mingguan X. Asumsikan bahwa kita ingin meramalkan rata-rata (populasi) tingkat belanja konsumsi mingguan dengan mengetahui pendapatan mingguan keluarga tersebut.

19 ANALISIS REGRESI LINIER SEDERHANA
Data Pendapatan 60 Keluarga Pada Satu Kota N X   Y Pendapatan Keluaga Mingguan (X) $ 80 100 120 140 160 180 200 220 240 260 1 Belanja Konsumsi Keluarga Mingguan (Y) $ 55 65 79 102 110 135 137 150 2 60 70 84 93 107 115 136 145 152 3 74 90 95 155 175 4 94 103 116 130 144 165 178 5 75 85 98 108 118 157 6 88 113 125 189 185 7 162 191 Total 325 462 445 707 678 750 685 1043 966 1211 p(Y=y|X=x)

20 Peluang Bersyarat 65 77 89 101 113 125 137 149 161 173 N X  p(Y|Xi) 
Pendapatan Keluaga Mingguan (X) $ 80 100 120 140 160 180 200 220 240 260 1 Peluang Besyarat P(Y|Xi) 1/5 1/6 1/7 2 3 4 5 6 7 Rata-Rata Bersyarat dari Y E(Y|X) 65 77 89 101 113 125 137 149 161 173

21 Distribusi Bersyarat Belanja Konsumsi Untuk Berbagai Tingkat Pendapatan

22 Belanja Konsumsi Mingguan $
Garis Regresi Y Pendapatan Mingguan, $ 220 140 80 E(Y|Xi) Rata-Rata Belanja Konsumsi Mingguan $ X 65 101 149

23 KONSEP FUNGSI REGRESI POPULASI (Population Regression Function “PRF”)
Perhatikan bahwa : E(Y|Xi)=f(Xi) (1) Model Regresi Populasi Linier E(Y|Xi)=0+1Xi (2) Dengan : 0 : Intersep (Perpotongan Garis Regresi dengan Sumbu Y) 1 : Koefisien Kemiringan (Perubahan Variabel Respon jika X berubah 1 satuan)

24 ARTI ISTILAH “LINEAR” LINIERITAS DALAM VARIABEL
Suatu fungsi Y=f(x) dikatakan linear dalam X jika X hanya berpangkat satu, dikalikan dan dibagi dengan variabel lain (X.Z, X/Z dengan Z variabel lain). Contoh Persamaan (1). ex : tidak linear dalam variabel E(Y|Xi)=0+ 1Xi2 LINIERITAS DALAM PARAMETER Suatu fungsi dikatakan linear dalam parameter, katakan 1 jika 1 hanya berpangkat 1 dan tidak dikalikan atau dibagi paramter lain (1.0 , 1/0) Apakah Parameter Linear ? Apakah Vairabel Linear ? Ya Tidak LRM NLRM

25 Linearisasi Persamaan Nonlinear
Regresi Nonlinear Data yang tidak cocok dengan bentuk linear Transformasi Linear (jika mungkin)

26 SPESIFIKASI STOKHASTIK PRF
Perhatikan contoh sebelumnya, bahwa konsumsi mingguan individu tidak selalu meningkat selaras dengan peningkatan pendapatannya. Terdapat variasi dari konsumsi perminggu untuk pendapatan tertentu. Belanja konsumsi keluarga secara individu berkelompok di sekitara konsumsi rata-rata semua keluarga pada pendapatan Xi yaitu disekitar harapan bersyaratnya. Jadi dapat dinyatakan peyimpangan suatu Yi secara individu dari nilai yang diharapkan sebagai berikut : i=Yi-E(Y|Xi) atau Yi=E(Y|Xi)+I (3)

27 Perhatikan persamaan (3) dapat dituliskan : Yi=E(Y|Xi)+i Yi=0+ 1Xi +i Perhatikan contoh belanja konsumsi untuk pendapatan mingguan $80. Y1=55= 0+ 1(80) +1 Y2=60= 0+ 1(80) +2 Y3=65= 0+ 1(80) +3 Y4=70= 0+ 1(80) +4 Y5=75= 0+ 1(80) +5 Nilai harapan dari persamaan (3) E(Y|Xi)=E[E(Y|Xi)]+E(|Xi) =E(Y|Xi)+E(|Xi) (4) Perhatikan persamaan (4) mengandung arti E(|Xi)=0

28 SIFAT DASAR FAKTOR GANGGUAN STHOKHASTIK
Faktor gangguan i adalah pengganti dari semua variabel yang dihilangkan dari model tetap yang scara bersama-sama mempengaruhi Y. Kenapa tidak membuat regresi multipel : Teori Tidak ada informasi Kepraktisan Kerandoman “Hakiki” Kesederhanan Model

29 FUNGSI REGRESI SAMPEL (SAMPLE REGRESSION FUNCTION)
Contoh : Sampel Pertama Sampel Kedua Y X 70 80 55 65 100 88 90 120 95 140 110 160 118 115 180 200 145 220 135 155 240

30 Scatter Plot

31 Model Regresi Sampel Model Regresi Populasi : Yi=0+1Xi+ i Model Regresi Sampel Yi=^0+^1Xi+ ei Model Regresi Dugaan Yi^=^0+^1Xi Dengan : “^” = dibaca sebagai “hat” atau “topi” Yi^ = penduga (estimator) E(Y|Xi) ^0 = penduga 0 ^1 = penduga 1 i = Error (Kekeliruan) ei = Residual (Sisa)

32 Perhatikan Y SRF : Yi^=^0+^1Xi Yi ei PRF : E(Y|Xi)=0+1Xi i Y^i
Pendapatan Mingguan, $ Konsumsi Mingguan, $

33 Interpretasi Koefisien Regresi
Hati-hati dalam menginterpretasikan intersep. (Perhatikan batasan nilai dari X) Slop menunjukkan besarnya perubahan dalam E(Y|X) perunit jika terjadi peningkatan dalam X sebesar 1 satuan.

34 Perhatikan % Yield 60 - 50 - 40 - 30 - 20 - 10 - 40 80 120 160 200 240
40 80 120 160 200 240 Temperatur

35 INFERENSI MODEL REGRESI LINIER SEDERHANA

36 Metode KuadraT Terkecil Biasa (Ordinari Least Square “OLS”)
OLS dikemukakan pertama kali oleh Carl Friedrich Gauss kebangsaan Jerman. Ingkat kembali persamaan Regresi Populasi (PRF) Yi= 0+1Xi+i Gaus membuat Asumsi sebagai berikut (Asumsi Klasik Regresi): Nilai harapan kekeliruan untuk setiap nilai X adalah nol atau diulis : E(i|Xi) =0 Gangguan i dan j tidak berkolerasi atau tidak terjadi korelasi berurutan atau tidak terjadi autokorelasi. Atau ditulis : Cov(i, j)=0 Varians gangguan i untuk setiap Xi adalah konstan yang sama dengan dengan 2. Atau didulis : var(i|Xi)= 2 Gangguan I tidak berkolerasi dengan Xi. Atau ditulis : Cov(i ,Xi)=0

37 Asumsi 1 : E(i|Xi) Nilai yang diharapkan besyarat (conditional expected value) dari i, tergantung pada Xi tertentu adalah Nol. Mengapa Nol??? Perhatikan Gambar berikut 

38 Asumsi 1 : E(i|Xi) Y X X4 X3 X2 X1 PRF : Yi=b0+b1Xi Rata-Rata
Gambar . Distribusi Bersyarat dari Gangguan i

39 Asumsi 2 : Cov( i, j)=0 ij
Cov( i, j)=E[i –E(i)][j – E(j)] =E[i –0][j – 0] # lihat asumsi 1 =E[i j]=0 untuk ij Asumsi ini menyatakan bahwa tidak ada korelasi antara gangguan ke-i dengan ke-j atau lebih dikenal dengan istilah Non-Autokorelasi. Artinya adalah, dengan Xi tertentu, sipangan setiap dua Y yang manapun dari nilai rata-ratanya tidak menunjukkan pola tertentu seperti gambar kedua pertama berikut :

40 Gambar. Pola Korelasi Antara Gangguan. a. Korelasi Positif, b
Gambar. Pola Korelasi Antara Gangguan. a. Korelasi Positif, b. Korelasi Negatif , c tidak berkorelasi

41 Asumsi 3 : Var (i|Xi)=2 Var (i|Xi)=E[i – E(i)]2 = E(i2) #karena asumsi 1 = 2 Asumsi ini menyatakan bahwa varians i untuk setiap nilai Xi adalah sama atau konstan yang sama dengan 2. Secara teknis asumsi ini dinyatakan sebagai homoskedastisitas. Atau dapat dinyatakan bahwa populasi Y yang berhubungan dengan nilai X mempunyai varians yang sama. Secara geometris dapat digambarkan sebagai berikut →

42 Gambar Homoskedastisitas
f(e) Y X X1 X2 Xi PRF : Yi=b0+b1Xi Gambar Homoskedastisitas

43 Gambar Heteroskedastisitas
f(e) Y X X1 X2 Xi PRF : Yi=b0+b1Xi Gambar Heteroskedastisitas

44 Asumsi 4 : Cov(i,Xi) Cov(eI,Xi) =E[Xi-E(Xi)][eI – E(i)]
= [Xi-E(Xi)] E[i – E(i)] Karena Asumsi 1 = 0 Ini artinya bahwa gangguan i tidak berkorelasi dengan nilai Xi

45 Kesimpulan Asumsi No. Dalam Hubungannya dengan e
Dalam hubungannya dengan Y 1 E(ei|Xi)=0 E(Yi|Xi)=b0 +b1Xi 2 Cov(ei,ej)=0 untuk i  j Cov(Yi, Yj)=0 untuk i  j 3 Var(ei|Xi)=s2 Var(Yi|Xi)=s2

46 Prinsip Kuadrat Terkecil
Tujuan : Memilih SRF terbaik Perhatikan : Yi=^ 0+ ^1Xi+ei Yi=Y^i+ei ei=Yi-Y^I =Yi-(^0+ ^1Xi) (3.16) Secara konsep kita berharap memperoleh ei=(Yi-Y^i) sekecil mungkin. TETAPI….

47 Perhatikan Gambar Berikut
ei e2 e3 e4 Y X SRF : Y^=^0+^1Xi X1 X2 X3 X4 Gambar Kriteria Kuadrat Terkecil

48 Apa yang menarik dari gambar di atas ???
e1 dan e4 memiliki bobot yang sama dengan e2 dan e3 atau (e1+e2+e3+e4). Sedangkan jelas terlihat bahwa e1 dan e4 meskipun residual e2 dan e3 lebih dekat dengan SRF. Misalkan e1,e2,e3,e4, secara berurutan 10,-2,2 dan Sehingga totalnya sama dengan nol. Masalah di atas dapat dihindari jika kita menggunakan kriteria kuadrat terkecil. ei2= (Yi- ^0- ^1Xi)2 =(Yi-Y^i) (3.17) Dengan mengkuadratkan e1 dan e4 mendapat bobot yang lebih besar dibandingkan dengan e2 dan e3.

49 Metode Kuadrat Terkecil

50 Metode Kuadrat Terkecil

51 Metode Kuadrat Terkecil

52 Metode Kuadrat Terkecil

53 Metode Kuadrat Terkecil

54 Pertanyaan Apa satuan dari ^ 0 dan ^1
Bagaimana caranya mendapatkan garis regresi melalui titik (0,0) Jika nilai variabel X ataupun Y ditambah atau dikurangi apakah akan merubah nilai dari ^1 Jika variabel X dibagi dengan a (X*=X/a) apa yang terjadi pada ^ 0dan ^1? Jika variaebel Y dibagi dengan a (Y*=Y/a) apa yang terjadi pada ^ 0dan ^1? Jika kedua variabel dibagi dengan a apa yang terjadi pada ^ 0dan ^1

55 Pertanyaan Apa satuan dari ^ 0 dan ^1 ( ^ 0 =Y, ^1 =Y/X)
Bagaimana caranya mendapatkan garis regresi melalui titik (0,0) (Y-Yrata, X-Xrata) Jika nilai variabel X ataupun Y ditambah atau dikurangi apakah akan merubah nilai dari ^1 (Tetap) Jika variabel X dibagi dengan a (X*=X/a) apa yang terjadi pada ^ 0 dan ^1? ( ^ 0, ^1 *a) Jika variabel Y dibagi dengan a (Y*=Y/a) apa yang terjadi pada ^ 0 dan ^1? ( ^ 0 /a, ^1 /a) Jika kedua variabel dibagi dengan a apa yang terjadi pada ^ 0dan ^1 ( ^ 0 /a, ^1 Tetap)

56 Ciri Penaksir Kuadrat Terkecil
Penaksir kuadrat terkecil dinyatakan semata-mata dalam besaran yang biasa diamati (yaitu besaran sampel) Penaksir kuadrat terkecil merupakan penaksir titik (point estimator) yaitu dengan sampel tertentu, tiap penaksir akan memberikan hanya satu nilai (titik) tunggal parameter populasi yang relevan.

57 Garis Regresi dari OLS mempunyai sifat
Garis regresi melalui rata-rata sampel Y dan X. Karena rata-rata Nilai rata-rata Y^ adalah sama dengan nilai rata-rata Y sebenarnya karena :

58 Garis Regresi Melalui rata-rata Y dan rata-rata X
SRF : Y^= ^ 0+^1Xi

59 Garis Regresi dari OLS mempunyai sifat
3. Nilai rata-rata residual ei adalah nol untuk ^0 tidak sama dengan nol. (Buktikan !!!) 4. Residual ei tidak berkorelasi dengan Y^i (Buktikan !!!) 5. Residual ei tidak berkorelasi dengan Xi

60 Bukti 3. Nilai rata-rata residual ei adalah nol untuk ^0 tidak sama dengan nol. (Buktikan !!!) perhatikan persamaan : -2(Yi-0+1Xi)=0 -2ei =0 ei =0 4. Residual ei tidak berkorelasi dengan Y^i (Buktikan !!!) perhatikan persamaan simpangan : y^i=^1xi y^iei= ^1xiei =^1xi(yi-y^i) =^1xiyi- ^12 xi2 =^1xi(^1 xi+ei)- ^12 xi2) = ^12xi2- ^12 xi2 = 0

61 Bukti 5. Residual ei tidak berkorelasi dengan Xi (Buktikan !!!) perhatikan persamaan : -2(Yi-0+1Xi)Xi=0 -2eiXi =0 eiXi =0

62 Ketepatan atau Kesalahan Standar Taksiran Kuadrat Terkecil
Kita telah mengetahui bahwa taksiran metode kuadrat terkecil didasarkan pada data sampel. Tentunya kalo berbicara sampel berulang, setiap sampel akan memberikan nilai taksiran yang berbeda. Karena itu perlu diketahui satu ukuran untuk menunjukkanketepatan atau keterandalan dari nilai taksiran tersebut. Ukuran yang sering digunakan adalah kesalahan standar (standard error)

63 Kesalahan Standar OLS Tunjukkan !!! 2 ditaksir oleh ^2

64 Sifat-Sifat Penaksir Kuadrat Terkecil : Teorema Gauss Markov
BLUE : Best Linear Unbiased Estimation Suatu penaksir ^ tak bias linear terbaik dari  kalau  tadi linear, tak bias, dan mempunyai varians minimum dalam kelas semua panaksir linear tak bias dari .

65 Koefisien Determinasi r2
Koefisien determinasi merupakan suatu ukuran kebaikan “Goodness of Fit “ model regresi. Koefisien determinasi bukan “Besar Pengaruh” Untuk menghitung r2 didasarkan pada konsep berikut : Yi=Y^i+ei Atau dalam bentuk simpangan : yi=y^i+ei (3.3.1)

66 Perincian Variasi Y ke Dalam Dua Bagian

67 Koefisien Determinasi
Perhatikan : JKT=JKReg + JKRes R2 mengukur proporsi (bagian) atau prosentase total variansi dalam Y yang dijelaskan oleh model regresi.

68 Dua Sifat Dasar Koefisien Determinasi (r2)
r2 merupakan besaran non negatif. Batasnya adalah 0r2 1. r2 juga dapat dihitung dengan rumus sebagai berikut : Untuk regresi linier sederhanda akar kuadrat dari Koefisein determinasi merupakan koefisien korelasi.

69 Sifat Koefisien Korelasi
r dapat bernilai positif atau negatif, tandanya tergantung pada tanda faktor pembilang yang mengukur kovariansi sampel kedua variabel Terletak antara -1 dan +1 yaitu -1r2 1. Sifat dasarnya simetris yaitu koefisen korelasi antara X dengan Y sama dengan koefisien korelasi antara Y dengan X Tidak tergantung pada titik asal (origin) dan skala; yaitu kalo kita definisikan X*i =aXi+c dan Y*i =bYi +d, dimana a>0, b>0, dan c dan d konstan, maka r antara X* dan Y* sama dengan X dan Y. Kalo X dan Y bebas secara statistik, koefisien korelasi antara keduanya adalah nol. Tetapi kalo r=0 ini tidak bearti bawha kedua variabel adalah bebas. Dengan kata lain korelasi nol tidak perlu berarti kebebas, r hanyalah suatu ukuran hubungan linear atau ketergantungan linier saja. R tidak mempunyai arti untuk menggambarkan hubungan nonlinear. r adalah ukuran hubungan linear antara dua vairabel, tidak perlu berarti hubungan sebab akibat.

70 Error Kuantifikasi Pada Regresi Linear
S kecilr (coefficient of determination) Keduanya dapat di-dekati dengan baik S besarr (Koefisien korelasi)

71 LINEARISASI DALAM REGRESI
Model Log-Linear Model di atas dapat dilinearisasi dengan melakukan transformasi logaritma natural. Model di atas dapat dituliskan kedalam model linier dalam parameter : Model ini dikenal dengan model Log Linier, atau log-ganda atau elastisitas. Model di atas dapat ditaksir dengan metode OLS dengan memisalkan :

72 LINEARISASI DALAM REGRESI
Model Semilog

73 Contoh Suatu penelitian lingkungan bertujuan untuk mengetahui tingkat pencemaran yang berasal dari mobil. Dalam hal ini diperkirakan bahwa tingkat emisi hydrokarbon (HC) dari mobil tergantung dari jaraknya. Dengan demikian, mobil yang masih baru lebih sedikit mengeluarkan HC daripada mobil tua. Untuk itu sebanyak 10 mobil merek tertentu dipilih secara acak, kemudian diperiksa berapa jarak tempuh (dalam ribuan kilometer) dari mobil tersebut dan diukur tingkat emisi HC-nya (dalam ppm). Hasilnya adalah sebagai berikut: Untuk mempermudah proses perhitungan secara manual dari data di atas maka, data dijasikan dalam tabel di bawah ini : Jarak (X) 31 38 48 52 63 67 75 84 89 99 Emisi (Y) 553 590 608 650 700 680 834 752 845 960

74 Proses Perhitungan No. Jarak (X) Emisi (Y) X2 Y2 XY 1 31 553 961
305809 17143 2 38 590 1444 348100 22420 3 48 608 2304 369664 29184 4 52 650 2704 422500 33800 5 63 700 3969 490000 44100 6 67 680 4489 462400 45560 7 75 834 5625 695556 62550 8 84 752 7056 565504 63168 9 89 845 7921 714025 75205 10 99 960 9801 921600 95040 Total 646 7172 46274 488170

75 Proses Perhitungan

76 Proses Perhitungan a. Buatlah plot antara X dengan Y. Menurut Anda bagaimana bentuk hubungan antara jarak tempuh kendaraan dengan tingkat emisinya ?

77 Proses Perhitungan b. Kalau dicobakan model linear Yi = 0 + 1Xi +, i , maka carilah persamaan regresinya. Model regresi yang akan dibuat adalah model regresi dugaan yang diperoleh dari data sampel. Model regresi dugaannya adalah : Dengan nilai dari b0 dan b1 diperoleh dari metode kuadrat terkecil dengan proses perhitungan sebagai berikut :

78 Dugaan tingkat emisi = 363.669+5.473 (jarak tempuh)
Sehinga model regresi dugaan dari kasus di atas adalah : Dugaan tingkat emisi = (jarak tempuh)

79 Proses Perhitungan Apa makna dugaan 0 dan 1 pada konteks ini ?.
b0 dalam di atas memberikan makna bahwa secara rata-rata tingkat emisi mobil baru yang memiliki jarak tempuh nol kilometer adalah ppm atau pada saat start awal, mobil baru akan mengeluarkan tingkat emisi sebesar ppm. b­1 dalam model di atas memberikan gambaran bahwa setiap peningkatan jarak tempuh seribu kilometer maka akan terjadi peningkatan tingkat emisi hydrokarbon (HC) sebesar ppm

80 Proses Perhitungan Dengan R

81 Syntax >lat1<-read.table("e:/KULIAH/PASCA STATISTIKA UNPAD/DATA/LAT1.txt", sep="\t", header=TRUE) > plot(Jarak~Emisi,lat1,main="Plot Jarak Tempuh dengan Tingkat Emisi") > reg1<-lm(Jarak~Emisi,lat1) > abline(reg1$coef,col="red") > summary(reg1)

82 Output

83 Output Call: lm(formula = Emisi ~ Jarak, data = lat1) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) e-05 *** Jarak e-05 *** --- Signif. codes: 0 ‘***’ ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: on 8 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 8 DF, p-value: 3.02e-05

84 MINITAB

85 MINITAB

86 Syntax Output Welcome to Minitab, press F1 for help.
MTB > Regress 'Emisi' 1 'Jarak'; SUBC> GFourpack; SUBC> RType 1; SUBC> Constant; SUBC> Brief 2. Regression Analysis: Emisi versus Jarak The regression equation is Emisi = Jarak Predictor Coef SE Coef T P Constant Jarak S = R-Sq = 89.9% R-Sq(adj) = 88.6% Analysis of Variance Source DF SS MS F P Regression Residual Error Total Residual Plots for Emisi

87 Output

88 Output

89 MYSTAT

90 MYSTAT

91 MYSTAT

92 MYSTAT

93 OUTPUT

94 SPSS

95 SPSS

96 OUTPUT SPSS

97 OUTPUT SPSS

98 TUGAS 1 Untuk Regresi Linier Sederhana Tunjukkan bahwa :
^0 dan ^1 merupakan penaksir TAK BIAS bagi 0 dan 1 c. d. e. var(Y)= 2 , untuk i=1,2,..,n

99 TERIMAKASIH


Download ppt "S1 STATISTIKA UNPAD I GEDE NYOMAN MINDRA JAYA"

Presentasi serupa


Iklan oleh Google