Upload presentasi
Presentasi sedang didownload. Silahkan tunggu
Diterbitkan olehHartanti Kusumo Telah diubah "7 tahun yang lalu
1
Presented by Kelompok 7 Mirah Midadan Richard Pasolang Reski Tasik
2
We’ll talk about: Multiple Regression Analysis: The Problem of Estimation
3
Model Tiga Variabel Yi = β1 + β2 X2i + β3 X3i + ui Dimana,
Y : variabel dependen X2 , X3 : variabel independen U :faktor gangguan stokastik i : observasi ke-i β1 : faktor intercept β2 , β3 : koefisien regresi parsial
4
dengan asumsi : model regresi linear
nilai X yang tetap atau nilai X independen dari faktor kesalahan cov (ui , X2i) = cov (ui , X3i) = (1) nilai rata-rata nol dari faktor gangguan Ui E(ui | X2i , X3i) = 0 untuk setiap i ...(2) Homoskedastisitas dari Ui var (ui ) = σ (3)
5
tidak ada korelasi serial diantara faktor gangguan
cov (ui , uj ) = 0 i = j ...(4) jumlah observasi n harus lebih besar daripada jumlah parameter yang diestimasi, dimana jumlahnya ada 3 pada kasus ini harus terdapat variasi pada nilai variabel X tidak ada hubungan linear yang pasti antara X2 dan X3 tidak ada bias spesifikasi
6
secara formal, nonkolinearitas berarti sejumlah angka, λ2, dan λ3, keduanya tidak bernilai nol λ2 X2i + λ3 X3i = 0 ...(5) jika terdapat hubungan linear yang tepat, X2 dan X3 dikatakan kolinear. Apabila persamaan (5) memengaruhi nilai, maka X2 dan X3 dikatakan bebas secara linear. Jadi, jika : X2i =−4X3i atau X2i + 4X3i = 0 ...(6) Kedua variabel tersebut tidak bebas secara linear, dan jika keduanya dimasukkan ke dalam model regresi maka menjadi kolinearitas yang sempurna.
7
Misalkan, X3i = 2X2i pada model regresi konsumsi-pendapatan-kekayaan, maka model regresi (1) akan menjadi : Yi = β1 + β2 X2i + β3(2X2i) + ui = β1 + (β2 + 2β3)X2i + ui = β1 + αX2i + ui ...(7) Dimana, α = (β2 + 2β3)
8
Pertama, asumsi tidak ada multikolinearitas yang dipertahankan pada model FRP Kedua, multikolinearitas tidak mengatur hubungan yang nonlinear antarvariabel.
9
Interpretasi Regresi Majemuk
Dengan asumsi model regresi klasik, dapat diketahui bahwa mengambil ekspektasi kondisional Y pada kedua sisi persamaan (1), menghasilkan: E(Yi | X2i , X3i) = β1 + β2 X2i + β3 X3i ...(8) Persamaan ini menggambarkan rata-rata kondisional atau nilai ekspektasi kondisional dari Y terhadap nilai tertentu atau yang tepat dari X2 dan X3
10
Menguji bahwa pengaruh regresor adalah konstan
Dengan menggunakan tabel 6.4 (pada bab 6), kedua regresinya adalah: CMi = − FLRi + u1i se = ( ) (0.2133) r2 = (9) dimana u1i menunjukkan faktor residual dari hasil regresi ini PGNPi = − FLRi + u2i se = ( ) ( ) r2 = (10)
11
dimana u2i menunjukkan faktor residual dari hasil regresi ini u1i = (CMi − FLRi) ...(11) merepresentasikan baguan dari CM setelah pengaruh dari FLR dihilangkan. Demikian juga, u2i = (PGNPi − FLRi) ...(12) yang menggambarkan bagian dari PGNP setelah pengaruh dari LFR dihilangkan.
12
Jika kita melakukan regresi u1i terhadap u2i, maka hasil regresinya adalah: u1i = − u2i se = (0.0019) r2 = (13) it’s mean, nilai dari koefisien kemiringan adalah -0,0056 kini merupakan “nilai yang sebenarnya”. Dengan kata lain, koefisien tersebar adalah koefisien regresi parsial dari CM terhadap PGNP, β2.
13
Estimasi OLS dan ML pada koefisien Regresi Parsial
1. Metode OLS a. Estimator-estimator OLS Untuk menemukan estimator-estimator OLS, berikut adalah SRF yang berhubungan dengan PRF pada persamaan (1): Yi = ˆ β1 + ˆ β2 X2i + ˆ β3 X3i +ˆ ui ....(14) Dimana, ˆ ui adalah residual – mirip dengan faktor gangguan stokastik (ui), tetapi simbol ini digunakan pada sampel (bukan populasi).
14
Prosedur OLS mencakup pemilihan nilai parameter-parameter yang tidak diketahui sehingga jumla kuarat residual bernilai seminimal mungkin. Secara simbolis: min ∑ ˆ ui = ∑( Yi - ˆ β1 - ˆ β2 X2i - ˆ β3 X3i )2 ...(15) Selanjutnya, mengurangkan persamaan (15) dengan variabel-variabel yang tidak diketahui dan menyelesaikannya secara simultan. Y = ˆ β1 + ˆ β2 ¯ X2 + ˆ β3 ¯ X3 ...(16) ∑Yi X2i = ˆ β1 ∑ X2i + ˆ β2 ∑2 2i + ˆ β3 ∑ X2i X3i ...(17) ∑Yi X3i = ˆ β1 ∑X3i + ˆ β2 ∑ X2i X3i + ˆ β3 ∑ X23i ...(18)
15
Dari persamaan (16) terlihat bahwa: ˆ β1 = ¯ Y − ˆ β2 ¯ X2 − ˆ β3 ¯ X3
Dari persamaan (16) terlihat bahwa: ˆ β1 = ¯ Y − ˆ β2 ¯ X2 − ˆ β3 ¯ X (19) adalah nilai estimator yang dihasilkan metode OLS terhadap intercept populasi β1. Dengan mengikuti kaidah bahwa huruf kecil melambangkan deviasi dari nilai rata-rata sampel, maka dapat diturunkan menjadi : ˆ β2 = ( ∑ yi x2i )( ∑x23i ) – ( ∑ yi x3i )( ∑ x2i x3i ) / ( ∑ x22i )( ∑ x23i ) – ( ∑ x2i x3i )2 ...(20) ˆ β3 = ( ∑ yi x3i )( ∑x22i ) – ( ∑ yi x2i )( ∑ x2i x3i ) / ( ∑ x22i )( ∑ x23i ) – ( ∑ x2i x3i )2 ...(21) Dimana, kedua nilai tersebut secara berturut-turut adalah estimator OLS bagi koefisien regresi parsial populasi, β1, β2.
16
b. Estimator-estimator Maximum Likelihood (ML) Estimator-estimator ML dan OLS dari koefisien regresi model dua variabel adalah sama. Hal ini juga berlaku untuk model yang terdiri atas jumlah variabel berapapun namun tidak berlaku pada estimator o2.
17
Koefisien Determinasi Majemuk R2 dan Koefisien Korelasi Majemuk R
Untuk menurunkan R2, terlebih dahulu mengingat bahwa: Yi = ˆ β1 + ˆ β2 X2i + ˆ β3 X3i +ˆ ui = ˆ Yi +ˆ ui ...(22) Dengan mengubah menjadi huruf kecil sebagai simbol deviasi dari nilai rata-rata, menjadi: yi = ˆ β2 x2i + ˆ β3 x3i +ˆ ui = ˆ yi +ˆ ui ...(23)
18
Dengan mengkuadratkan kedua sisinya dan menjumlahkan pada semua nilai sampel, maka: ∑ y2i = ∑ ˆ y2i + ˆ u2i + 2 ∑ˆ yi ˆ ui = ∑ y2i + ∑ ˆ u2i ...(24) Substitusikan ∑ ˆ u2i : ∑ y2i = ∑ ˆ y2i + ∑ y2i + ˆ β2 ∑ yi x2i - ˆ β3 ∑ yi x3i ...(25)
19
Dapat ditulis menjadi: ESS = ∑ ˆ y2i = ˆ β2 ∑ yi x2i - ˆ β3 ∑ yi x3i
Dapat ditulis menjadi: ESS = ∑ ˆ y2i = ˆ β2 ∑ yi x2i - ˆ β3 ∑ yi x3i ...(26) secara definisi: R2 = ESS / TSS = ˆ β2 ∑ yi x2i - ˆ β3 ∑ yi x3i / ∑ y2i ...(27)
20
Regresi Sederhana dalam Konteks Regresi Majemuk: Pengenalan pada Bias Spesifikasi
Jika regresi di bandingkan dengan regresi majemuk “yang sebenarnya”, maka: Dalam faktor absolut, koefisien dari PNBP meningkat hampir 2x lipat Nilai standar error berbeda Nilai intercept berbeda Nilai r2 secara dramatis berbeda
21
Fungsi Produksi Cobb-Douglas: Lebih Dalam mengenai Bentuk Fungsi
Fungsi produksi Cobb-Douglas dalam bentuk stokatiknya, dapat diekspresikan sebagai berikut: Yi = β1 Xβ22i Xβ33i eui (28) dimana, Y = output X2 = input tenaga kerja X3 = input kapital u = faktor gangguan stokastik e = dasar logaritma natural
22
sudah terlihat jelas bahwa hubungan antara kedua input dan output tersebut adalah nonlinear. Jika di transformasikan ke dalam logaritma, maka: ln Yi = ln β1 + β2 ln X2i + β3 ln X3i + ui = β0 + β2 ln X2i + β3 ln X3i + ui ...(29) Dimana, β0 = ln β1
23
Karakteristik fungsi produksi Cobb-Douglas :
β2 adalah elastisitas output (parsial) terhadap input tenaga kerja yang mengukur perubahan persentase dari output, mislanya sebesar 1 persen perubahan di dalam input tenaga kerja, dengan menganggap input kapital konstan. demikian juga, β3 adalah elastisitas output terhadap input kapital, dengan menganggap input tenaga kerja konstan. Penjumlahan (β2+ β3) menggambarkan return to scale, yaitu respon output yang disebabkan oleh perubahan proporsional pada input.
24
Model Regresi Polinomial
Model ini telah banyak digunakan dalam penelitian ekonometrika yang berhubungan dengan fungsi produksi dan fungsi biaya. Secara matematis, kurva parabola daat dituliskan dalam persamaan: Y = β0+ β1X + β2X2 Versi stokastik: Yi = β0 + β1 Xi + β2 X2i + ui Biasa juga disebut sebagai regresi polinomial derajat dua.
25
Ringkasan Chapter ini menjelaskan model regresi linear berganda secara sederhana, yaitu model regresi tiga variabel. Istilah linear mengacu pada linearitas dalam parameter dan tidak harus dalam variabel. Walaupun regresi tiga variabel biasanya dijalankan dari lanjutan model regresi dua variabel, di sini banyak ditemukan konsep baru yang saling berkaitan, diantaranya bias spesifikasi, multiple korelasi kofisien, dll. Chapter ini juga berbicara tentang bentuk fungsional dari model regresi berganda, salah satunya adalah fungsi produksi Cobb-Douglas.
Presentasi serupa
© 2024 SlidePlayer.info Inc.
All rights reserved.