Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Metode Gradient untuk masalah optimasi: Regresi linear dan non linear

Presentasi serupa


Presentasi berjudul: "Metode Gradient untuk masalah optimasi: Regresi linear dan non linear"— Transcript presentasi:

1 Metode Gradient untuk masalah optimasi: Regresi linear dan non linear
Metode Komputasi 3 Metode Gradient untuk masalah optimasi: Regresi linear dan non linear

2 Jumlah Penduduk Indonesia
Tahun 2000 2001 2002 2003 2004 2005 Jumlah (dalam ribuan) 205,132.00 207,927.50 210,736.30 213,550.50 216,381.60 219,204.70 Sumber: datastatistik-indonesia.com Bila jumlah penduduk diasumsikan bertambah secara linear terhadap waktu (tahun), maka jumlah penduduk dapat diprediksi dengan menggunakan persamaan linear Y = 1x + 0, x menyatakan tahun setelah tahun 2000 tahun Jumlah Bagaimana menaksir parameter 1 dan 0? Definisi: Jarak vertikal Jarak vertikal antara garis Y = 1x + 0 ke titik Pi(xi, yi) Ji = |yi – (1xi + 0)| = |yi – 1xi –0 | Garis Y = 1x + 0 dipilih sehingga jumlah kuadrat jarak vertikal terkecil

3 Garis Jumlah Kuadrat Terkecil
Garis kuadrat terkecil Y = 1x + 0 untuk himpunan titik (x1,y1), (x2,y2),…,(xn,yn) dapat diperoleh dari masalah peminimuman Bagaimana menentukan nilai 1 dan 0 yang memenuhi masalah optimasi? Berdasarkan kalkulus, syarat perlu agar J(1, 0) mencapai minimum Atau Dengan asumsi J fungsi yang terdifferensialkan Maka, titik kritis

4 Aturan Cramer

5 Contoh: Carilah garis kuadrat terkecil untuk himpunan titik (1,2),(3,2),(4,3)

6 Nonlinear Fitting Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn)
Jika hubungan antara Y dan X diasumsikan Y = eX lnY = ln  +X Maka Y = lnY 0 = ln  1 =  Contoh: Data set: (1,2),(2,4),(3,9) Y=(2,4,9) Y = ln(2,4,9) XY = … dst

7 Nonlinear Fitting Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn)
Jika hubungan antara Y dan X diasumsikan Y = x lnY = ln  +lnX Maka Y = lnY X = lnX 0 = ln  1 =  Jika diasumsikan

8 Grad. Descent utk Reg. Linear
ekivalen dengan Berangkat dari (1(0), 0(0)) , arah pergerakan yang memberikan penurunan paling besar : -J (1(0), 0(0)) Sehingga, iterasi (1(k+1), 0(k+1))=(1(k), 0(k)) -J (1(k), 0(k)) konvergen ke nilai minimum ‘lokal’ dari J untuk suatu nilai  yang cukup kecil. Ulangi proses sampai konvergen 1 = 1 +(yi- 1xi - 0)xi 0 = 0 +(yi- 1xi - 0)

9 Grad. Descent utk Reg. Linear (Perumuman)
Berangkat dari arah pergerakan yang memberikan penurunan paling besar : -J ((0)) Sehingga, iterasi  (k+1) =  (k) -J(k), konvergen ke nilai minimum ‘lokal’ dari J untuk suatu nilai  yang cukup kecil. Ulangi proses sampai konvergen k = k +(yi- Txi)xik, k=1,2,…,M Xi0 = 1 untuk semua i=1,2,…,N

10 Logistic Fitting Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn)
Jika Y bernilai biner {0,1} dan diasumsikan dengan Z = 0 + 1X Maka nilai 0, 1 diperoleh Gradien Descent: 1= 1-R/1 0= 0-R/0 Student id Outcome Quantity of Study Hours 1 3 2 34 17 4 6 5 12 15 7 26 8 29 9 14 10 58 11 31 13

11 Logistic Fitting (Generalization)
Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn) Jika Y bernilai biner {0,1} dan diasumsikan dengan Z = TX Gradien Descent: k= k-R/k


Download ppt "Metode Gradient untuk masalah optimasi: Regresi linear dan non linear"

Presentasi serupa


Iklan oleh Google