Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Metode Komputasi 3 Metode Gradient untuk masalah optimasi: Regresi linear dan non linear.

Presentasi serupa


Presentasi berjudul: "Metode Komputasi 3 Metode Gradient untuk masalah optimasi: Regresi linear dan non linear."— Transcript presentasi:

1 Metode Komputasi 3 Metode Gradient untuk masalah optimasi: Regresi linear dan non linear

2 Jumlah Penduduk Indonesia Tahun Jumlah (dalam ribuan) 205, , , , , , Sumber: datastatistik-indonesia.com Bila jumlah penduduk diasumsikan bertambah secara linear terhadap waktu (tahun), maka jumlah penduduk dapat diprediksi dengan menggunakan persamaan linear Y =  1 x +  0, x menyatakan tahun setelah tahun 2000 Bagaimana menaksir parameter  1 dan  0 ? Definisi: Jarak vertikal Jarak vertikal antara garis Y =  1 x +  0 ke titik P i (x i, y i ) J i = |y i – (  1 x i +  0 )| = |y i –  1 x i –  0 | tahun Jumlah Garis Y =  1 x +  0 dipilih sehingga jumlah kuadrat jarak vertikal terkecil

3 Garis Jumlah Kuadrat Terkecil Garis kuadrat terkecil Y =  1 x +  0 untuk himpunan titik (x1,y1), (x2,y2),…,(xn,yn) dapat diperoleh dari masalah peminimuman Bagaimana menentukan nilai  1 dan  0 yang memenuhi masalah optimasi? Berdasarkan kalkulus, syarat perlu agar J(  1,  0 ) mencapai minimum Atau Maka, titik kritis Dengan asumsi J fungsi yang terdifferensialkan

4 Aturan Cramer

5 Contoh: Carilah garis kuadrat terkecil untuk himpunan titik (1,2),(3,2),(4,3)

6 Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn) Jika hubungan antara Y dan X diasumsikan Y =  e  X lnY = ln  +  X Maka Y = lnY  0 = ln   1 =  Nonlinear Fitting Contoh: Data set: (1,2),(2,4),(3,9) Y=(2,4,9) Y = ln(2,4,9) XY = … dst

7 Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn) Jika hubungan antara Y dan X diasumsikan Y =  x  lnY = ln  +  lnX Maka Y = lnY X = lnX  0 = ln   1 =  Nonlinear Fitting Jika diasumsikan

8 Grad. Descent utk Reg. Linear ekivalen dengan Berangkat dari (  1 (0),  0 (0) ), arah pergerakan yang memberikan penurunan paling besar : -  J (  1 (0),  0 (0) ) Sehingga, iterasi (  1 (k+1),  0 (k+1) )=(  1 (k),  0 (k) ) -  J (  1 (k),  0 (k) ) konvergen ke nilai minimum ‘lokal’ dari J untuk suatu nilai  yang cukup kecil. Ulangi proses sampai konvergen  1 =  1 +  (y i -  1 x i -  0 )x i  0 =  0 +  (y i -  1 x i -  0 )

9 Grad. Descent utk Reg. Linear (Perumuman) Berangkat dari arah pergerakan yang memberikan penurunan paling besar : -  J (  (0) ) Sehingga, iterasi  (k+1) =  (k) -  J  (k), konvergen ke nilai minimum ‘lokal’ dari J untuk suatu nilai  yang cukup kecil. Ulangi proses sampai konvergen  k =  k +  (y i -  T x i )x ik, k=1,2,…,M X i0 = 1 untuk semua i=1,2,…,N

10 Diberikan sekumpulan data: (x1,y1),(x2,y2),…,(xn,yn) Jika Y bernilai biner {0,1} dan diasumsikan dengan Z =  0 +  1 X Maka nilai  0,  1 diperoleh Logistic Fitting Student idOutcomeQuantity of Study Hours Gradien Descent:  1 =  1 -  R/  1  0 =  0 -  R/  0

11 Diberikan sekumpulan data: (x 1,y 1 ),(x 2,y 2 ),…,(x n,y n ) Jika Y bernilai biner {0,1} dan diasumsikan dengan Z =  T X Logistic Fitting (Generalization) Gradien Descent:  k =  k -  R/  k


Download ppt "Metode Komputasi 3 Metode Gradient untuk masalah optimasi: Regresi linear dan non linear."

Presentasi serupa


Iklan oleh Google