Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

1 Back-Propagation Pertemuan 5 Matakuliah: T0293/Neuro Computing Tahun: 2005.

Presentasi serupa


Presentasi berjudul: "1 Back-Propagation Pertemuan 5 Matakuliah: T0293/Neuro Computing Tahun: 2005."— Transcript presentasi:

1 1 Back-Propagation Pertemuan 5 Matakuliah: T0293/Neuro Computing Tahun: 2005

2 2 Konsep Dasar BP Solusi dari keterbatasan single-layer network Penemuan algoritma BP merupakan kebangkitan kembali paradigma “ neural computing “. Nama-nama scientist yang memberi kontribusi terhadap pengembangan BP –Rumelhart, Hinton dan Williams (1986) –Parker (1982) –Werbos (1974)

3 3 Konfigurasi Networks (BP) Model Neuron Artificial Neuron with Activation Function  F NET OUT ET OUT = 1 / ( 1 + e -NET ) NET = O 1 W 1 + O 2 W O n W n =  O i W i OUT = F ( NET ) W1W1 W2W2 WnWn O1O1 O2O2 OnOn

4 4 Activation Function Sigmoidal Activation Function Ada beberapa fungsi yang dapat digunakan; Algoritma BP memerlukan fungsi yang bersifat ‘differentiable’ 0 NET OUT OUT = F(NET)1 / ( 1 + e -NET ) F’ (NET) =  OUT = OUT (1-OUT)  NET 0.5

5 5 Model Multilayer Networks Model berikut adalah contoh multilayer networks yang sesuai untuk diterapkan dengan algoritma BP

6 6 INPUT LAYER INPUT LAYER k TARGET 1 TARGET 2 TARGET n OUT n OUT 2 OUT 1 W 11 W 22 W 3m W 2m W 12 ERROR 1 ERROR 2 ERROR n HIDDEN LAYER j Two-Layer Backpropagation Network

7 7 Network Training Langkah-langkah Training 1.Pilih “ training pair “ ( berikutnya ); aplikasikan vektor input ke dalam network 2.Hitung output dari networks. 3.Hitung error antara “ actual output “ dengan ‘target output’. 4.Sesuaikan bobot dengan cara meminimumkan error. 5.Ulangi 1 sampai dengan 4 untuk setiap vektor dalam ‘ training set ’.

8 8 Forward Pass O = F ( X W ) dimana O adalah vektor output. Vektor output dari suatu layer merupakan vektor input dari layer berikutnya. Dengan demikian perhitungan output akhir dari networks dilakukan perhitungan dengan rumus di atas pada setiap layer

9 9 Reverse Pass Penyesuaian bobot pada ‘ output layer ’ :  = OUT (1-OUT) (Target-OUT)  W pq,k =   q,k OUT p,j W pq,k (n+1) = W pq,k (n) +  W pq,k

10 10 dimana W pq,k (n)= nilai bobot dari neuron p pada ‘hidden layer’ ke neuron q pada ‘output layer’ pada langkah ke-n; subscript k menunjukkan bahwa bobot berkaitan dengan ‘destination layer’ W pq,k (n+1) = nilai bobot pada langkah ke n+1  q,k = nilai  untuk neuron q pada ‘output layer’ ke k OUT p,,j = nilai OUT untuk neuron p pada ‘hidden layer’ j Catatan: Penyesuaian bobot pada hidden layer  p,,j = OUT p,,j (1- OUT p,,j ) (  q,k W pq,k )


Download ppt "1 Back-Propagation Pertemuan 5 Matakuliah: T0293/Neuro Computing Tahun: 2005."

Presentasi serupa


Iklan oleh Google