Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

JST BACK PROPAGATION.

Presentasi serupa


Presentasi berjudul: "JST BACK PROPAGATION."— Transcript presentasi:

1 JST BACK PROPAGATION

2 Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada bagian tersembunyi. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk mendapatkan error ini, tahap perambatan maju (forward propagation) harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu :

3 Arsitektur jaringan backpropagation seperti terlihat pada gambar berikut.

4 Algoritma Backpropagation :
Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil). Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE. Langkah-langkahnya sebagai berikut : Untuk tiap-tiap elemen yang akan dilakukan pembelajaran, kerjakan : Feedforward : Tiap-tiap unit input menerima sinyal xi dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada di atasnya (lapisan tersembunyi).

5

6

7

8

9 Soal Buatlah jaringan saraf untuk fungsi logika XOR-2 input sesuai tabel berikut. x1 x2 Target 1

10 Arsitektur jaringan di-set sbb.
1 input layer, dengan 2 neuron (x1 dan x2) 1 hidden layer, dengan 4 neuron (z1,z2,z3 dan z4) Gunakan fungsi aktivasi sigmoid 1 output layer dengan 1 neuron

11 Nilai-nilai bobot dan bias awal ditentukan sbb.
Bobot awal input ke hidden layer : v11 = 0,1; v12 = 0,2; v13 = 0,3; v14 = 0,4 v21 = 0,1; v22 = 0,2; v23 = 0,3; v24 = 0,4 Bobot awal bias ke hidden layer: v01 = 0,1; v02 = 0,2; v03 = 0,3; v04 = 0,4 Bobot awal hidden layer ke output layer: w1 = 0,1; w2 = 0,2; w3 = 0,3; w4 = 0,4 Bobot awal bias ke output layer: w0 = 0,5 Untuk kebutuhan pelatihan jaringan ditentukan pula: Learning rate (α) = 1 Maksimum Epoch = 1500 Target error = 0,02

12

13 Tugas Buatlah jaringan saraf untuk fungsi logika XOR-2 input apabila arsitektur jaringan diset sbb. 1 input layer, dengan 2 neuron (x1 dan x2) 1 hidden layer dengan 3 neuron (z1, z2 dan z3) 1 output layer dengan 1 neuron Nilai-nilai bobot dan bias awal ditentukan sbb.

14 Bobot awal input ke hidden layer : v11 = 0,2; v12 = 0,1; v13 = 0,5; v14 = 0,4 v21 = 0,3; v22 = 0,2; v23 = 0,3; v24 = 0,6 Bobot awal bias ke hidden layer: v01 = 0,4; v02 = 0,2; v03 = 0,5; v04 = 0,1 Bobot awal hidden layer ke output layer: w1 = 0,2; w2 = 0,7; w3 = 0,3; w4 = 0,1 Bobot awal bias ke output layer: w0 = 0,3 Untuk kebutuhan pelatihan jaringan ditentukan pula: Learning rate (α) = 0,5 Maksimum Epoch = 3


Download ppt "JST BACK PROPAGATION."

Presentasi serupa


Iklan oleh Google