Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

JST BACK PROPAGATION. Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk.

Presentasi serupa


Presentasi berjudul: "JST BACK PROPAGATION. Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk."— Transcript presentasi:

1 JST BACK PROPAGATION

2 Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada bagian tersembunyi. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk mendapatkan error ini, tahap perambatan maju (forward propagation) harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu :

3 Arsitektur jaringan backpropagation seperti terlihat pada gambar berikut.

4 Algoritma Backpropagation : Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil). Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE. Langkah-langkahnya sebagai berikut : – Untuk tiap-tiap elemen yang akan dilakukan pembelajaran, kerjakan : Feedforward : Tiap-tiap unit input menerima sinyal x i dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada di atasnya (lapisan tersembunyi).

5

6

7

8

9 Soal Buatlah jaringan saraf untuk fungsi logika XOR- 2 input sesuai tabel berikut. x1x2Target

10 Arsitektur jaringan di-set sbb. 1 input layer, dengan 2 neuron (x 1 dan x 2 ) 1 hidden layer, dengan 4 neuron (z 1,z 2,z 3 dan z 4 ) Gunakan fungsi aktivasi sigmoid 1 output layer dengan 1 neuron Gunakan fungsi aktivasi sigmoid

11 Nilai-nilai bobot dan bias awal ditentukan sbb. Bobot awal input ke hidden layer : v 11 = 0,1; v 12 = 0,2; v 13 = 0,3; v 14 = 0,4 v 21 = 0,1; v 22 = 0,2; v 23 = 0,3; v 24 = 0,4 Bobot awal bias ke hidden layer: v 01 = 0,1; v 02 = 0,2; v 03 = 0,3; v 04 = 0,4 Bobot awal hidden layer ke output layer: w 1 = 0,1; w 2 = 0,2; w 3 = 0,3; w 4 = 0,4 Bobot awal bias ke output layer: w 0 = 0,5 Untuk kebutuhan pelatihan jaringan ditentukan pula: Learning rate (α) = 1 Maksimum Epoch = 1500 Target error = 0,02

12

13 Tugas Buatlah jaringan saraf untuk fungsi logika XOR- 2 input apabila arsitektur jaringan diset sbb. 1 input layer, dengan 2 neuron (x 1 dan x 2 ) 1 hidden layer dengan 3 neuron (z 1, z 2 dan z 3 ) 1 output layer dengan 1 neuron Nilai-nilai bobot dan bias awal ditentukan sbb.

14 Bobot awal input ke hidden layer : v 11 = 0,2; v 12 = 0,1; v 13 = 0,5; v 14 = 0,4 v 21 = 0,3; v 22 = 0,2; v 23 = 0,3; v 24 = 0,6 Bobot awal bias ke hidden layer: v 01 = 0,4; v 02 = 0,2; v 03 = 0,5; v 04 = 0,1 Bobot awal hidden layer ke output layer: w 1 = 0,2; w 2 = 0,7; w 3 = 0,3; w 4 = 0,1 Bobot awal bias ke output layer: w 0 = 0,3 Untuk kebutuhan pelatihan jaringan ditentukan pula: Learning rate (α) = 0,5 Maksimum Epoch = 3


Download ppt "JST BACK PROPAGATION. Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk."

Presentasi serupa


Iklan oleh Google