Algoritma JST Backpropagation

Slides:



Advertisements
Presentasi serupa
Vektor dalam R3 Pertemuan
Advertisements

Oleh : Novita Cahya Mahendra
JARINGAN KOMPETISI dg BOBOT TETAP
MLP Feed-Forward Back Propagation Neural Net
Jaringan Syaraf Tiruan
PERTEMUAN VI Analisa Dualitas dan Sensitivitas Definisi Masalah Dual
METODE SIMPLEKS OLEH Dr. Edi Sukirman, SSi, MM
Sistem Persamaan linier
JARINGAN SYARAF TIRUAN
MOMENTUM LINEAR dan TUMBUKAN
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Pengenalan Konsep Aljabar Linear
DEPARTEMEN TEKNIK ELEKTRO UNIVERSITAS INDONESIA
SISTEM PERSAMAAN LINEAR
Solusi Persamaan Linier
Perceptron.
PENGAMBILAN KEPUTUSAN DALAM KONDISI PASTI
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
SISTEM PERSAMAAN LINEAR
By Eni Sumarminingsih, SSi, MM
Geometry Analitik Kelompok 4 Ning masitah ( )
TRANSFORMASI VARIABEL RANDOM DISKRIT
Persamaan Garis Lurus Latihan Soal-soal.
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Fungsi WAHYU WIDODO..
Jaringan Syaraf Tiruan (JST)
Konsep dasar Algoritma Contoh Problem
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
SISTEM INTELEJEN UNTUK PREDIKSI PERTUMBUHAN EKONOMI DENGAN MENGGUNAKAN JARINGAN SYARAF TIRUAN DAN ADAPTIF NEURO-FUZZY Oleh: Y. Restuwardi G Dibimbing.
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (JST)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Pelatihan BACK PROPAGATION
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
Teori Bahasa Otomata (1)
Transcript presentasi:

Algoritma JST Backpropagation

Arsitektur JST Backpropagation Contoh Arsitekstur JST Backpropagation dengan: n unit masukkan p unit layer tersembunyi m unit masukkan 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W10 W20 Wm0 W11 Wm1 W21 W12 Wm2 W22 W1p Wmp W2p Layer Masukkan Layer tersembunyi Layer Keluaran

Fungsi Aktifasi Fungsi aktifasi yang digunakan pada backpropagation yaitu sigmoid biner dan sigmoid bipolar

Fungsi Aktifasi

Algoritma Pelatihan Backpropagation Algoritma Pelatihan Backpropagation dengan satu layer tersembunyi dan dengan menggunakan fungsi aktivasi sigmoid biner Langkah 0 : Inisialisasi semua bobot dengan bilangan acak kecil. Langkah 1 : Jika kondisi penghentian belum terpenuhi, lakukan langkah 2 sampai dengan 8. Langkah 2: Untuk setiap pasang data pelatihan, lakukan langkah 3 sampai dengan 8 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W10 W20 Wm0 W11 Wm1 W2 1 W12 Wm2 W22 W1p Wmp W2p

Algoritma Pelatihan Backpropagation 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W1 0 W20 Wm0 W11 Wm1 W2 1 W12 Wm2 W22 W1p Wmp W2p Fase I: Propagasi Maju Langkah 3 Tiap unit masukkan menerima sinyal dan meneruskan ke unit tersembunyi Langkah 4 Hitung semua keluaran di unit tersembunyi (Zj):

Algoritma Pelatihan Backpropagation 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W1 0 W20 Wm0 W11 Wm1 W2 1 W12 Wm2 W22 W1p Wmp W2p Langkah 5 Hitung semua jaringan di unit keluaran (yk)

Algoritma Pelatihan Backpropagation 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W1 0 W20 Wm0 W11 Wm1 W2 1 W12 Wm2 W22 W1p Wmp W2p Fase II : Propagasi Maju Langkah 6 Hitung factor  unit keluaran berdasarkan kesalahan setiap unit keluaran yk (k=1,2,3….) k=(tk-yk) f’(y_netk)= (tk-yk) yk (1-yk)   k meruapakan unit kesalahan yang akan dipakai dalam perubahan bobot layer dibawahnya (lankah 7) Hitung suku perubahan bobot Wkj dengan laju perubahan α Δwkj= α k zj ; k=1,2,3,…,m ; j=0,1,2,…,p

Algoritma Pelatihan Backpropagation 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W1 0 W20 Wm0 W11 Wm1 W2 1 W12 Wm2 W22 W1p Wmp W2p Langkah 7 Hitung factor  unit tersembunyi berdasarkan kesalahan di setiap unit tersembunyi zj (j=1,2,3,…,p)  Faktor unit tersembunyi   j = _netj f’(z_netj)= _netj zj (1-zz) Hitung suku perubahan bobot vji Δvji=α jxi ; j=1,2,…,p ; i=0,1,2,…,n

Algoritma Pelatihan Backpropagation 1 Y1 Y2 Ym Z1 Z2 Zp X1 X2 Xn V10 V20 Vp0 V11 Vp1 V21 V12 Vm2 V22 V1n Vpn V2m W1 0 W20 Wm0 W11 Wm1 W2 1 W12 Wm2 W22 W1p Wmp W2p Fase III : Perubahan Bobot Langkah 8 Perubahan bobot garis yang menuju unit keluaran  wkj (baru)= wkj (lama) + Δwkj  Perubahan bobot garis yang menuju ke unit tersembunyi Vji (baru)= vji (lama) + Δvji

Laju Pemahaman Laju pemahaman di simbolkan dengan α Laju pemahaman menentukan lama iterasi Nilai dari α diantara 0 sd 1 Semakin besar nilai α semakin cepat lama iterasi Akan tetapi jika terlalu besar akan merusak pola, sehingga justru akan lebih lama iterasinya

Epoch Epoch yaitu satu siklus pelatihan yang melibatkan semua pola Misal jika suatu arsitektur JST terdapat 4 pola masukkan dan 1 target, maka pelatihan 4 pola masukkan tersebut adalah 1 epoch