MLP Feed-Forward Back Propagation Neural Net

Slides:



Advertisements
Presentasi serupa
Jaringan Syaraf Tiruan
Advertisements

JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Tim Machine Learning PENS-ITS
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Backpropagation neural net
Jaringan Syaraf Tiruan (JST)
Jaringan Hopfield Nurochman.
Create By: Ismuhar dwi putra
Jaringan Syaraf Tiruan
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Back-Propagation Pertemuan 5
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Perceptron.
Jarringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Artificial Neural Network
Neural Network.
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
Asosiasi Pola Kuliah 8.
Teori Bahasa Otomata (1)
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Transcript presentasi:

MLP Feed-Forward Back Propagation Neural Net Nurochman

Multi-Layer Perceptron Marvin Minsky dan Seymour Papert dlm buku: “Perceptrons: Introduction to Computational Geometry” (1969) ttg kelebihan dan keterbatasan Single Layer Perceptron SLP tidak mampu pola-pola yg secara linier tdk dapat dipisahkan Contoh kasus XOR tdk bisa dg SLP Solusi: menambahkan lapisan tengah/tersembunyi (hidden layer) SLP mengenal AND, OR, NOT X1 XOR X2: (NOT (X1 AND X2)) AND (X1 OR X2)

(NOT (X1 AND X2)) AND (X1 OR X2) Solusi XOR (NOT (X1 AND X2)) AND (X1 OR X2) NOT X1 OR X2 X1 AND X2 X2 X1

Arsitektur MLP x1 xn

Algoritma BackPropagation Inisialisasi bobot-bobot tentukan laju pembelajaran (α) tentukan nilai ambang/ nilai toleransi (𝛉) atau tentukan epoch maksimal While kondisi berhenti tdk terpenuhi do langah 3 – 10 Untuk setiap pasangan pola pelatihan, lakukan langkah 4 – 9 Tahap umpan maju Setiap unit input Xi dari i=1 sampai n mengirim sinyal ke lapisan tersembunyi

Menghitung sinyal output pada lapisan tersembunyi Menghitung sinyal output pada lapisan output Tahap propagasi balik Menghitung error pada lapisan output, menghitung besar koreksi bobot dan bias antara lapisan tersembunyi dan output

Menghitung error pada lapisan tersembunyi, menghitung besar koreksi bobot dan bias antara lapisan input dan tersembunyi

Tahap update bobot dan bias Update bobot dari lapisan tersembunyi ke lapisan output Update bobot dari lapisan input ke lapisan tersembunyi Tes kondisi berhenti

B 1 X1 Z1 Y Z2 X2 B 3 B 2

XOR Alpha=1, teta = 0,1 bobot = 0, bias 0 Z1 = 0 + (-1.0 + -1.0) = 0 -> 0 Z2 = 0 + (-1.0 + -1.0) = 0 -> 0 Y = 0 + (0.0 + 0.0) = 0 -> 0 WZ1baru = WZ1lama + 1.-1.0 = 0 WZ2 baru = WZ2lama + 1.-1.0 = 0 B3baru = 0 + 1.-1 = -1 WX1Z1 baru = 0 + 1.1.-1 = -1 WX2Z1 baru = 0 + 1.1.-1 = -1 B1 baru = 0 + 1.1 = 1

WX1Z2 baru = 0 + 1.1.-1 = -1 WX2Z2 baru = 0 + 1.1.-1 = -1 B2 baru = 0 + 1.1 = 1 Z1 = 1 + (-1.-1 + -1.-1) = 3 -> 1 Z2 = 1 + (-1.-1 + -1.-1) = 3 -> 1 Y = -1 + (1.0 + 1.0) = -1 -> -1

Z1 = 1 + (-1.-1 + 1.-1) = 1 -> 1 Z2 = 1 + (-1.-1 + 1.-1) = 1 -> 1 Y = -1 + (1.0 + 1.0) = -1 -> -1 WZ1baru = 0 + 1.1.1 = 1 WZ2 baru = 0 + 1.1.1 = 1 B3baru = -1 + 1.1 = 0 WX1Z1 baru = -1 + 1.1.-1 = -2 WX2Z1 baru = -1 + 1.1.1 = 0 B1 baru = 1 + 1.1 = 2 WX1Z2 baru = -1 + 1.1.-1 = -2 WX2Z2 baru = -1 + 1.1.1 = 0 B2 baru = 1 + 1.1 = 2 Z1 = 2 + (-2.-1 + 0.1) = 4 -> 1 Z2 = 2 + (-2.-1 + 0.1) = 4 -> 1 Y = 0 + (1.1 + 1.1) = 2 -> 1

Z1 = 2 + (-2.1 + 0.-1) = 0 -> 0 Z2 = 2 + (-2.1 + 0.-1) = 0 -> 0 Y = 0 + (1.0 + 1.0) = 0 -> 0 WZ1baru = 1 + 1.1.0 = 1 WZ2 baru = 1 + 1.1.0 = 1 B3baru = 0 + 1.1 = 1 WX1Z1 baru = -2 + 1.1.1 = -1 WX2Z1 baru = 0 + 1.1.-1 = -1 B1 baru = 2 + 1.1 = 3 WX1Z2 baru = -2 + 1.1.1 = -1 WX2Z2 baru = 0 + 1.1.-1 = -1 B2 baru = 2 + 1.1 = 3 Z1 = 3 + (-1.1 + -1.-1) = 3 -> 1 Z2 = 3 + (-1.1 + -1.-1) = 3 -> 1 Y = 1 + (1.1 + 1.1) = 3 -> 1

Z1 = 3 + (-1.1 + -1.1) = 1 -> 1 Z2 = 3 + (-1.1 + -1.1) = 1 -> 1 Y = 1 + (1.1 + 1.1) = 3 -> 1 B1 baru = 3 + 1.-1 = 2 WX1Z1 baru = 3 + 1.-1.1 = 2 WX2Z1 baru = 3 + 1.-1.1 = 2 B2 baru = 3 + 1.-1 = 2 WX1Z2 baru = 3 + 1.-1.1 = 2 WX2Z2 baru = 3 + 1.-1.1 = 2 WZ1baru = 1 + 1.-1.1 = 0 WZ2 baru = 1 + 1.-1.1 = 0 B3baru = 1 + 1.-1 = 0 Z1 = 2 + (2.1 + 2.1) = 6 -> 1 Z2 = 2 + (2.1 + 2.1) = 6 -> 1 Y = 0 + (0.1 + 0.1) = 0 -> 0

B1 baru = 2 + 1.-1 = 1 WX1Z1 baru = 2 + 1.-1.1 = 1 WX2Z1 baru = 2 + 1.-1.1 = 1 B2 baru = 2 + 1.-1 = 1 WX1Z2 baru = 2 + 1.-1.1 = 1 WX2Z2 baru = 2 + 1.-1.1 = 1 WZ1baru = 0 + 1.-1.1 = -1 WZ2 baru = 0 + 1.-1.1 = -1 B3baru = 0 + 1.-1 = -1 Z1 = 1 + (1.1 + 1.1) = 3 -> 1 Z2 = 1 + (1.1 + 1.1) = 3 -> 1 Y = -1 + (-1.1 + -1.1) = -3 -> -1

Any Questions?