MLP Feed-Forward Back Propagation Neural Net

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Jaringan Syaraf Tiruan (JST)
Jaringan Hopfield Nurochman.
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Back-Propagation Pertemuan 5
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Perceptron.
Jarringan Syaraf Tiruan
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
SISTEM INTELEJEN UNTUK PREDIKSI PERTUMBUHAN EKONOMI DENGAN MENGGUNAKAN JARINGAN SYARAF TIRUAN DAN ADAPTIF NEURO-FUZZY Oleh: Y. Restuwardi G Dibimbing.
Fungsi Aktivasi JST.
Jaringan Syaraf Tiruan
Arsitektur Neural Network Pertemuan 2
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jaringan Syaraf Tiruan
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
Asosiasi Pola Kuliah 8.
Teori Bahasa Otomata (1)
Transcript presentasi:

MLP Feed-Forward Back Propagation Neural Net Nurochman

Multi-Layer Perceptron Marvin Minsky dan Seymour Papert dlm buku: “Perceptrons: Introduction to Computational Geometry” (1969) ttg kelebihan dan keterbatasan Single Layer Perceptron SLP tidak mampu pola-pola yg secara linier tdk dapat dipisahkan Contoh kasus XOR tdk bisa dg SLP Solusi: menambahkan lapisan tengah/tersembunyi (hidden layer) SLP mengenal AND, OR, NOT X1 XOR X2: (NOT (X1 AND X2)) AND (X1 OR X2)

(NOT (X1 AND X2)) AND (X1 OR X2) Solusi XOR (NOT (X1 AND X2)) AND (X1 OR X2) NOT X1 OR X2 X1 AND X2 X2 X1

Arsitektur MLP x1 xn

Algoritma BackPropagation Inisialisasi bobot-bobot tentukan laju pembelajaran (α) tentukan nilai ambang/ nilai toleransi (𝛉) atau tentukan epoch maksimal While kondisi berhenti tdk terpenuhi do langah 3 – 10 Untuk setiap pasangan pola pelatihan, lakukan langkah 4 – 9 Tahap umpan maju Setiap unit input Xi dari i=1 sampai n mengirim sinyal ke lapisan tersembunyi

Menghitung sinyal output pada lapisan tersembunyi Menghitung sinyal output pada lapisan output Tahap propagasi balik Menghitung error pada lapisan output, menghitung besar koreksi bobot dan bias antara lapisan tersembunyi dan output

Menghitung error pada lapisan tersembunyi, menghitung besar koreksi bobot dan bias antara lapisan input dan tersembunyi

Tahap update bobot dan bias Update bobot dari lapisan tersembunyi ke lapisan output Update bobot dari lapisan input ke lapisan tersembunyi Tes kondisi berhenti

Fungsi Aktivasi Fungsi Sigmoid Biner Fungsi Sigmoid Bipolar Fungsi Tangen Hiperbolik

Fungsi Sigmoid Biner Dengan turunan:

Fungsi Sigmoid Bipolar Dengan turunan:

Fungsi Tangen Hiperbolik Dengan turunan:

Inisialisasi Nguyen-Widrow Insialisasi bobot dan bias umumnya acak dan memiliki interval (-𝛄 dan 𝛄) Inisialisasi acak membuat waktu pembelajaran relatif lama Inisialisasi nguyen-widrow akan membuat waktu pembelajaran lebih cepat Bias dan bobot dari unit tersembunyi ke unit output tetap diinisialisasi acak

Faktor Skala Nguyen-Widrow (𝛃) n = banyak unit input p = banyak unit tersembunyi 𝛃 = faktor skala

Prosedur inisialisasi Nguyen-Widrow Untuk setiap unit tersembunyi dari unit ke-1 sampai unit ke-p: Inisialisasi vektor bobot dari unit2 input ke unit2 tersembunyi (j=1…p) dg cara: Menentukan bobot2 antara unit input ke unit tersembunyi (Vij) Vij (lama) = bil acak antara -𝛃 dan 𝛃 Menghitung ||Vij|| Menginisialisasi kembali Vij

Update bobot dg Momentum Mempercepat proses pelatihan Proses perubahan bobot terus bergerak, shg tdk terjebak pd minimum lokal

Y1 Y2 X1 Z1 ……………………….. Y3 Z2 Y4 Z3 X15 Y5

Huruf A (010101111101101)

Any Questions?