Supervised Learning Process dengan Backpropagation of Error

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

(Jaringan Syaraf Tiruan) ANN (Artificial Neural Network)
JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Aplikasi Model Jaringan Syaraf Tiruan dengan Radial Basis Function untuk Mendeteksi Kelainan Otak (Stroke Infark) Yohanes Tanjung S.
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Create By: Ismuhar dwi putra
PENGENALAN EKSPRESI WAJAH PADA CITRA DUA DIMENSI Ardanti Anandita
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Back-Propagation Pertemuan 5
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
Oleh: Ineza Nur Oktabroni (G )
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Jaringan Syaraf Tiruan
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Transcript presentasi:

Supervised Learning Process dengan Backpropagation of Error Jaringan Saraf Tiruan Supervised Learning Process dengan Backpropagation of Error Andre Tampubolon – 1204000114 Arawinda D. – 1205000169 Bernadia Puspasari – 1205000223 Bobby Alexander – 1205000231 Clara Vania – 1205000266 Dyta Anggraeni - 1205000304

Latar Belakang Kebutuhan akan teknologi pengenalan wajah untuk mendukung kegiatan sehari-hari manusia, misalnya dalam hal keamanan dan identifikasi.

Melakukan pembelajaran agar suatu input citra dapat dikenali. Tujuan Umum Melakukan pembelajaran agar suatu input citra dapat dikenali. Khusus Menghitung error dari hasil keluaran dan target untuk digunakan sebagai bahan pembelajaran agar dapat mencapai hasil yang mendekati target

Experimental Design Layer dibagi menjadi tiga, yaitu input layer, hidden layer, dan output layer. Input layer terdiri dari 900 neuron dari sebuah data yang berukuran 30x30 pixel. Hidden layer terdiri dari 100 neuron, dan output layer terdiri dari 5 neuron sebagai target. Langkah-langkah yang dilakukan: Inisialisasi bobot dengan metode Nguyen-Widron. Selama nilai error belum mencapai batas toleransi error atau epoch belum mencapai 104, lakukan proses Feedforward dan Backpropagation.

Feedforward Setiap input yang diterima dikirimkan ke semua unit layer di atasnya (hidden layer). Pada setiap unit hidden, 1. Semua sinyal input dengan bobotnya dihitung sebagai input dari hidden layer. 2. Nilai aktivasi sebagai output unit hidden dihitung. 3. Nilai aktivasi dikirim sebagai input untuk unit output. Pada setiap unit output, 1. Semua sinyal input dengan bobotnya dihitung sebagai input dari output layer. 2. Nilai aktivasi sebagai output jaringan dihitung.

Backpropagation Pada setiap unit output: 1. Menerima pola target yang bersesuaian dengan pola input. 2. Menghitung informasi error. 3. Menghitung besarnya koreksi bobot unit output. 4. Menghitung besarnya koreksi bias output. 5. Mengirimkan informasi error ke unit-unit yang ada pada layer di bawahnya.

Backpropagation Pada setiap unit hidden: 1. Menghitung semua koreksi error. 2. Menghitung nilai aktivasi koreksi error. 3. Menghitung koreksi bobot unit hidden. 4. Menghitung koreksi error bias unit hidden. Setelah itu, setiap unit output dan hidden masing-masing meng-update bobot dan biasnya.

Experimental Result Dari hasil penelitian yang kelompok kami lakukan, error paling minimum didapatkan ketika dipilih alpha dan momentum yang paling kecil, yaitu masing-masing bernilai 0.1. Sebanyak 10.000 iterasi dilakukan dan kemudian didapatkan error yang turun naik, namun akhirnya konvergen menurun.

Experimental Result