D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

Algoritma JST Backpropagation
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Learning Vector Quantization (LVQ)
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
PENGENALAN JARINGAN SYARAF TIRUAN (JST)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Clustering (Season 2) Self-Organizing Map
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
PENGANTAR JARINGAN SYARAF TIRUAN (JST)
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
Konsep Neural Network Learning Pertemuan 3
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Kuliah Sistem Fuzzy Pertemuan 8 “Adaptive Neuro Fuzzy System”
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan: Ikhtisar Singkat
Jaringan Syaraf Tiruan
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Clustering (Season 2) Self-Organizing Map
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Pengenalan Pola secara Neural (PPNeur)
Metode Data Mining “ Self-Organizing Map [SOM] ” Taskum Setiadi ADVANCE MACHINE LEARNING STMIK Nusa Mandiri Jakarta2016 ADVANCE MACHINE LEARNING.
JARINGAN SYARAF TIRUAN
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Asosiasi Pola Kuliah 8.
Teori Bahasa Otomata (1)
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Transcript presentasi:

D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan tersembunyinya. Menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward). Error ini didapat melaui tahap perambatan maju (forward propagation) harus dikerjakan dahulu.

Neuron diaktifkan dengan fungsi aktivasi sigmoid

Arsitektur

Algoritma backprop Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil) Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, kerjakan feedforward

feedforward tiap-tiap unit input (xi , i=1,2,3,…,n) menerima sinyal xi dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya (lapisan tersembunyi) Tiap-tiap unit tersembunyi (zj, j= 1,2,3,..p) menjumlahkan sinyal-sinyal input terbobot gunakan fungsi aktivasi untuk menghitung sinyal outputnya zj = f(z_inj) dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output)

c. tiap-tiap unit output (yk, k=1,2,3, c. tiap-tiap unit output (yk, k=1,2,3,..m) menjumlahkan sinyal-sinyal input terbobot gunakan fungsi aktivasi untuk menghitung sinyal outputnya : yk = f(y_ink) Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output)

Backpropagation d. Tiap-tiap unit output (yk, k=1,2,3,…,m) menerima target pola yang berhubungan dengan pola input pembelajaran,hitung informasi errornya Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai wjk)

Kirimkan δk ini ke unit-unit yang ada di lapisan bawahnya Hitung koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai wok) Kirimkan δk ini ke unit-unit yang ada di lapisan bawahnya

e. Tiap-tiap unit tersembunyi (zj, j=1,2,3,…,p) menjumlahkan delta inputnya (dari unit-unit yang berada pada lapisan diatasnya) Kalikan nilai ini dengan turunan dari fungsi aktivasi-nya untuk menghitung informasi error

Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai vij) Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai v0j)

f. Tiap-tiap unit output (yk , k=1,2,3, f. Tiap-tiap unit output (yk , k=1,2,3,..m) memperbaiki bias dan bobotnya (j=0,1,2,…,p) wjk(baru) = wjk(lama)+Δwjk Tiap-tiap unit tersembunyi (zj, j =1,2,3,…,p) memperbaiki bias dan bobotnya (i=0,1,2,..,n) vij(baru)=vij(lama)+Δvij 2. Tes kondisi terhenti

e. Learning Vector Quantization Metode pembelajaran pada lapisan kometitif yang terawasi Lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan vektor-vektor input Kelas-kelas yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya bergantung pada jarak antara vektor-vektor input Jika 2 vektor input mendekati sama maka lapisan kompetitif akan meletakkan kedua vektor input tersebut kedalam kelas yang sama

Algoritma Tetapkan bobot (w), maximum epoh (maxEpoh), error minimum yang diharapkan (Eps), Learning rate(α) Masukkan input : x(m.n) Targetm : T(1,n) 3. Tetapkan kondisi awal: epoh : 0 err :1

4. Kerjakan jika: (epoch<MaxEpoh) atau (α>eps) epoh=epoh+1 Kerjakan untuk i=1 sampai n i. Tentukan J sedemikian hingga ||x-wj|| minimum (sebut sebagai Cj)

ii. Perbaiki wj dengan ketentuan - Jika T = Cj maka: wj(baru)=wj(lama)+α(x-wj(lama)) - Jika T≠Cj maka wj(baru)=wj(lama)-α(x-wj(lama)) c. Kurangi nilai α

Unsupervised Learning (jaringan Kohonen) Diperkenalkan oleh Prof. Teufo Kohonen 1982 Pada jaringan ini suatu lapisan yang berisi neuron-neuronn akan menyusun dirinya sendiri berdasarkan input nilai tertentu dalam suatu kelompok yang dikenal dengan istilah cluster

Selama proses penyusunan diri,cluster yang memiliki vektor bobot paling cocok dengan pola input (memiliki jarak yang paling dekat) akan terpilih sebagai pemenang Neruon yang menjadi pemenang beserta neuron-neuron tetangganya akan memperbaiki bobot-bobotnya

Algoritma 0. Inisialisasi bobot wij set parameter-parameter tetangga set parameter learning rate Kerjakan jika kondisi berhenti bernilai FALSE a. Untuk setiap vektor input x , kerjakan - Untuk setiap j, hitung

- Tentukan J, sedemikian hingga D(J) minimum - Untuk setiap unit j dengan spesifikasi tetangga tertentu dan untuk setiap I wij(baru)=wij(lama)+α(xi-wij(lama)) b. Perbaiki learning rate c. Kurangi radius ke tetanggaan pada waktu-waktu tertentu

d. Tes kondisi berhenti Tugas Buat Rangkuman tentang Genetic Algoritm