Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

Jaringan Syaraf Tiruan
(Jaringan Syaraf Tiruan) ANN (Artificial Neural Network)
JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Tim Machine Learning PENS-ITS
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
Array.
UP. Fakultas Teknologi Informasi dan Komunikasi
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Out Come Setelah mengikuti pertemuan ini mahasiswa diharapkan dapat mngerti dan menjelaskan: struktur jaringan biologi dan JST, pemakaian matematika untuk.
Dr. Benyamin Kusumoputro
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Backpropagation neural net
Jaringan Syaraf Tiruan (JST)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Back-Propagation Pertemuan 5
MODEL JARINGAN PERCEPTRON
PENGANTAR JARINGAN SYARAF TIRUAN (JST)
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Perceptron.
Jarringan Syaraf Tiruan
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Learning Kecerdasan Mesin dan Artifisial
Artificial Intelligence Oleh Melania SM
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Fungsi Aktivasi JST.
Jaringan Syaraf Tiruan
Arsitektur Neural Network Pertemuan 2
JST PERCEPTRON.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan
Artificial Neural Network
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
Teori Bahasa Otomata (1)
Transcript presentasi:

Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik

Jaringan Syaraf Tiruan Perceptron Single Layer JST Multi Layer Perceptron (MLP) JST Propagasi Balik

Multiple Layer 1 bias v01 1 v11 X1 w01 Z1 w11 v12 Y1 v21 w21 X2 Z2 v22 Output Layer v02 1 input Layer Hidden Layer

Review Perceptron : AND X1 X2 net Y, 1 jika net >=2, 0 jika net < 2 1 1 1.1+1.1=2 1 1 0 1.1+0.1=1 0 0 1 0.1+1.1=1 0 0 0 0.1+0.1=0 0 Ternyata BERHASIL mengenali pola X1 X2 Y 2 1

Review Perceptron : OR X1 X2 net Y, 1 jika net >=1, 0 jika net < 1 1 1 1.1+1.1=2 1 1 0 1.1+0.1=1 1 0 1 0.1+1.1=1 1 0 0 0.1+0.1=0 0 Ternyata BERHASIL mengenali pola X1 X2 Y 1

Review Perceptron : X1 and not(X2) X1 X2 net Y, 1 jika net >=2, 0 jika net < 2 1 1 1.2+1.-1=1 0 1 0 1.2+0.-1=2 1 0 1 0.2+1.-1=-1 0 0 0 0.2+0.-1=0 0 Ternyata BERHASIL mengenali pola X1 X2 Y 2 -1

Problem “XOR” X1 X2 Y 1 1 0 1 0 1 0 1 1 0 0 0 GAGAL! F(1,1) = 0 1 1 0 1 0 1 0 1 1 0 0 0 GAGAL!

Solusi XOR = (x1 ^ ~x2) V (~x1 ^ x2) Ternyata dibutuhkan sebuah layer tersembunyi -> Multi Layer Perceptron X1 X2 Z1 Z2 Y 2 -1 1

Tabel

JST Propagasi Balik 3 tahapan : 1. Feedforward pola pelatihan yang diinput 2. perhitungan dan propagasi balik kesalahan 3. penyesuaian bobot (weight). Untuk mendapatkan bobot akhir yang bisa memetakan output dengan tepat, diperlukan 3 tahapan di atas

Fungsi Aktivasi Fungsi undak biner (hard limit) Fungsi undak biner (threshold) 

Fungsi Aktivasi Fungsi bipolar Fungsi bipolar dengan threshold

Fungsi Aktivasi Fungsi Linier (identitas) Fungsi Sigmoid biner

Contoh Kasus Misal akan dibuat arsitektur JST Back Propagation mengenali angka 1-9 dengan 5 neuron pada hidden layer dengan fungsi tansig (tan sigmoid) dan 4 neuron pada output dengan fungsi purelin (pure linear)

function NN() %ada 15 baris karena grid 3x5 rangeinput=[0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1 ]; %bikin feedforward net=newff(rangeinput,[5 4],{'tansig' 'purelin'}); % 5 neouron hidden dengan tansig, 4 neuron output dengan purelin %inisialisasi net=init(net);

angka1=[0; 1; 0; 1; 1; 0; 0; 1; 0; 1; 1; 1]; angka2=[1; 1; 1; 0; 0; 1; 0; 1; 1; angka3=[1; 1; 1; 1; 1; 1; angka4=[1; 0; 1; 1; 0; 1; 0; 0; 1];

angka5=[1; 1; 1; 1; 0; 0; 1; 1; 1; 0; 0; 1; 1; 1; 1]; p=[angka1 angka2 angka3 angka4 angka5 angka6 angka7 angka8 angka9]; t=[0 0 0 1; 0 0 1 0; 0 0 1 1; 0 1 0 0; 0 1 0 1; 0 1 1 0; 0 1 1 1; 1 0 0 0; 1 0 0 1]; %9x9 karena data trainingnya ada 9

t=t'; %training net= train(net, p, t); %testing %a=sim(net, datatesting) %melihat nilai semua bobot dari lapisan input ke layer disp('net.IW{1,1}-->'); net.IW{1,1} %melihat nilai semua bobot dari layer 1 ke layer 2 disp('net.LW{2,1}-->'); net.LW{2,1} disp('net.b{1}-->'); net.b{1} disp('net.b{2}-->'); net.b{2} datatesting=[0; 1; 0; 1; 1; 0; 0; 1; 0; 0; 1; 0; 1; 1; 1]; a=sim(net,datatesting)

Latihan Input training data

Input testing data

neuron Input : 15 neurons Hidden layer : 5 neurons Output layer : 4 neurons Hidden layer : purelin (linear) Output layer : tansig (sigmoid)