Perceptron Algoritma Pelatihan Perceptron:

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Clustering (Season 2) Self-Organizing Map
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Perceptron.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Neural Network.
JARINGAN SYARAF TIRUAN
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Asosiasi Pola Kuliah 8.
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
Simple Networks Jaringan Sederhana Machine Learning Team PENS - ITS 2006 Modification By Agus SBN.
Transcript presentasi:

Perceptron Algoritma Pelatihan Perceptron: 1. Inisialisasi semua bobot dan bias (biasanya = 0) Set learning rate:  (0 <   1). untuk penyederhanaan set sama dengan 1. Set nilai threshold (θ) untuk fungsi aktivasi 2. Untuk setiap pasangan pembelajaran s-t, kerjakan: a) set aktivasi unit input xi = si; b) Hitung respon untuk unit output: c) Masukkan kedalam fungsi aktivasi :

Perceptron d) Bandingkan nilai output jaringan y dengan target t jika y ≠ t , lakukan perubahan bobot dan bias dengan cara : wi(baru) = wi(lama) + *t*xi b(baru) = b(lama) + *t jika y = t , tidak ada perubahan bobot dan bias: wi(baru) = wi(lama) b(baru) = b(lama) 3. Lakukan iterasi terus-menerus hingga semua pola memiliki output jaringan yang sama dengan targetnya. Artinya bila semua output jaringan sama dengan target maka jaringan telah mengenali pola dengan baik dan iterasi dihentikan.

Contoh Soal .1 Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran bipolar. Pilih  = 1 dan  = 0,2 Jawab : Pola hubungan masukan-target : x1 x2 t -1 1  f X1 net y X2 b

Masukan Target  pi wi + b Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 1 1 -1 Masukan Target  pi wi + b Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 2 1 -1 -2 2

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke – 3 2 1 -1 -2 -3 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 4 1 -1 -2 2 -3

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 5 2 -2 1 -1 -3 3 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 6 3 2 -2 1 -1 -3 -4

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 7 3 2 -3 1 -1 -4 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 8 1 -1 -3 3 2 -4

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 9 3 2 -4 1 -1 -2

Contoh Soal .1 Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran bipolar. Pilih  = 0,8 dan  = 0,5 Jawab : Pola hubungan masukan-target : x1 x2 t -1 1  f X1 net y X2 b

Masukan Target  pi wi + b Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke – 1 0,8 -1 -0,8 1 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 2 0,8 -1 1

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke – 3 0,8 -1 1 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 4 0,8 -1 1

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 5 0,8 -1 1 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 6 0,8 -1 1

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 7 0,8 -1 1 Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 8 0,8 -1 1

Masukan Target  pi wi + b Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2  t net y=f(n) w1 w2 b w1 w2 b Epoch ke - 9 0,8 -1 1

Latihan Soal .3 (TUGAS) Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka  = 1 dan  = 0,1. x1 x2 X3 t 1 -1