PERCEPTRON Arsitektur jaringannya mirip dengan Hebb

Slides:



Advertisements
Presentasi serupa
MAP - KARNAUGH.
Advertisements

GERBANG LOGIKA DAN ALJABAR BOOLE
Gerbang Logika By : Ramdani, S.Kom.
GERBANG LOGIKA.
Materi GERBANG LOGIKA.
Welcome to GERBANG LOGIKA.
GERBANG LOGIKA pertemuan ke-8 oleh Sri Weda Mahendra S.T
GERBANG LOGIKA (LOGIC GATE)
MLP Feed-Forward Back Propagation Neural Net
Jaringan Syaraf Tiruan
JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
DESIGN RANGKAIAN LOGIKA
Yanu Perwira Adi Putra Bagus Prabandaru
Tim Machine Learning PENS-ITS
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
UP. Fakultas Teknologi Informasi dan Komunikasi
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
OLEH : DANANG ERWANTO, ST
PERTEMUAN VII LOGIKA KOMBINASI
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Jaringan Syaraf Tiruan (JST)
Jaringan Hopfield Nurochman.
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (JST)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Neural Network.
Pelatihan BACK PROPAGATION
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
Jaringan Syaraf Tiruan
Asosiasi Pola Kuliah 8.
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
Transcript presentasi:

PERCEPTRON Arsitektur jaringannya mirip dengan Hebb Fungsi aktivasinya bukan biner (0,1) atau bipolar(-1,1) tapi (-1, 0, 1) Ditemukan oleh Rosenblatt(1962) dan Minsky-Papert (1969) Algoritma pelatihan Perceptron dengan vektor input s, target t , batas ambang (threshold)  dan laju pemahaman (learning rate)  Inisialisasi semua bobot = 0 dan b = 0 Set masukan pi = si (i=1,2, …… R) Hitung keluaran n= pi wi + b Tentukan output fungsi aktivasi Bila output  target –> perbaiki bobot dan bias wi (baru) = wi (lama) + w dengan w =  pi t b(baru) =b(lama) +  b dengan b =  t Perbaikan dilakukan berulang-ulang sampai semua a=t Tidak hanya 1 epoch seperti pada aturan Hebb

Contoh Soal 2.1 Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran bipolar. Pilih  = 1 dan  = 0,2 Jawab : Pola hubungan masukan-target : p1 p2 t -1 1  f w1 w2 p1 p2 n a b 1

Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 1 -1 Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 2 -1

Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 3 -1 Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 4 -1

Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 5 -1 Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 6 -1

Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 7 -1 Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 8 -1

Latihan Soal 2.2 Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka  = 1 dan  = 0,1. p1 p2 p3 t 1 -1 Jawab : Masukan Target Output Perubahan bobot w = pi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b p1 p2 p3 1 t a w1 w2 w3 b w1 w2 w3 b Inisialisasi -1