JST PERCEPTRON.

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Perceptron.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Fungsi Aktivasi JST.
Jaringan Syaraf Tiruan
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Pelatihan BACK PROPAGATION
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Asosiasi Pola Kuliah 8.
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
Transcript presentasi:

JST PERCEPTRON

Metode pelatihan Perceptron lebih kuat dari metode Hebb terutama dalam iterasi yang dapat membuat output dari bobot menjadi konvergen. Perbedaan tipe Perceptron pertama kali dikemukakan oleh Rosenblatt (1962) dan Minsky (1969) .dan Papert (1988). Aktivasi yang digunakan dalam pereptron adalah aktivasi bipolar, yaitu -1, 0, 1.

ARSITEKTUR PERCEPTRON Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan sebuah output. Tujuan dari jaringan adalah untuk mengklasifikasikan masing-masing pola input dan pola output baik yang bernilai +1 atau yang bernilai -1.

ALGORITMA Algoritma berlaku untuk input bipolar atau input biner dengan nilai target bipolar dan nilai threshold yang tetap serta nilai bias yang dapat diatur. Langkah 1 : Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias dengan angka 0). Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)

a : set aktivasi dari unit input : xi = si Langkah 2: Selama kondisi berhenti bernilai salah, lakukan langkah berikut : Untuk masing-masing pasangan s dan t, kerjakan : a : set aktivasi dari unit input : xi = si b : hitung respon untuk unit output :

perbaiki bobot dan bias, jika terjadi kesalahan pada pola ini : jika y ≠ t, maka ∆w=α*t*xi wi (baru) = wi (lama) + w dengan w =  * xi * t b(baru) =b(lama) +  b dengan b =  * t jika tidak, maka wi (baru) = wi (lama) b(baru) = b(lama) jika masih ada bobot yang berubah maka kondisi dilanjutkan, jika tidak maka proses berhenti.

Contoh Soal 2.1 Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran bipolar. Pilih  = 1 dan  = 0,2 Jawab : Pola hubungan masukan-target : x1 x2 t -1 1  f w1 w2 x1 x2 n a b 1

Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 1 -1 Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 2 -1

Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 3 -1 Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 4 -1

Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 5 -1 Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 6 -1

Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 7 -1 Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 8 -1

Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 9 -1 Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b Epoch ke - 10 -1

Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama dengan target nya

Latihan Soal 2.2 Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka  = 1 dan  = 0,1. x1 x2 x3 t 1 -1 Jawab : Masukan Target Output Perubahan bobot w = xi t b = t Bobot baru wbaru = wlama + w bbaru = blama + b x1 x2 x3 1 t a w1 w2 w3 b w1 w2 w3 b Inisialisasi -1