Rosenblatt 1962 Minsky – Papert 1969

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

Algoritma JST Backpropagation
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Back-Propagation Pertemuan 5
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Perceptron.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
Konsep Neural Network Learning Pertemuan 3
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan
Artificial Neural Network
McCulloch – Pitts Neuron
Neural Network.
JARINGAN SYARAF TIRUAN
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Asosiasi Pola Kuliah 8.
Arsitektur jaringan Hebb Jaringan syaraf tiruan
While – Do (Lanjutan) Temu 11.
Teori Bahasa Otomata (1)
Transcript presentasi:

Rosenblatt 1962 Minsky – Papert 1969 PERCEPTRON Rosenblatt 1962 Minsky – Papert 1969

Arsitektur Fungsi aktifasi membentuk 2 garis sekaligus : Fungsi aktifasi bukan Biner atau polar melainkan Tertier : -1, 0 atau 1 Θ -Threshold Fungsi aktifasi membentuk 2 garis sekaligus :

Training S=vektor input, t=target output α = learning rate Θ = threshold Algoritma : 1. Init Bobot dan Bias wi=0; dan b=0 Tentukan α=1 (bisa nilai yg lain) 2. Do while ad vektor input yg response unit output >< taget

Algoritma a. Set aktifasi input xi=s (1=1,2....,n) b. Hitung respons output: net=Σxiwi+b c. Revisi bobot yang ada error (y><t) dengan persamaan :

Proses Iterasi dilakukan sampai semua pola mempunyai output yang sesuai dengan target – pola dikenali. Bukan hanya satu tahap sampai semua pola input dimasukkan Perubahan bobot hanya dilakukan pada pola yang ada error (output <> target). Perubahan = input*target*learning rate. Perubahan hanya jika input<>0 Jumlah iterasi ditentukan oleh α, 0<=α<=1. Cepat jika α besar. Ttp jika terlalu besar akan merusak pola yang benar sehingga tambah lambat

Perceptron vs Hebb Setiap pola dimasukkan, output dibandingkan dengan target, jika ada error dilakukan modifikasi bobot. Tidak semua bobot diubah pada setiap iterasi. Modifikasi bobot tidak hanya xi*t tetapi α*xi*t Training dilakukan terus untuk semua pola sampai semua pola dikenal (semua output sesuai dengan target). 1 siklus training=1 epoch. Pad Hebb hanya 1 epoch Teorema konvergensi Perceptron-Jika ada bobot yg tepat maka training akan konvergen ke bobot yg tepat tersebut

Fungsi AND Init bobot w dan bias b =0 Learning rate α=1 dan Threshold θ=0

Epoch 1 Garis pemisah pola ditentukan oleh persamaan :

Pola Geometri w1=0,w2=2, b=0 w1=1, w2=1, b=-1 w1-=1, w2=1, b=1

Pad pola pertama net dihitung bedasr bobot inisialiasasi = 0 Pad pola pertama net dihitung bedasr bobot inisialiasasi = 0. Output f(net) tidak sama dengan target maka bobot diubah ∆w=αtxi Input kedua dst dihitung sama, dan pada pola terakhir f(net)=-1 sesuai dengan target maka bobot tetap, ∆w=0 Karena tidak semua pola nilai f(net) sama dengan target maka iterasi dilanjutkan ke epoch ke 2 dengan bobot terakhir yang diperoleh.

Epoch 2 Semua f(net)= target maka iterasi berikutnya dihentikan

Threshold θ=0.2 dan α=1

Epoch 2 dan 10

Epoch 3...6

Pengenalan Pola Huruf Θ=0.5, α=1

Pola bbrp karakter

Pola Huruf ABC Pola Input Target 1 Target 2 Target 3 Pola 1 1 -1