Perceptron.

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

(Jaringan Syaraf Tiruan) ANN (Artificial Neural Network)
JARINGAN SYARAF TIRUAN
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Clustering (Season 2) Self-Organizing Map
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
Pertemuan 10 Neural Network
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Learning Kecerdasan Mesin dan Artifisial
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Fungsi Aktivasi JST.
Jaringan Syaraf Tiruan
Arsitektur Neural Network Pertemuan 2
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
Strategi pembelajaran dasar
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Clustering (Season 2) Self-Organizing Map
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan umpan maju dan pembelajaran dengan propagasi balik
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
Simple Networks Jaringan Sederhana Machine Learning Team PENS - ITS 2006 Modification By Agus SBN.
Transcript presentasi:

Perceptron

Σ Simple neuron / perceptron Element: Input : x1, x2 Bias / u X1 w1 Σ h h’ Fungsi Aktivasi w2 X2 Simple neuron / perceptron Element: Input : x1, x2 Weight/Bobot: w1, w2 Summation Layer (penjumlahan ): h= x1.w1+x2.w2+bias Fungsi Aktivasi (sesuai dengan pilihan ) h -> h’ Bias (u) sebuah konstanta

Activation Functions Hard Limit Threshold Linear (Identity) Sigmoid Radial Basis Function (RBF) …

Hard Limit Threshold Symetric Hard Limit Bipolar Threshold

Symetric Piecewise-linear Linear (Identity) Piecewise-linear Symetric Piecewise-linear

Symetric (Bipolar) Sigmoid Radial Basis Function (RBF)

Radial Basis Function (RBF)

AND x1 + x2 – 1,5 = 0 w1.x1 + w2.x2 – 1,5 = 0 x1 x2 y 1 1 x1 x2 1 1 x1 x2 Kelasku mana? x1 + x2 – 1,5 = 0 w1.x1 + w2.x2 – 1,5 = 0

Contoh Kasus AND [1] Anda diminta untuk mengembangkan sebuah perceptron untuk menangani kasus operasi logic AND -> mengubah operasi logic menjadi perhitungan. Perhatikan Learning Algorithm berikut dan definisi fungsi aktivasi yang digunakan (hard-limit)

Contoh Kasus AND [2] Misalkan diberikan inisialisasi bobot dan bias sebagai berikut : w1=0.5 ; w2=0.5; bias (u)=-1.5 Learning rate (η)= 1; Dengan inisialisasi awal tersebut maka formuluasi luaran perceptron adalah: 0.5 * x1 + 0.5 * x2 -u

Contoh Kasus AND [3] Luaran perceptron : 0.5 * x1 + 0.5 * x2 + (-1.5) Mari mulai melakukan learning, dengan berpedoman pada set training input sebagai berikut: X1 X2 AND (desired output) 1 Lakukan training untuk mencari bobot w1 dan w2 yang mampu melakukan operasi AND Ingat fungsi aktivasi h->h’ adalah hard-limit: h’=1 JIKA h >0 h’=0 JIKA h <=0

Contoh Kasus AND [4] Formula update bobot: W(t+1)=Wt+η (d-y)xi Ingat formula luaran perceptron (h) =w1 * x1 + w2 * x2 + u (u=-1.5) Formula update bobot: W(t+1)=Wt+η (d-y)xi t w1 w2 x1 x2 h h’ = y d error (d-y) (t+1) 1 0.5 -1.5 2 -1 3 4 -0.5 1.5 5 6 7 8 Iterasi t berhenti pada nilai 8, dikarenakan seluruh data input sudah diujicobakan dan nilai error yang diperoleh adalah 0. Idealnya training berhenti bila nilai error=0 atau mencapai error yang diinginkan atau mencapai batas iterasi maksimal yang telah ditetapkan

Latihan [1] Setelah anda mempelajari dan memahami cara kerja sebuah perceptron, misalkan untuk kasus yang sama (AND), diberikan inisialiasi sebagai berikut: w1= 0.5; w2=1.5; u= (-3) Learning rate (η)= 1; Tentukan nilai akhir w1 dan w2 yang dapat merepresentasikan fungsi AND.

Latihan [2] Dengan struktur perceptron yang sama dengan Latihan 1, bila perceptron ditujukan untuk meniru fungsi OR berapa nilai akhir w1 dan w2? Bisakah sebuah perceptron digunakan untuk menirukan fungsi XOR? Silahkan rancang perceptron (bisa 1 atau lebih) untuk meniru fungsi XOR -> Lihat slide selanjutnya.

Σ Σ Σ Bias1 / u1 w11 h1 X1 F.A h1’ w12 h3 h3’ F.A Bias2 / u2 w21 h2 X2