Jaringan Syaraf Tiruan

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

Jaringan Syaraf Tiruan
(Jaringan Syaraf Tiruan) ANN (Artificial Neural Network)
JARINGAN SYARAF TIRUAN
Algoritma JST Backpropagation
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
PERCEPTRON. Konsep Dasar  Diusulkan oleh: Rosenblatt (1962) Minsky and Papert (1960, 1988)  Rancangan awal: Terdiri dari 3 layer:  Sensory unit  Associator.
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Learning Vector Quantization (LVQ)
Jaringan Saraf Tiruan Model Hebb.
METODE HEBB~3 Sutarno, ST. MT..
Pengenalan Jaringan Syaraf Tiruan
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Rosenblatt 1962 Minsky – Papert 1969
Jaringan Syaraf Tiruan (JST)
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
PENGANTAR JARINGAN SYARAF TIRUAN (JST)
Jaringan Syaraf Tiruan (JST) stiki. ac
Pertemuan 10 Neural Network
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
Konsep Neural Network Learning Pertemuan 3
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Fungsi Aktivasi JST.
Jaringan Syaraf Tiruan
JST PERCEPTRON.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (JST)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jaringan Syaraf Tiruan
McCulloch – Pitts Neuron
Neural Network.
JARINGAN SYARAF TIRUAN
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Asosiasi Pola Kuliah 8.
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Transcript presentasi:

Jaringan Syaraf Tiruan Pertemuan 13 Jaringan Syaraf Tiruan

SUB TOPIK BAHASAN Pengertian JST Komponen JST Arsitektur JST Fungsi Aktivasi

Pengertian JST Jaringan syaraf merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut Buatan karena di implementasikan dengan program komputer

KOmponen Jaringan Syaraf Jaringan syaraf terdiri atas beberapa neuron Ada hubungan antar neuron Neuron mentransformasikan informasi yg diterima melalui sambungan keluarnya menuju neuron-neuron yg lain Pada jaringan syaraf hubungan ini dikenal dengan bobot

Arsitektur Jaringan Neuron-neuron dikelompokkan dalam lapisan-lapisan Neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama Kelakuan neuron ditentukan oleh fungsi aktivasi dan pola bobotnya

a. Single Layer net

b. Multiple Layer Net

Fungsi aktivasi Masukan pada jaringan akan diproses oleh suatu fungsi yang akan menjumlahkan nilai-nilai semua bobot dan bias. Hasil dari penjumlahan akan dibandingkan dengan suatu nilai ambang (threshold) melalui fungsi aktivasi setiap neuron.

Hard Limit (undak Biner)

Symetric Hard Limit (Bipolar)

Fungsi Linier (Identitas) y = x

Symetric Saturating Linear

Sigmoid Biner

Sigmoid Bipolar

Proses Pembelajaran Supervised learning UnSupervised learning

a. Supervised learning Pembelajaran terawasi jika output yang diharapkan telah diketahui sebelumnya Contoh : Pengenalan pola , misal pada operasi AND Input Output 0 0 0 0 1 0 1 0 0 1 1 1

a. Supervised learning Jika terjadi perbedaan antara pola output hasil pembelajaran dengan pola target maka akan muncul error Jika nilai error masih besar, maka perlu banyak dilakukan pembelajaran lagi

B Unsupervised learning Tidak memerlukan target output Tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran Selama proses pembelajaran,nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan Tujuan adalah untuk mengelompokkan unit-unit yang hampir sama dalam satuan area tertentu Cocok untuk pengelompokan pola

Penerapan Jaringan Syaraf Tiruan

Model Hebb Diusulkan oleh Donald Olding Hebb pada th 1949 Metode pengembangan dari metode McCulloch-Pitts Menentukan bobot dan bias secara analitik (manual) Pembelajaran dilakukan dengan memperbaiki nilai bobot secara continue

Model Hebb Perbaikan bobot diperoleh dengan cara wi(baru) = wi(lama) + xi*y b(baru) = b(lama) + y dengan: wi = bobot data input ke-i xi = input data ke-i y = output data b = nilai bias

algoritma Inisialisasi semua bobot : wij =0; dengan i=1,2,...,n; j=1,2,...,m Untuk setiap pasangan input-output (s-t), lakukan langkah sbb: set input dengan nilai sama dengan vektor input: xi = si ; (i =1,2,..,n) Set output dengan nilai sama dengan vektor output: yj = tj ; (j =1,2,..,m) Perbaiki bobot: wij = wij + xiyi ; (i =1,2,..,n); dan (j =1,2,..,m)

Kasus OR {-1,-1,-1} w1 = 0 + (-1)(-1) = 1 w2 = 0 + (-1)(-1) = 1 b = 0 + (-1) = -1 {-1,1,1} w1 = 1 + (-1)(1) = 0 w2 = 1 + (1)(1) = 2 b = -1 + (1) = 0 {1,-1,1} w1 = 0 + (1)(1) = 1 w2 = 2 + (-1)(1) = 1 b = 0 + (1) = 1 {1,1,1} w1 = 1 + (1)(1) = 2 b = 1 + (1) = 2 Kasus OR X1 X2 t -1 1

Akhir pembelajaran, diperoleh bobot akhir w1 = 2, w2=2, b=2 Pengujian : x1 = -1 dan x2 = 1 , maka : y = (2)(-1) + ( 2) (1) + 2 = 2 Dengan fungsi bipolar , maka diperoleh output y =F(2) =1  karena 2 > 1 Sehingga y = t

Model Perceptron Digunakan untuk mengklasifikasikan suatu tipe pola tertentu Mengatur parameter2 melalui proses pembelajaran. Pembelajaran utk mendapatkan bobot akhir dilakukan secara berulang sampai sdh tdk ada error (output = target) Namun jika msh ada error maka proses dihentikan  maksimum epoh. Epoh ; proses pengulangan utk melatih semua pasangan data.

Arsitektur perceptron

Algoritma Pelatihan Inisialisasi laju pembelajaran (α), nilai ambang (𝛉), bobot, bias Menghitung Jika y ≠ target, lakukan update bobot dan bias Wi baru = Wlama + α.t.Xi b baru = b lama + α.t Ulang dari langkah 2 sampai tidak ada update bobot lagi

{0,0,0} y = 0 + (0.0 + 0.0) = 0 {0,1,1} y = 0 + (0.0 + 0.1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 0 + 1.1.1 = 1 bias baru = 0 + 1.1 = 1 y = 1 + (0.0 + 1.1) = 2, output = 1 {1,0,1} y = 1 + (0.1 + 1.0) = 1, output = 1 {1,1,1} y = 1 + (0.1 + 1.1) = 2, output = 1 Kasus OR X1 X2 t 1 Inisialisasi: α = 1, 𝛉 = 0,1 w = 0, b = 1 Input dan target berbentuk biner

{0,0,0} y = 1 + (0.0 + 1.0) = 1 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 1 + 1.1.0 = 1 bias baru = 1 + 1.1 = 2 y = 2 + (0.0 + 1.0) = 2, output=1 terjadi stagnasi walaupun bobot dan bias diupdate terus. maka input dan target biner tdk cocok utk kasus OR.

Kasus OR {-1,-1,-1} y = 0 + (0.-1 + 0.-1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.-1.-1 = 1 W2baru = 0 + 1.-1.-1 = 1 bias baru = 0 + 1.-1 = -1 y = -1 + (1.-1 + 1.-1) = -3, output = -1 {-1,1,1} y = -1 + (1.-1 + 1.1) = -1 W1baru = 1 + 1.1.-1 = 0 W2baru = 1 + 1.1.1 = 2 bias baru = -1+ 1.1 = 0 Kasus OR X1 X2 t -1 1

y = 0 + (0.-1 + 2.1) = 2, ouput = 1 {1,-1,1} y = 0 + (0.1 + 2.-1) = -2 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.1 = 1 W2baru = 2 + 1.1.-1 = 1 bias baru = 0+ 1.1 = 1 y = 1 + (1.1 + 1.-1) = 1 {1,1,1} y = 1 + (1.1 + 1.1) = 3, output=1

Pada akhir pembelajaran diperoleh w1=1, w2 = 1, dan b=1. Pengujian data : Input : x1 = -1, dan x2 = 1 maka; y = 1 + (-1.1 + 1.1) = 1  y = t