Neural Network.

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

(Jaringan Syaraf Tiruan) ANN (Artificial Neural Network)
JARINGAN SYARAF TIRUAN
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
METODE HEBB~3 Sutarno, ST. MT..
JaRINGAN SARAF TIRUAN (Neural Network)
Ir. Endang Sri Rahayu, M.Kom.
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Rosenblatt 1962 Minsky – Papert 1969
Jaringan Syaraf Tiruan (JST)
PENGENALAN JARINGAN SYARAF TIRUAN (JST)
Konsep dasar Algoritma Contoh Problem
MULTILAYER PERCEPTRON
Advance Topic.
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
Jaringan Syaraf Tiruan (JST) stiki. ac
Pertemuan 10 Neural Network
JST BACK PROPAGATION.
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
Konsep Neural Network Learning Pertemuan 3
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Pertemuan 6 JARINGAN ASSOCIATIVE
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
SOM – KOHONEN Unsupervised Learning
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
Strategi pembelajaran dasar
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan
Artificial Neural Network
JARINGAN SYARAF TIRUAN
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
Single-Layer Perceptron
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Asosiasi Pola Kuliah 8.
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Transcript presentasi:

Neural Network

Proses Pembelajaran Jaringan syaraf mencoba mensimulasikan kemampuan otak manusia untuk belajar Nilai yang menunjukkan seberapa besar nilai koneksi antar neuron dsb bobot Perubahan yang terjadi selama proses pembelajaran adalah perubahan nilai bobot Nilai bobot bertambah jika informasi yang diberikan neuron yang bersangkutan tersampaikan

Nilai akan berkurang jika informasi tidak disampaikan Saat pembelajaran dilakukan pada input yang berbeda maka nilai bobot akan diubah secara dinamis hingga mencapai suatu nilai yang seimbang Jika nilai telah tercapai mengindikasikan bahwa tiap-tiap input telah berhubungan dengan output yang diharapkan

a. Supervised learning Pembelajaran terawasi jika output yang diharapkan telah diketahui sebelumnya Contoh : Pengenalan pola , misal pada operasi AND Input Output 0 0 0 0 1 0 1 0 0 1 1 1

Pada proses pembelajaran, satu pola input akan diberikan ke satu neuron pada lapisan input Pola ini akan dirambatkan sepanjang jalur syaraf hingga sampai ke neuron pada lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya

Jika terjadi perbedaan antara pola output hasil pembelajaran dengan pola target maka akan muncul error Jika nilai error masih besar, maka perlu banyak dilakukan pembelajaran lagi

Unsupervised learning Tidak memerlukan target output Tidak dapt ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran Selama proses pembelajaran,nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan Tujuan adalah untuk mengelempokkan unit-unit yang hampir sama dalam satua area tertentu Cocok untuk pengelompokkan pola

Supervised learning Hebb Rule Perceptron Delta Rule Backpropagation Heteroassociative Memory Bidirectional Associative Memory Learning Vector Quantization

Hebb Rule Pembelajaran dilakukan dengan cara memperbaiki nilai bobot sedemikian rupa sehingga jika nika ada 2 neuron yang terhubung dan keduanya pada kondisi hidup pada saat yang sama, maka bobot antara keduanya dinaikkan. Perbaikan bobotnya

wi = bobot data input ke-i xi = input data ke – I y = output data Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih. Sedangkan vektor yang hendak digunakan untuk testing adalah vektor x

Algoritma 0. Inisialilasi semua bobot wij =0; dengan I = 1,2,…,n dan j=1,2,..m 1. Untuk setiap pasangan input-output (s-t), lakukan langkah-langkah sebagi berikut : Set input dengan nilai sama dengan vektor input : xi = si ; (i=1,2,3,..n) b. Set output dengan nilai sama dengan vektor output Perbaiki bobot yj = tj (j=1,2,3,..m) wij(baru) = wij (lama) + xi*yj; (i = 1,2,3,..n dan j = 1,2,3,..m) Nilai bias selalu 1

b. Perceptron Digunakan untuk mengklasifikasikan suatu tipe terntentu dsb pemisahan secara linier Perceptron pada jaringan syaraf dengan satu lapisan memiliki bobot yang bisa diatur dan suatu nilai ambang (threshold) Algoritma akan mengatur parameter-parameter bebasnya melalaui proses pembelajaran Nilai threshold (Θ) pada fungsi aktivasi adalah non negatif

Gbr. Pembatasan linier dengan perceptron

Garis pemisah antara daerah positip dan daerah nol memiliki pertidaksamaan w1x1 + w2x2 + b >Θ Garis pemisah antara daerah negatif dengan daerah nol memiliki pertidaksamaan Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih

Algoritmanya 0. inisialisasi semua bobot dan bias : (untuk sederhananya set semua bobot dan bobot bias sama dengan nol) set learning rate α (0<α≤1) (untuk sederhananya set sama dengan 1) 1. Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut :

Untuk setiap pasangan pembelajaran s-t, kerjakan a. set input dengan nilai sama vektor input : xi = si b. Hitung respon untuk unit output 1, jika y_in >Θ Y = 0, jika -0 ≤ y_in ≤ Θ -1, jika y_in<Θ

c. Perbaiki bobot dan bias jika terjadi error Jika y ≠ t maka : wi(baru) =wj(lama) + α*t*xi b(baru) = b(lama) + α*t Jika tidak, maka: wi(baru) = wi(lama) b(baru) = b(lama)

ii. Tes kondisis berhenti: jika tidak terjadi perubahan bobot (i) maka kondisi berhenti true, namun jika masih terjadi perubahan maka kondisi berhenti false

c. Delta Rule Mengubah bobot yang menghubungkan antara jaringan input ke unit output (y_in) dengan nilai target (t) Ini dilakukan untuk meminimalkan error selama pelatihan pola Delta rule untuk memperbaiki bobot ke-I (utk setiap pola) adalah ∆wi = α(t – y_in) *xi

x = vektor input y_in = input jaringan ke unit output Y T = Target (output) Nilai w yang baru diperoleh dari nilai w lama ditambah dengan ∆w wi = wi + ∆wi