Jarringan Syaraf Tiruan

Slides:



Advertisements
Presentasi serupa
MLP Feed-Forward Back Propagation Neural Net
Advertisements

(Jaringan Syaraf Tiruan) ANN (Artificial Neural Network)
JARINGAN SYARAF TIRUAN
Praktikum Metkuan Jaringan Syaraf Tiruan Propagasi Balik
Yanu Perwira Adi Putra Bagus Prabandaru
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
JaRINGAN SARAF TIRUAN (Neural Network)
Dr. Benyamin Kusumoputro
Supervised Learning Process dengan Backpropagation of Error
Jaringan Syaraf Tiruan (JST)
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (JST)
PENGENALAN JARINGAN SYARAF TIRUAN (JST)
Jaringan Syaraf Tiruan
Informatics Theory & Programming (ITP) Informatics Eng. Dept. – IT Telkom.
Konsep dasar Algoritma Contoh Problem
JARINGAN SARAF TIRUAN LANJUTAN
MODEL JARINGAN PERCEPTRON
PENGANTAR JARINGAN SYARAF TIRUAN (JST)
Jaringan Syaraf Tiruan (JST) stiki. ac
JST BACK PROPAGATION.
Pertemuan 3 JARINGAN PERCEPTRON
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Learning Kecerdasan Mesin dan Artifisial
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
PEMBELAJARAN MESIN STMIK AMIKOM PURWOKERTO
JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORK)
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Pelatihan BACK PROPAGATION
JST (Jaringan Syaraf Tiruan)
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
SISTEM INTELEJEN UNTUK PREDIKSI PERTUMBUHAN EKONOMI DENGAN MENGGUNAKAN JARINGAN SYARAF TIRUAN DAN ADAPTIF NEURO-FUZZY Oleh: Y. Restuwardi G Dibimbing.
Fungsi Aktivasi JST.
Jaringan Syaraf Tiruan
JST PERCEPTRON.
Ir. Endang Sri Rahayu, M.Kom.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
Anatomi Neuron Biologi
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (Artificial Neural Networks)
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (Artificial Neural Networks)
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Struktur Jaringan Syaraf Tiruan
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jaringan Syaraf Tiruan: Ikhtisar Singkat
Jaringan Syaraf Tiruan
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Pelatihan BACK PROPAGATION
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
JARINGAN SYARAF TIRUAN
Pengenalan Pola secara Neural (PPNeur)
JARINGAN SYARAF TIRUAN
JARINGAN SYARAF TIRUAN
Jaringan Syaraf Tiruan
Jaringan umpan maju dan pembelajaran dengan propagasi balik
Arsitektur jaringan Hebb Jaringan syaraf tiruan
Teori Bahasa Otomata (1)
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Transcript presentasi:

Jarringan Syaraf Tiruan Lanjutan-2

6. Proses Belajar (Learning Process) Definisi belajar dalam konteks JST adalah suatu proses dimana parameter-parameter bebas JST diadaptasikan melalui suatu proses perangsangan berkelanjutan oleh lingkungan dimana jaringan berada. Jenis belajar ditentukan oleh pola dimana pengubahan parameter dilakukan. Dalam proses belajar terdapat kejadian-kejadian sbb: JST dirangsang oleh lingkungan JST mengubah dirinya sebagai hasil dari rangsangan lingkungan. JST memberikan respon dengan cara yang baru kepada lingkungan, disebabkan perubahan yang terjadi dalam struktur internalnya.

Macam-macam proses belajar Macam-macam proses belajar di ilustrasikan pada gambar sbb:

Supervised learning (belajar dengan pengawasan) Pengertian: proses belajar yang membutuhkan guru. Yang dimaksud guru ini adalah sesuatu yang memiliki pengetahuan tentang lingkungan. Guru bisa direpresentasikan sebagai sekumpulan sampel input- output. Pembangunan pengetahuan yang dilakukan oleh guru dengan memberikan respon yang di inginkan JST. Disini akan terjadi perubahan parameter jaringan berdasarkan vektor latih dan sinyal kesalahan. Sinyal kesalahan adalah perbedaan antara keluaran JST dan respon yang di inginkan. Proses perubahan ini dilakukan secara berulang-ulang, selangkah demi selangkah, dengan tujuan agar JST bisa memiliki kemampuan yang mirip dengan gurunya. Dengan kata lain, JST dilatih untuk dapat memetakan sekumpulan sampel input-output dengan akurasi yang tinggi.

Unsepervised learning (belajar tanpa pengawasan) Pengertian: proses belajar yang tidak membutuhkan guru (self organized learning). Dengan kata lain tidak ada sekumpulan sampel input-output atau fungsi tertentu untuk dipelajari jaringan. Salah satu contohnya adalah competitive learning. Disini JST ada 2 lapisan, satu lapisan masukan dan satu lapisan kompetitif. Lapisan masukan menerima data yang sudah disediakan. Sedangkan lapisan kompetitif berisikan neuron- neuron yang saling bersaing untuk memberikan respon dari data lapisan masukan.

7. Perceptron Pengertian: bentuk paling sederhana dari JST. Perceptron terdiri dari neuron tunggal dengan bobot-bobot sinapsik dan threshold yang dapat diatur.

Pada model graph aliran sebelumnya, input untuk perceptron X1, X2, Pada model graph aliran sebelumnya, input untuk perceptron X1, X2,..., Xp dan bobot- bobot pada sinaptik W1, W2, ...,Wp. Sehingga output dari pengkombinasian linier adalah:

Fungsi dari perceptron adalah untuk mengklasifikasikan himpunan stimulus yang diaplikasikan secara eksternal x1, x2, ...,xp kedalam salah satu dari dua kelas k1 atau k2. Aturan keputusan untuk klasifikasi adalah berdasarkan nilai yang direpresentasikan oleh input x1, x2, ..., xp ke kelas k1 jika output dari perceptron y adalah +1, dan ke kelas k2 jika output dari perceptron y adalah -1. Dua daerah keputusan tsb, dipisahkan oleh suatu bidang, yang didefinisikan sbb:

Seperti pada gambar berikut, ada 2 variabel input x1 dan x2, dimana garis keputusan membentuk garis lurus. Suatu titik (x1, x2) yang berada diatas garis keputusan dimasukan ke dalam kelas K1, dan suatu titik (x1,x2) yang berada dibawah garis keputusan dimasukan kedalam kelas K2. Catatan bahwa efek dari Threshold adalah menggeser batasan keputusan dari yang sebenarnya.

Algoritma konvergen perceptron Merupakan suatu aturan koreksi kesalahan, untuk bobok sinaptik yang berubah. Bobot-bobot sinaptik bisa dibuat tetap atau berubah pada saat iterasi.

8. Metode yang sering digunakan dalam JST Ada dua metode yang populer, yakni: JST multi layer perceptron (MLP) dan JST probabilistik. Keduanya merupakan metode jenis supervised learning

JST Multi Layer Perceptron (MLP) MLP merupakan model JST yang paling panyak digunakan dalam bidang pendidikan dan aplikasi. Arsitektur MLP sebagai berikut: Banyak algoritma pelatihan pelatihan yang diusulkan dalam melatih MLP. Salah satu yang populer adalah algoritma pelatihan Back Propagation (propagasi balik). Algoritma ini melakukan dua tahap perhitungan, yakni perhitungan maju untuk menghitung galat (error) antara keluaran aktual dan target, dan perhitungan mundur yang mempropagasikan balik galat tersebut untuk memperbaiki bobot-bobot sinaptik pada semua neuron yang ada.

Algoritma pelatihan Propagasi Balik (Back Propagation) Definisikan masalah, misalkan matriks masukan (P) dan matriks target (T). Inisialisasi, menentukan arsitektur jaringan, nilai ambang mean square error (MSE) sebagai kondisi berhenti, learning rate, serta menetapkan nilai bobot sinaptik melalui pembangkitan acak dengan interval nilai sembarang. Kita bisa membangkitkan nilai acak dalam interval [-1,+1] atau [-0.5,+.5) ataupun lainnya. Tidak ada aturan yang baku mengenai interval ini.

Pelatihan jaringan Perhitungan maju. Dengan menggunakan bobot-bobot yang telah ditentukan pada inisialisasi awal (W1), kita dapat menghitung keluaran dari hidden layer berdasarkan persamaan berikut (misal digunakan fungsi aktivasi sigmoid): Hasil keluaran hidden layer (A1) dipakai untuk mendapatkan keluaran dari output layer, seperti persamaan berikut ini:

Keluaran dari jaringan (A2) dibandingkan dengan target yang di inginkan. Selisih nilai tersebut adalah error (galat) dari jaringan, seperti pada persamaan berikut: Sedangkan nilai galat keseluruhan dinyatakan sbb:

Perhitungan mundur. Nilai galat yang didapat dari perhitungan maju, digunakan sebagai parameter dalam pelatihan. Pelatihan akan selesai jika galat yang diperoleh sudah dapat diterima. Galat tsb dikembalikan lagi ke lapis-lapis yang berada didepannya. Selanjutnya neuron pada lapis tersebut akan memperbaiki nilai-nilai bobotnya. Perhitungan perbaikan bobot diberikan pada persamaan berikut.

JST Probabilistik

Arsitektur JST Probabilistik

Perbedaan mendasar JST MLP dengan JST Probabilistik

Selamat Belajar