Jarringan Syaraf Tiruan Lanjutan-2
6. Proses Belajar (Learning Process) Definisi belajar dalam konteks JST adalah suatu proses dimana parameter-parameter bebas JST diadaptasikan melalui suatu proses perangsangan berkelanjutan oleh lingkungan dimana jaringan berada. Jenis belajar ditentukan oleh pola dimana pengubahan parameter dilakukan. Dalam proses belajar terdapat kejadian-kejadian sbb: JST dirangsang oleh lingkungan JST mengubah dirinya sebagai hasil dari rangsangan lingkungan. JST memberikan respon dengan cara yang baru kepada lingkungan, disebabkan perubahan yang terjadi dalam struktur internalnya.
Macam-macam proses belajar Macam-macam proses belajar di ilustrasikan pada gambar sbb:
Supervised learning (belajar dengan pengawasan) Pengertian: proses belajar yang membutuhkan guru. Yang dimaksud guru ini adalah sesuatu yang memiliki pengetahuan tentang lingkungan. Guru bisa direpresentasikan sebagai sekumpulan sampel input- output. Pembangunan pengetahuan yang dilakukan oleh guru dengan memberikan respon yang di inginkan JST. Disini akan terjadi perubahan parameter jaringan berdasarkan vektor latih dan sinyal kesalahan. Sinyal kesalahan adalah perbedaan antara keluaran JST dan respon yang di inginkan. Proses perubahan ini dilakukan secara berulang-ulang, selangkah demi selangkah, dengan tujuan agar JST bisa memiliki kemampuan yang mirip dengan gurunya. Dengan kata lain, JST dilatih untuk dapat memetakan sekumpulan sampel input-output dengan akurasi yang tinggi.
Unsepervised learning (belajar tanpa pengawasan) Pengertian: proses belajar yang tidak membutuhkan guru (self organized learning). Dengan kata lain tidak ada sekumpulan sampel input-output atau fungsi tertentu untuk dipelajari jaringan. Salah satu contohnya adalah competitive learning. Disini JST ada 2 lapisan, satu lapisan masukan dan satu lapisan kompetitif. Lapisan masukan menerima data yang sudah disediakan. Sedangkan lapisan kompetitif berisikan neuron- neuron yang saling bersaing untuk memberikan respon dari data lapisan masukan.
7. Perceptron Pengertian: bentuk paling sederhana dari JST. Perceptron terdiri dari neuron tunggal dengan bobot-bobot sinapsik dan threshold yang dapat diatur.
Pada model graph aliran sebelumnya, input untuk perceptron X1, X2, Pada model graph aliran sebelumnya, input untuk perceptron X1, X2,..., Xp dan bobot- bobot pada sinaptik W1, W2, ...,Wp. Sehingga output dari pengkombinasian linier adalah:
Fungsi dari perceptron adalah untuk mengklasifikasikan himpunan stimulus yang diaplikasikan secara eksternal x1, x2, ...,xp kedalam salah satu dari dua kelas k1 atau k2. Aturan keputusan untuk klasifikasi adalah berdasarkan nilai yang direpresentasikan oleh input x1, x2, ..., xp ke kelas k1 jika output dari perceptron y adalah +1, dan ke kelas k2 jika output dari perceptron y adalah -1. Dua daerah keputusan tsb, dipisahkan oleh suatu bidang, yang didefinisikan sbb:
Seperti pada gambar berikut, ada 2 variabel input x1 dan x2, dimana garis keputusan membentuk garis lurus. Suatu titik (x1, x2) yang berada diatas garis keputusan dimasukan ke dalam kelas K1, dan suatu titik (x1,x2) yang berada dibawah garis keputusan dimasukan kedalam kelas K2. Catatan bahwa efek dari Threshold adalah menggeser batasan keputusan dari yang sebenarnya.
Algoritma konvergen perceptron Merupakan suatu aturan koreksi kesalahan, untuk bobok sinaptik yang berubah. Bobot-bobot sinaptik bisa dibuat tetap atau berubah pada saat iterasi.
8. Metode yang sering digunakan dalam JST Ada dua metode yang populer, yakni: JST multi layer perceptron (MLP) dan JST probabilistik. Keduanya merupakan metode jenis supervised learning
JST Multi Layer Perceptron (MLP) MLP merupakan model JST yang paling panyak digunakan dalam bidang pendidikan dan aplikasi. Arsitektur MLP sebagai berikut: Banyak algoritma pelatihan pelatihan yang diusulkan dalam melatih MLP. Salah satu yang populer adalah algoritma pelatihan Back Propagation (propagasi balik). Algoritma ini melakukan dua tahap perhitungan, yakni perhitungan maju untuk menghitung galat (error) antara keluaran aktual dan target, dan perhitungan mundur yang mempropagasikan balik galat tersebut untuk memperbaiki bobot-bobot sinaptik pada semua neuron yang ada.
Algoritma pelatihan Propagasi Balik (Back Propagation) Definisikan masalah, misalkan matriks masukan (P) dan matriks target (T). Inisialisasi, menentukan arsitektur jaringan, nilai ambang mean square error (MSE) sebagai kondisi berhenti, learning rate, serta menetapkan nilai bobot sinaptik melalui pembangkitan acak dengan interval nilai sembarang. Kita bisa membangkitkan nilai acak dalam interval [-1,+1] atau [-0.5,+.5) ataupun lainnya. Tidak ada aturan yang baku mengenai interval ini.
Pelatihan jaringan Perhitungan maju. Dengan menggunakan bobot-bobot yang telah ditentukan pada inisialisasi awal (W1), kita dapat menghitung keluaran dari hidden layer berdasarkan persamaan berikut (misal digunakan fungsi aktivasi sigmoid): Hasil keluaran hidden layer (A1) dipakai untuk mendapatkan keluaran dari output layer, seperti persamaan berikut ini:
Keluaran dari jaringan (A2) dibandingkan dengan target yang di inginkan. Selisih nilai tersebut adalah error (galat) dari jaringan, seperti pada persamaan berikut: Sedangkan nilai galat keseluruhan dinyatakan sbb:
Perhitungan mundur. Nilai galat yang didapat dari perhitungan maju, digunakan sebagai parameter dalam pelatihan. Pelatihan akan selesai jika galat yang diperoleh sudah dapat diterima. Galat tsb dikembalikan lagi ke lapis-lapis yang berada didepannya. Selanjutnya neuron pada lapis tersebut akan memperbaiki nilai-nilai bobotnya. Perhitungan perbaikan bobot diberikan pada persamaan berikut.
JST Probabilistik
Arsitektur JST Probabilistik
Perbedaan mendasar JST MLP dengan JST Probabilistik
Selamat Belajar