Jaringan Syaraf Tiruan Pertemuan 13 Jaringan Syaraf Tiruan
SUB TOPIK BAHASAN Pengertian JST Komponen JST Arsitektur JST Fungsi Aktivasi
Pengertian JST Jaringan syaraf merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut Buatan karena di implementasikan dengan program komputer
KOmponen Jaringan Syaraf Jaringan syaraf terdiri atas beberapa neuron Ada hubungan antar neuron Neuron mentransformasikan informasi yg diterima melalui sambungan keluarnya menuju neuron-neuron yg lain Pada jaringan syaraf hubungan ini dikenal dengan bobot
Arsitektur Jaringan Neuron-neuron dikelompokkan dalam lapisan-lapisan Neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama Kelakuan neuron ditentukan oleh fungsi aktivasi dan pola bobotnya
a. Single Layer net
b. Multiple Layer Net
Fungsi aktivasi Masukan pada jaringan akan diproses oleh suatu fungsi yang akan menjumlahkan nilai-nilai semua bobot dan bias. Hasil dari penjumlahan akan dibandingkan dengan suatu nilai ambang (threshold) melalui fungsi aktivasi setiap neuron.
Hard Limit (undak Biner)
Symetric Hard Limit (Bipolar)
Fungsi Linier (Identitas) y = x
Symetric Saturating Linear
Sigmoid Biner
Sigmoid Bipolar
Proses Pembelajaran Supervised learning UnSupervised learning
a. Supervised learning Pembelajaran terawasi jika output yang diharapkan telah diketahui sebelumnya Contoh : Pengenalan pola , misal pada operasi AND Input Output 0 0 0 0 1 0 1 0 0 1 1 1
a. Supervised learning Jika terjadi perbedaan antara pola output hasil pembelajaran dengan pola target maka akan muncul error Jika nilai error masih besar, maka perlu banyak dilakukan pembelajaran lagi
B Unsupervised learning Tidak memerlukan target output Tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran Selama proses pembelajaran,nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan Tujuan adalah untuk mengelompokkan unit-unit yang hampir sama dalam satuan area tertentu Cocok untuk pengelompokan pola
Penerapan Jaringan Syaraf Tiruan
Model Hebb Diusulkan oleh Donald Olding Hebb pada th 1949 Metode pengembangan dari metode McCulloch-Pitts Menentukan bobot dan bias secara analitik (manual) Pembelajaran dilakukan dengan memperbaiki nilai bobot secara continue
Model Hebb Perbaikan bobot diperoleh dengan cara wi(baru) = wi(lama) + xi*y b(baru) = b(lama) + y dengan: wi = bobot data input ke-i xi = input data ke-i y = output data b = nilai bias
algoritma Inisialisasi semua bobot : wij =0; dengan i=1,2,...,n; j=1,2,...,m Untuk setiap pasangan input-output (s-t), lakukan langkah sbb: set input dengan nilai sama dengan vektor input: xi = si ; (i =1,2,..,n) Set output dengan nilai sama dengan vektor output: yj = tj ; (j =1,2,..,m) Perbaiki bobot: wij = wij + xiyi ; (i =1,2,..,n); dan (j =1,2,..,m)
Kasus OR {-1,-1,-1} w1 = 0 + (-1)(-1) = 1 w2 = 0 + (-1)(-1) = 1 b = 0 + (-1) = -1 {-1,1,1} w1 = 1 + (-1)(1) = 0 w2 = 1 + (1)(1) = 2 b = -1 + (1) = 0 {1,-1,1} w1 = 0 + (1)(1) = 1 w2 = 2 + (-1)(1) = 1 b = 0 + (1) = 1 {1,1,1} w1 = 1 + (1)(1) = 2 b = 1 + (1) = 2 Kasus OR X1 X2 t -1 1
Akhir pembelajaran, diperoleh bobot akhir w1 = 2, w2=2, b=2 Pengujian : x1 = -1 dan x2 = 1 , maka : y = (2)(-1) + ( 2) (1) + 2 = 2 Dengan fungsi bipolar , maka diperoleh output y =F(2) =1 karena 2 > 1 Sehingga y = t
Model Perceptron Digunakan untuk mengklasifikasikan suatu tipe pola tertentu Mengatur parameter2 melalui proses pembelajaran. Pembelajaran utk mendapatkan bobot akhir dilakukan secara berulang sampai sdh tdk ada error (output = target) Namun jika msh ada error maka proses dihentikan maksimum epoh. Epoh ; proses pengulangan utk melatih semua pasangan data.
Arsitektur perceptron
Algoritma Pelatihan Inisialisasi laju pembelajaran (α), nilai ambang (𝛉), bobot, bias Menghitung Jika y ≠ target, lakukan update bobot dan bias Wi baru = Wlama + α.t.Xi b baru = b lama + α.t Ulang dari langkah 2 sampai tidak ada update bobot lagi
{0,0,0} y = 0 + (0.0 + 0.0) = 0 {0,1,1} y = 0 + (0.0 + 0.1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 0 + 1.1.1 = 1 bias baru = 0 + 1.1 = 1 y = 1 + (0.0 + 1.1) = 2, output = 1 {1,0,1} y = 1 + (0.1 + 1.0) = 1, output = 1 {1,1,1} y = 1 + (0.1 + 1.1) = 2, output = 1 Kasus OR X1 X2 t 1 Inisialisasi: α = 1, 𝛉 = 0,1 w = 0, b = 1 Input dan target berbentuk biner
{0,0,0} y = 1 + (0.0 + 1.0) = 1 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 1 + 1.1.0 = 1 bias baru = 1 + 1.1 = 2 y = 2 + (0.0 + 1.0) = 2, output=1 terjadi stagnasi walaupun bobot dan bias diupdate terus. maka input dan target biner tdk cocok utk kasus OR.
Kasus OR {-1,-1,-1} y = 0 + (0.-1 + 0.-1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.-1.-1 = 1 W2baru = 0 + 1.-1.-1 = 1 bias baru = 0 + 1.-1 = -1 y = -1 + (1.-1 + 1.-1) = -3, output = -1 {-1,1,1} y = -1 + (1.-1 + 1.1) = -1 W1baru = 1 + 1.1.-1 = 0 W2baru = 1 + 1.1.1 = 2 bias baru = -1+ 1.1 = 0 Kasus OR X1 X2 t -1 1
y = 0 + (0.-1 + 2.1) = 2, ouput = 1 {1,-1,1} y = 0 + (0.1 + 2.-1) = -2 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.1 = 1 W2baru = 2 + 1.1.-1 = 1 bias baru = 0+ 1.1 = 1 y = 1 + (1.1 + 1.-1) = 1 {1,1,1} y = 1 + (1.1 + 1.1) = 3, output=1
Pada akhir pembelajaran diperoleh w1=1, w2 = 1, dan b=1. Pengujian data : Input : x1 = -1, dan x2 = 1 maka; y = 1 + (-1.1 + 1.1) = 1 y = t