Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

JST Single Layer Multi Layer Perceptron (MLP) JST Propagasi Balik Perceptron.

Presentasi serupa


Presentasi berjudul: "JST Single Layer Multi Layer Perceptron (MLP) JST Propagasi Balik Perceptron."— Transcript presentasi:

1

2 JST Single Layer Multi Layer Perceptron (MLP) JST Propagasi Balik Perceptron

3 X1 X2 Z1 Z2 Y input LayerHidden Layer Output Layer bias v11 v22 v12 v21 v01 v02 w11 w21 w01

4 X1X2net Y, 1 jika net >=2, 0 jika net < = = = =00 Ternyata BERHASIL mengenali pola X1 X2X2 Y 2 1 1

5 X1X2net Y, 1 jika net >=1, 0 jika net < = = = =00 Ternyata BERHASIL mengenali pola X1 X2 Y 1 1 1

6 X1X2net Y, 1 jika net >=2, 0 jika net < = = = =00 Ternyata BERHASIL mengenali pola X1 X2 Y 2 2

7 X1X2 Y GAGAL! F(1,1) = 0 F(1,0) = 1F(0,0) = 0 F(0,1) = 1

8  XOR = (x1 ^ ~x2) V (~x1 ^ x2)  Ternyata dibutuhkan sebuah layer tersembunyi -> Multi Layer Perceptron X1 X2 Z1 Z2 Y

9

10  3 tahapan : 1. Feedforward pola pelatihan yang diinput 2. perhitungan dan propagasi balik kesalahan 3. penyesuaian bobot (weight). Untuk mendapatkan bobot akhir yang bisa memetakan output dengan tepat, diperlukan 3 tahapan di atas

11  Fungsi undak biner (hard limit)  Fungsi undak biner (threshold) 

12  Fungsi bipolar  Fungsi bipolar dengan threshold

13  Fungsi Linier (identitas)  Fungsi Sigmoid biner

14 Misal akan dibuat arsitektur JST Back Propagation mengenali angka 1-9 dengan 5 neuron pada hidden layer dengan fungsi tansig (tan sigmoid) dan 4 neuron pada output dengan fungsi purelin (pure linear)

15  function NN()  %ada 15 baris karena grid 3x5   rangeinput=[0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1 ];  %bikin feedforward  net=newff(rangeinput,[5 4],{'tansig' 'purelin'});  % 5 neouron hidden dengan tansig, 4 neuron output dengan purelin   %inisialisasi  net=init(net);

16  angka1=[0; 1; 0;  1; 1; 0;  0; 1; 0;  1; 1; 1];  angka2=[1; 1; 1;  0; 0; 1;  0; 1; 1;  1; 1; 0;  1; 1; 1];  angka3=[1; 1; 1;  0; 0; 1;  1; 1; 1;  0; 0; 1;  1; 1; 1];  angka4=[1; 0; 1;  1; 0; 1;  1; 1; 1;  0; 0; 1;  0; 0; 1];

17  angka5=[1; 1; 1; 1; 0; 0; 1; 1; 1; 0; 0; 1; 1; 1; 1];  angka6=[1; 1; 1; 1; 0; 0; 1; 1; 1; 1; 0; 1; 1; 1; 1];  angka7=[1; 1; 1; 0; 0; 1; 0; 1; 1; 1; 1; 0; 1; 0; 0];  angka8=[1; 1; 1; 1; 0; 1; 1; 1; 1; 0; 1; 0; 1; 1; 1];  angka9=[1; 1; 1; 1; 0; 1; 1; 1; 1; 0; 0; 1; 1; 1; 1];  p=[angka1 angka2 angka3 angka4 angka5 angka6 angka7 angka8 angka9];  t=[ ;  ;  ;  ;  ;  ;  ;  ;  ]; %9x9 karena data trainingnya ada 9

18  t=t';  %training  net= train(net, p, t);   %testing  %a=sim(net, datatesting)   %melihat nilai semua bobot dari lapisan input ke layer  disp('net.IW{1,1}-->');  net.IW{1,1}   %melihat nilai semua bobot dari layer 1 ke layer 2  disp('net.LW{2,1}-->');  net.LW{2,1}   disp('net.b{1}-->');  net.b{1}   disp('net.b{2}-->');  net.b{2}   datatesting=[0; 1; 0; 1; 1; 0; 0; 1; 0; 0; 1; 0; 1; 1; 1];   a=sim(net,datatesting)

19  Input training data

20  Input testing data

21  Input : 15 neurons  Hidden layer : 5 neurons  Output layer : 4 neurons  Hidden layer : purelin (linear)  Output layer : tansig (sigmoid)


Download ppt "JST Single Layer Multi Layer Perceptron (MLP) JST Propagasi Balik Perceptron."

Presentasi serupa


Iklan oleh Google