Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Fungsi Aktivasi JST.

Presentasi serupa


Presentasi berjudul: "Fungsi Aktivasi JST."— Transcript presentasi:

1 Fungsi Aktivasi JST

2 Fungsi Linear (identitas)
f(x) x

3 Fungsi Linear (identitas)
Secara khusus, fungsi aktivasi yang sama digunakan pada semua model nuron dalam beberapa lapisan tertentu dari jaringan syaraf, meskipun ini tidak diperlukan Dalam beberapa hal, sebuah fungsi aktivasi nonlinear digunakan untuk mencapai keuntungan dari berbagai lapisan, dibandingkan dengan kemampuan yang terbatas dari jaringan satu lapisan (single layer nets), fungsi nonlinear diperlukan Fungsi linear memiliki nilai output yang sama dengan nilai input f(x) x Persamaan : f(x) = x, untuk semua x

4 Fungsi Biner dengan Threshold 
f(x) 1 x

5 Fungsi Biner dengan Threshold 
Jaringan satu lapisan sering menggunakan fungsi ini untuk mengubah input yang masuk ke dalam jaringan Nilai variabel terhadap sebuah unit output berupa angka biner (1 atau 0) atau tanda bipolar (1 atau -1)

6 Fungsi Hard Limit Fungsi Undak Biner (Hard Limit) Jaringan dengan lapisan tunggal sering menggunakan fungsi undak untuk menkonversi input dari suatu variabel yang bernilai kontinu ke suatu output biner . Fungsi hard limit dirumuskan : f(x) 1 x Jaringan dengan lapisan tunggal sering menggunakan fungsi undak untuk menkonversi input dari suatu variabel yang bernilai kontinu ke suatu output biner.

7 Fungsi biner sigmoid f(x) 1 x

8 Fungsi biner sigmoid Persamaan :

9 Fungsi biner sigmoid Fungsi sigmoid (kurva yang berbentuk seperti huruf s) adalah fungsi aktivasi yang berguna Fungsi logistik dan fungsi tangen hiperbolik adalah fungsi yang paling umum digunakan Fungsi ini secara khusus menguntungkan dalam penggunaan jaringan syaraf yang dilatih dengan backpropagation, karena hubungan yang sederhana diantara nilai fungsi pada suatu titik dan nilai derivative pada titik itu mengurangi beban perhitungan selama pelatihan Fungsi logistik sigmoid dengan jangkauan dari 0 ke 1 sering digunakan sebagai fungsi aktivasi dari jaringan syaraf, dimana nilai output yang diharapkan juga bernilai biner dan nilai tersebut berada diantara interval 0 dan 1

10 Fungsi bipolar sigmoid
f(x) x

11 Fungsi bipolar sigmoid
Kondisi dimana jangkauan nilai yang cocok dengan masalah tertentu yang paling umum adalah dari -1 ke 1 Persamaan :

12 Fungsi bipolar sigmoid
Bipolar sigmoid berhubungan erat dengan fungsi tangen hiperbolik yang juga sering digunakan sebagai fungsi aktivasi ketika jangkauan yang diharapkan dari nilai output diantara -1 dan 1 Persamaan fungsi tangen hiperbolik:

13 Fungsi Bipolar Hampir sama dengan fungsi undak biner, hanya saja output yang dihasilkan berupa 1, 0 atau-1

14 Fungsi Bipolar (denganThreshold)
Fungsi yang menghasilkan output berupa 1, 0 atau -1

15 Fungsi Sturating Linear
Fungsi ini akan bernilai 0 jika inputnya kurang dari -½, dan akan bernilai 1 jika inputnya lebih dari ½. Sedangkan jika nilai input terletak antara -½ dan ½, maka outputnya akan bernilai sama dengan nilai input ditambah ½.

16 Fungsi Symetric Saturating Linear
Fungsi ini akan bernilai -1 jika inputnya kurang dari -1. Sedangkan jika nilai input terletak antara -1 dan 1, maka outputnya akan bernilai sama dengan nilai inputnya.

17 Fungsi Sigmoid Biner Fungsi sigmoid biner digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Memiliki nilai pada range 0 sampai1.

18 Output dari fungsi ini memiliki range antara 1 sampai -1
Fungsi Sigmoid Biner Output dari fungsi ini memiliki range antara 1 sampai -1

19 Example Neuron “OR”


Download ppt "Fungsi Aktivasi JST."

Presentasi serupa


Iklan oleh Google