Jawaban Tidak harus bernilai = 1. tergantung kesepakatan

Slides:



Advertisements
Presentasi serupa
Teknik Digital Pertemuan III.
Advertisements

TEKNIK ELEKTRONIKA ANALOG DAN DIGITAL
Materi GERBANG LOGIKA.
Welcome to GERBANG LOGIKA.
GERBANG LOGIKA pertemuan ke-8 oleh Sri Weda Mahendra S.T
SISTEM DIGITAL MUHAMAD ARPAN, S.Kom.
PRIN STIANINGSIH,S.ST TEKNIK KOMPUTER DAN JARINGAN
MLP Feed-Forward Back Propagation Neural Net
Perceptron.
Aplikasi Matlab untuk Jaringan Syaraf Tiruan
Ir. Endang Sri Rahayu, M.Kom.
Supervised Learning Process dengan Backpropagation of Error
PERCEPTRON Arsitektur jaringannya mirip dengan Hebb
JST BACK PROPAGATION.
Rosenblatt 1962 Minsky – Papert 1969
ALJABAR BOOLEAN/ ALJABAR LOGIKA
%Program Hebb AND Hasil (Contoh Soal 1.5)
Konsep dasar Algoritma Contoh Problem
BAB II SANDI BINER 2.1 Sandi 8421
Logika dan Operasi Bit pada sistem Komputer
MODEL JARINGAN PERCEPTRON
JST BACK PROPAGATION.
Perceptron.
Dasar Teknik Digital YUSRON SUGIARTO.
Pertemuan 3 JARINGAN PERCEPTRON
SISTEM CERDAS Jaringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Artificial Intelligence Oleh Melania SM
BACK PROPAGATION.
Perceptron Algoritma Pelatihan Perceptron:
Masalah Penugasan.
JST (Jaringan Syaraf Tiruan)
Interface/Peripheral Komputer
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
GERBANG-GERBANG LOGIKA
Jaringan Syaraf Tiruan
GERBANG LOGIKA DAN ALJABAR BOOLE
Gerbang Logika NAND, NOR, XOR, XNOR
JST PERCEPTRON.
JARINGAN SYARAF TIRUAN SISTEM BERBASIS PENGETAHUAN
Aplikasi Kecerdasan Komputasional
GERBANG LOGIKA A.Tabel Kebenaran
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
Jaringan Syaraf Tiruan
Logic Gate (Gerbang Logika)
MANAJEMEN SAINS METODE SIMPLEKS.
Jaringan Syaraf Tiruan (JST)
SOLUSI PERSAMAAN NON LINEAR
MLP Feed-Forward Back Propagation Neural Net
Artificial Intelligence (AI)
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
G.Gerbang X-OR dan Gerbang X-NOR
Artificial Neural Network
Neural Network.
JARINGAN SYARAF TIRUAN
Teknologi Informasi/Politeknik Negeri Padang
BAB 3 GERBANG LOGIKA.
GERBANG LOGIKA DAN ALJABAR BOOLE
Metode Newton-Raphson Choirudin, M.Pd
1. MEMAHAMI KONSEP GERBANG LOGIKA
JARINGAN SYARAF TIRUAN
GERBANG LOGIKA Alat-alat elektronik digital tersusun dari rangkaian
JARINGAN SYARAF TIRUAN
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Persamaan non Linier Indriati., ST., MKom.
Gerbang Logika Temu 10.
GERBANG LOGIKA.
GERBANG LOGIKA Jurusan Pendidikan Teknik Elektronika
MASUK GERBANG LOGIKA DASAR NAMA : IRFA’ CHASAN NO PESERTA : KELAS : teknik ketenagalistrikan A
Teori Bahasa Otomata (1)
Transcript presentasi:

Jawaban Tidak harus bernilai = 1. tergantung kesepakatan Sebagai pembatas dalam model linier atau mengubah nilai asalnya nol a. s = 3, y = f (3) = 1 b. s = -2,5, y = f (-2,5) = 0 c. s = 0, y = f (0) = 0 d. s = 1, y = f (1) = 1 e. s = -1, y = f (-1) =0 Jika x1 = 1 maka s2 = w02 x0 + w12 x1 = 1∙1 + 1∙1 = 2, y1 = f (s2) = f (1) = 1 s2 = w03 x0 + w13 x1 = 1∙1 + 1 ∙1 = 2, y2 = f (s3) = f (2) = 1 Jika x1 = 0 maka s2 = w02 x0 + w12 x1 = 1∙1 + 1∙0 = 1, y1 = f (s2) = f (1) = 1 s2 = w03 x0 + w13 x1 = 1∙1 + 1∙0 = 1, y2 = f (s3) = f (1) = 1 Apapun inputnya, outputnya bernilai 1

Logika Boolean dengan Perceptron NOT OR

AND XOR

Penyajian dengan persamaan garis  OR 

Membuat persamaan garis Karena sel input tiruan x0 selalu 1 maka   

AND Gradien , Pembatas , jika w2 = 1 maka w1 = 1, w0 = -1,5 Garis putus-putus yang melewati (0, 1) dan (1,0) memiliki gradien -1 dan pembatas 1. Garis putus-putus yang melewati (1, 1) memiliki gradien -1 dan pembatas 2 sehingga garis yang kita inginkan harus memiliki pembatas lebih lebar dari 1 dan lebih kecil dari 2. Kita gunakan angka antara 1 sd 2 sehingga didapat pembatas 1,5. dengan demikian nilai bobot bisa diperkirakan AND Gradien , Pembatas , jika w2 = 1 maka w1 = 1, w0 = -1,5

Perhitungan Menggunakan MS-Excel Latihan Buatlah garis persamaan NOR dan NAND. Buat tabel kebenaran. Tentukan bobot sinapsisnya IF(D5>0,1,0)

Training Perceptron Rumus untuk training perceptron: Pada rumus terlihat bahwa bobot synapsis disesuaikan tiap iterasi training t secara berulang. Subskrip i menyatakan anak panah ( i = 0,1,2, . . . , n ). Tingkat perubahan bobot ditentukan oleh Delta Rule: Dimana: 0 <α ≤1  tingkat learning (learning rate) d  nilai target dari data training y  hasil perhitungan neuron xi  nilai input e = d − y  error dari perhitungan data training.

langkah training perceptron : Satu siklus training disebut satu epoch. Ini berguna untuk memeriksa aturan pemberhentian training. langkah training perceptron : Beri nilai awal semua bobot = 0 Ulangi untuk tiap data: Ubah bobot sinapsis dengan rumus: wi(t+1) = wi(t) + α(d−y) xi Sampai bobot tidak berubah setelah satu epoch. Contoh 1: Lakukan training untuk operasi boolean Or menggunakan Delta rule dengan nilai α =1. Penyelesaian: Gunakan tabel kebenaran sebagai data training. nyatakan w0,w1,w2 sama dengan nol. Lakukan iterasi terhadap data training

Iterasi t=0: w0 = 0 , w1 = 0 dan w2 = 0 Iterasi t=1: baris pertama training sample = {x1= 0, x2 = 0, d = 0 } Hitung: S = w0 x0 + w1 x1 + w2 x2 = 0∙1 + 0∙0 + 0∙0 = 0, y = f (s) = f (0) = 0 Bobot yang update: wi(t+1) = wi(t) + α(d−y) xi w0 (1) = w0 (0) + α (d-y) x0 = 0 + 1(0-0)1 = 0 w1 (1) = w1 (0) + α (d-y) x1 = 0 + 1(0-0)0 = 0 w2 (1) = w2 (0) + α (d-y) x2 = 0 + 1(0-0)0 = 0 Iterasi t=2: baris kedua training sample = { x1= 0, x2 = 1, d = 1 } Hitung: S = w0 x0 + w1 x1 + w2 x2 = 0∙1 + 0∙0 + 0∙1 = 0, y = f (s) = f (0) = 0 Bobot yang update: w0 (2) = w0 (1) + α (d-y) x0 = 0 + 1(1-0)1 = 1 w1 (2) = w1 (1) + α (d-y) x1 = 0 + 1(1-0)0 = 0 w2 (2) = w2 (1) + α (d-y) x2 = 0 + 1(1-0)1 = 1

Bobot hasil epoch 3 sama dengan epoch 4 dan pada epoch 4 semua error bernilai nol. Dengan demikian iterasi berhenti. Bobot learning akhir adalah w0 = 0 , w1 = 1 dan w2 = 1

Contoh 2: Lakukan training untuk operasi boolean NOR menggunakan Delta rule dengan nilai α =0,5. Penyelesaian: Gunakan tabel kebenaran sebagai data training. nyatakan w0,w1,w2 sama dengan nol. Lakukan iterasi terhadap data training

Iterasi t=0: w0 = 0 , w1 = 0 dan w2 = 0 Iterasi t=1: baris pertama training sample = { x1= 0, x2 = 0, d = 1 } Hitung: S = w0 x0 + w1 x1 + w2 x2 = 0∙1 + 0∙0 + 0∙0 = 0, y = f (s) = f (0) = 0 Bobot yang update: wi(t+1) + α(d−y) xi w0 (1) = w0 (0) + α (d-y) x0 = 0 + ½(1-0)1 = ½ w1 (1) = w1 (0) + α (d-y) x1 = 0 + ½ (1-0)0 = 0 w2 (1) = w2 (0) + α (d-y) x2 = 0 + ½ (1-0)0 = 0 Iterasi t=2: baris kedua training sample = { x1= 0, x2 = 1, d = 0 } Hitung: S= w0 x0 + w1 x1 + w2 x2 = 0∙1 + 0∙0 + 0∙1 = 0, y = f (s) = f (0) = 0 Bobot yang update: w0 (2) = w0 (1) + α (d-y) x0 = ½ + ½(0-1)1 = ½- ½ = 0 w1 (2) = w1 (1) + α (d-y) x1 = 0 + ½(0-1)0 = 0 w2 (2) = w2 (1) + α (d-y) x2 = 0 + ½(0-1)1 = - ½

Bobot hasil epoch 3 sama dengan epoch 4 dan pada epoch 4 semua error bernilai nol. Dengan demikian iterasi berhenti. Bobot learning akhir adalah w0 = 0.5 , w1 = -0.5 dan w2 = -0.5

Soal Cari bobot logika Boolean OR menggunakan Delta rule jika α = 0.5 Cari bobot logika Boolean AND menggunakan Delta rule jika α = 1 Cari bobot logika Boolean NOR menggunakan Delta rule jika α = 0.25