1 Pertemuan 8 JARINGAN COMPETITIVE Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.

Slides:



Advertisements
Presentasi serupa
Function.
Advertisements

Backpropagation neural net
Game Theory Purdianta, ST., MT..
Korelasi Linier KUSWANTO Korelasi Keeratan hubungan antara 2 variabel yang saling bebas Walaupun dilambangkan dengan X dan Y namun keduanya diasumsikan.
MULTILAYER PERCEPTRON
Presented By : Group 2. A solution of an equation in two variables of the form. Ax + By = C and Ax + By + C = 0 A and B are not both zero, is an ordered.
1 Pertemuan 24 APLIKASI LOGIKA FUZZY Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
1 Pertemuan 02 Ukuran Pemusatan dan Lokasi Matakuliah: I Statistika Tahun: 2008 Versi: Revisi.
1 Pertemuan 09 Kebutuhan Sistem Matakuliah: T0234 / Sistem Informasi Geografis Tahun: 2005 Versi: 01/revisi 1.
Artificial Neural Network (Back-Propagation Neural Network)
1 Pertemuan 12 Pengkodean & Implementasi Matakuliah: T0234 / Sistem Informasi Geografis Tahun: 2005 Versi: 01/revisi 1.
Pendugaan Parameter Proporsi dan Varians (Ragam) Pertemuan 14 Matakuliah: L0104 / Statistika Psikologi Tahun : 2008.
1 Pertemuan 10 Statistical Reasoning Matakuliah: T0264/Inteligensia Semu Tahun: Juli 2006 Versi: 2/1.
Pertemuan 22 FUZZIFIKASI DAN DEFUZZIFIKASI
Masalah Transportasi II (Transportation Problem II)
1 Pertemuan 2 SINGLE DAN MULTILAYER NETWORK Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
1 Pertemuan 26 NEURO FUZZY SYSTEM Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
PERTEMUAN KE-6 UNIFIED MODELLING LANGUAGE (UML) (Part 2)
Pertemuan 07 Peluang Beberapa Sebaran Khusus Peubah Acak Kontinu
Bina Nusantara Mata Kuliah: K0194-Pemodelan Matematika Terapan Tahun : 2008 Aplikasi Model Markov Pertemuan 22:
Pertemuan 5 Balok Keran dan Balok Konsol
1 Pertemuan #2 Probability and Statistics Matakuliah: H0332/Simulasi dan Permodelan Tahun: 2005 Versi: 1/1.
1 Pertemuan 21 Latihan Soal Matakuliah: J0274/Akuntansi Manajemen Tahun: 2005 Versi: 01/00.
1 Pertemuan 11 OPTIMASI KINERJA Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
1 Pertemuan 5 PPh PASAL 21 Matakuliah: A0572/ Perpajakan Tahun: 2005 Versi: Revisi 1.
1 Pertemuan > > Matakuliah: >/ > Tahun: > Versi: >
Pertemuan 3 JARINGAN PERCEPTRON
1 Pertemuan 11 The Manipulative part of the object data model (Lanjutan bagian 2) Matakuliah: M0174/OBJECT ORIENTED DATABASE Tahun: 2005 Versi: 1/0.
1 Pertemuan 15 Game Playing Matakuliah: T0264/Intelijensia Semu Tahun: Juli 2006 Versi: 2/1.
1 HAMPIRAN NUMERIK SOLUSI PERSAMAAN LANJAR Pertemuan 5 Matakuliah: K0342 / Metode Numerik I Tahun: 2006 TIK:Mahasiswa dapat meghitung nilai hampiran numerik.
Matakuliah : R0022/Pengantar Arsitektur Tahun : Sept 2005 Versi : 1/1
1 Pertemuan 10 PERFORMANCE SURFACES Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
1 Pertemuan 5 Komunikasi antar Proses / Interprocess Communication (IPC) Matakuliah: T0316/sistem Operasi Tahun: 2005 Versi/Revisi: 5 OFFCLASS01.
1 Pertemuan 14 APLIKASI BACK PROPAGATION Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
1 Pertemuan 24 Deret Berkala, Peramalan, dan Angka Indeks-2 Matakuliah: A0064 / Statistik Ekonomi Tahun: 2005 Versi: 1/1.
1 Pertemuan > > Matakuliah: > Tahun: > Versi: >. 2 Learning Outcomes Pada akhir pertemuan ini, diharapkan mahasiswa akan mampu : >
1 Minggu 10, Pertemuan 20 Normalization (cont.) Matakuliah: T0206-Sistem Basisdata Tahun: 2005 Versi: 1.0/0.0.
Sebaran Peluang Kontinu (II) Pertemuan 8 Matakuliah: I0014 / Biostatistika Tahun: 2008.
1 Pertemuan > > Matakuliah: >/ > Tahun: > Versi: >
1 Pertemuan 13 Algoritma Pergantian Page Matakuliah: T0316/sistem Operasi Tahun: 2005 Versi/Revisi: 5.
1 Pertemuan 26 Compound Nouns Matakuliah: G0134 – Grammar III Tahun: 2005 Versi: revisi 1.
1 Pertemuan 12 WIDROW HOFF LEARNING Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1.
1 Pertemuan 25 QUIZ Matakuliah: J0274/Akuntansi Manajemen Tahun: 2005 Versi: 01/00.
1 Pertemuan 19 Rendering perspektif mata burung Matakuliah: R0124 / Teknik Komunikasi Arsitektur Tahun: 2005 Versi: >/ >
9.3 Geometric Sequences and Series. Objective To find specified terms and the common ratio in a geometric sequence. To find the partial sum of a geometric.
Ukuran Pemusatan dan Lokasi Pertemuan 03 Matakuliah: L0104 / Statistika Psikologi Tahun : 2008.
Jartel, Sukiswo Sukiswo
Pertemuan 20 Penyelesaian gambar perspektif lengkap
Person 8.
Pertemuan 6 JARINGAN ASSOCIATIVE
Matakuliah : I0014 / Biostatistika Tahun : 2005 Versi : V1 / R1
Matakuliah : R0124 / Teknik Komunikasi Arsitektur
Pengujian Hipotesis (I) Pertemuan 11
Matakuliah : I0014 / Biostatistika Tahun : 2005 Versi : V1 / R1
PENYAMBUNGAN BAHAN DAN KOMPONEN (MEKANIK DAN ADESIF) Pertemuan 10
VECTOR VECTOR IN PLANE.
Pertemuan 24 Teknik Searching
Pertemuan 5 KONVERSI NFA MENJADI DFA
Pertemuan 16 Layer Data Link - Lanjutan
Pertemuan <<11>> << LAJU REAKSI>>
Pendugaan Parameter (II) Pertemuan 10
Pertemuan 20 OPERASI PADA HIMPUNAN FUZZY
Pertemuan 13 Applications of the Laplace Transform
Kk ilo Associative entity.
Pertemuan #1 The Sentence
ELASTIC PROPERTIS OF MATERIAL
Self-Organizing Network Model (SOM) Pertemuan 10
Metode Data Mining “ Self-Organizing Map [SOM] ” Taskum Setiadi ADVANCE MACHINE LEARNING STMIK Nusa Mandiri Jakarta2016 ADVANCE MACHINE LEARNING.
Algoritma & Pemrograman 1 Achmad Fitro The Power of PowerPoint – thepopp.com Chapter 3.
Vector. A VECTOR can describe anything that has both MAGNITUDE and DIRECTION The MAGNITUDE describes the size of the vector. The DIRECTION tells you where.
Transcript presentasi:

1 Pertemuan 8 JARINGAN COMPETITIVE Matakuliah: H0434/Jaringan Syaraf Tiruan Tahun: 2005 Versi: 1

2 Learning Outcomes Pada akhir pertemuan ini, diharapkan mahasiswa akan mampu : Menjelaskan konsep Jaringan Competitive

3 Outline Materi Arsitektur Jaringan Learning Rule

4 Hamming Network

5 Layer 1 (Correlation) We want the network to recognize the following prototype vectors: W 1 w T 1 w T 2  w T S p 1 T p 2 T  p Q T == b 1 R R  R = The first layer weight matrix and bias vector are given by: The response of the first layer is: The prototype closest to the input vector produces the largest response. a 1 W 1 pb 1 + p 1 T p R+ p 2 T p R+  p Q T p R+ ==

6 Layer 2 (Competition) The neuron with the largest initial condition will win the competiton. The second layer is initialized with the output of the first layer.

7 Competitive Layer nWp w 1 T w 2 T  w S T p w 1 T p w 2 T p  w S T p L 2  1 cos L 2  2  L 2  S ====

8 Competitive Learning For the competitive network, the winning neuron has an ouput of 1, and the other neurons have an output of 0. Instar Rule Kohonen Rule

9 Graphical Representation

10 Example

11 Four Iterations

12 Typical Convergence (Clustering) Before TrainingAfter Training Weights Input Vectors

13 Dead Units One problem with competitive learning is that neurons with initial weights far from any input vector may never win. Dead Unit Solution: Add a negative bias to each neuron, and increase the magnitude of the bias as the neuron wins. This will make it harder to win if a neuron has won often. This is called a “conscience.”