Self Organizing Maps Tim Asprak Metkuan http://bit.ly/UjMoLI.

Slides:



Advertisements
Presentasi serupa
Kohonen Self Organizing Feature Map
Advertisements

Self Organizing Map.
K-Means Clustering.
Pengelompokan Jenis Tanah Menggunakan Algoritma Clustering K-Means
Array Dimensi Banyak Gerlan A. Manu, ST.,MKom
5.MONTE CARLO 5.1. Metode Monte Carlo
NAMA KELOMPOK : Laili Nur Hanifah ( ) Sumani ( ) Nur Indah Ekasari ( )
Supervised Learning Process dengan Backpropagation of Error
TOWARDS MULTIPLE IDENTITY DETECTION IN SOCIAL NETWORKS & RESEARCH METODOLOGY 3KS2 ERMA FITRIANA RANITA RIZKI APRILLIA.
Aplikasi Model Jaringan Syaraf Tiruan dengan Radial Basis Function untuk Mendeteksi Kelainan Otak (Stroke Infark) Yohanes Tanjung S.
JST BACK PROPAGATION.
Jaringan Syaraf Tiruan
Jaringan Hopfield Nurochman.
Pemrosesan Teks Klasterisasi Dokumen Teknik Informatika STMIK GI MDP 2013 Shinta P.
MULTILAYER PERCEPTRON
Fuzzy Clustering Logika Fuzzy Materi Kuliah Prodi Teknik Informatika
Clustering (Season 2) Self-Organizing Map
CHORD KNOWLEDGE BASE DEVELOPMENT
Fuzzy Clustering Materi Kuliah (Pertemuan 13 & 14) LOGIKA FUZZY
Pengolahan Citra Digital Materi 6
Jaringan Syaraf Tiruan (JST) stiki. ac
Fuzzy Clustering Materi Kuliah (Pertemuan 13 & 14) LOGIKA FUZZY
Jarringan Syaraf Tiruan
Week 2 Hebbian & Perceptron (Eka Rahayu S., M. Kom.)
Algoritma dan Struktur Data 1 pertemuan 7
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
Perceptron Algoritma Pelatihan Perceptron:
Sistem Berbasis Fuzzy Materi 5
Fuzzy Clustering Materi Kuliah (Pertemuan 13 & 14) LOGIKA FUZZY
JST (Jaringan Syaraf Tiruan)
Metode Cluster Self-Organizing Map untuk Temu Kembali Citra
Week 3 BackPropagation (Eka Rahayu S., M. Kom.)
Pembimbing: Henri Harianja G Imas S. Sitanggang, S.Si M.Kom
Array By Serdiwansyah N. A..
Jaringan Syaraf Tiruan
Segmentasi Citra Materi 6
JST PERCEPTRON.
Clustering Best Practice
Aplikasi Kecerdasan Komputasional
SOM – KOHONEN Unsupervised Learning
Algoritma kNN (k-Nearest Neighbor)
K-Nearest Neighbor dan K-means
Clustering (Season 1) K-Means
MLP Feed-Forward Back Propagation Neural Net
Oleh : Devie Rosa Anamisa
PRODI MIK | FAKULTAS ILMU-ILMU KESEHATAN
Artificial Intelligence (AI)
D. Backpropagation Pembelajaran terawasi dan biasa digunakan perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron.
Jawaban Tidak harus bernilai = 1. tergantung kesepakatan
Jaringan Syaraf Tiruan
CLUSTERING.
Neural Network.
Clustering (Season 2) Self-Organizing Map
Analisis Klastering K-Means Model Datamining Kelompok 1 Eko Suryana
Algoritma kNN (k-Nearest Neighbor)
Self-Organizing Network Model (SOM) Pertemuan 10
M-File Sebagai Fungsi.
Klasifikasi Nearest Neighbor
Metode Data Mining “ Self-Organizing Map [SOM] ” Taskum Setiadi ADVANCE MACHINE LEARNING STMIK Nusa Mandiri Jakarta2016 ADVANCE MACHINE LEARNING.
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
CLUSTERING.
K-MEANS ALGORITHM CLUSTERING
Segmentasi Citra Materi 6
Pengelompokan Dokumen (Document Clustering)
Implementasi clustering K-MEANS (dengan IRIS dataset)
By : Rahmat Robi Waliyansyah, M.Kom
Universitas Gunadarma
Teori Bahasa Otomata (1)
Algoritma kNN (k-Nearest Neighbor)
CLASS VS OBJECT INTRODUCTION OF CLASS. keyword class diikuti dengan nama class yang kita inginkan. Lebih baik digunakan kata yang diawali huruf.
Transcript presentasi:

Self Organizing Maps Tim Asprak Metkuan http://bit.ly/UjMoLI

What is it SOM? Salah satu model NN yang menggunakan metode competitive unsupervised learning Solusi untuk merepresentasikan data multidimensi ke dalam ruang dimensi yang lebih kecil (1 atau 2 dimensi) Cluster direpresentasikan oleh bobot cluster Menghitung jarak objek ke cluster

Architecture Terdapat satu vektor bobot dengan panjang n, yang dihubungkan dengan setiap unit ouput

Uses

Uses (cont) A map of the world where countries have been colored with the color describing their poverty type (the color was obtained with the SOM in the previous figure):

Algorithm Buat topologi jaringan (node input & output) Inisialisasi bobot dari input ke output (midpoint/ random). Panjang vektor bobot sepanjang node input untuk setiap node output. Inisialisasi learning rate (α), penurunan learning rate (Ɵ), dimana 0 < α,Ɵ < 1 Inisialisasi jumlah tetangga (R)

Algorithm (cont) Untuk setiap vektor sampel x, hitung jarak terhadap vektor bobot cluster (Euclidean distance). Cluster dari x adalah cluster dengan jarak minimum. Update bobot cluster pemenang Update α dan R 4. Ulangi langkah 1 hingga kondisi berhenti terpenuhi Kondisi berhenti: Jumlah iterasi tercapai (bisa ditentukan) Learning rate (alpha) = 0

SOM in Matlab net = newsom(P,[D1,D2,...],TFCN,DFCN,OLR,OSTEPS,TLR,TNS) P : matrik RxQ dari sejumlah Q vektor input Di : ukuran dimensi layer TFCN : fungsi topologi, default = ‘hextop’ DFCN : fungsi jarak, default = ‘linkdist ‘, euclidean = ‘dist’ OLR : learning rate awal, default = 0.9 OSTEPS : jumlah langkah ketetanggaan untuk menyusutkan menjadi 1, default =100 TLR : penurunan learning rate, default = 0.02 IN : inisialisasi ketetanggaan, default = 3

Davies-Bouldin Index Davies-Bouldin Index digunakan untuk memaksimalkan jarak inter cluster di antara cluster Ci dan Cj, pada saat yang sama juga mencoba meminimalkan jarak antara titik dalam cluster. C = {C1,.., Ck} merupakan clustering dari N objek Dengan: Keterangan: Ci : cluster ke i ci : centroid cluster ke i

Example Pelatihan menggunakan data nilai (nilai.xls) Inisialisasi: Learning rate = 0,3, penurunan learning rate = 0,5, R=0 Bobot awal: W = 25 50 30 50

Matlab code %Komentar rand('seed',8353); echo on; %echo untuk menampilkan di matlab %contoh echocardiogram %hit any hey pause Q = load('data.mat'); P = Q.data(:,:); P = P'; %ada 35 instance dengan 2 atribut --> uts,uas figure, plot(P(1,:),P(2,:), '.'); %plot untuk menampilkan baris pertama untuk semua kolom %hit any key net = newsom(P,[2 1],'hextop','dist',0.3,100,0.5,1); %  setting parameter

Matlab code (cont) %hit any key pause net.trainParam.epochs = 25; %banyak iterasi = 25 net.IW{1,1} =[25 30;50 50]; %inisialisasi bobot awal net = train(net,P); figure, plot(P(1,:),P(2,:), '.'); hold on plot(net.iw{1,1}(:,1),net.iw{1,1}(:,2),'rx') hold off

Matlab code (cont) tes = net.iw{1,1} %hit any key pause result = sim(net,P); %clustering similarity result = vec2ind(result); xlswrite('bobot_akhir',tes,'result'); echo off disp('end of SOM')

Exercise Menggunakan data nilai uts dan uas, lakukan pembentukan cluster dengan SOM 1 iterasi menggunakan excel (latihan.xls) Inisialisasi: Learning rate = 0,3, penurunan learning rate = 0,5, R=0 Bobot awal: W = 25 50 30 50