Pembelajaran terbimbing dengan pendekatan parametriks dan nonparametriks Kuliah 3.

Slides:



Advertisements
Presentasi serupa
PENGENALAN POLA Dr. Kusrini, M.Kom.
Advertisements

Model Sistem Pengenalan Pola
? 1. Konsep Statistika STATISTIKA : Kegiatan untuk : mengumpulkan data
METODE HEBB~3 Sutarno, ST. MT..
MULTIVARIATE ANALYSIS
Analisis Data: Memeriksa Perbedaan
Support Vector Machine (SVM)
Konsep dasar Algoritma Contoh Problem
BAB XIII REGRESI BERGANDA.
Bab 8B Estimasi Bab 8B
BAB VI REGRESI SEDERHANA.
JARINGAN SARAF TIRUAN LANJUTAN
Jaringan Syaraf Tiruan (JST) stiki. ac
Pengujian Beberapa Proporsi (I) Pertemuan 19 Matakuliah: I0014 / Biostatistika Tahun: 2008.
Pengenalan Supervised dan Unsupervised Learning
Jarringan Syaraf Tiruan
Pertemuan 3 JARINGAN PERCEPTRON
SISTEM CERDAS Jaringan Syaraf Tiruan
BAB VIII REGRESI LINEAR BERGANDA DAN REGRESI (TREND) NON LINEAR
Sistem Berbasis Fuzzy Materi 4
ALGORITMA PEMROGRAMAN 2A
REGRESI LINIER SEDERHANA
Pertemuan 12 ARTIFICIAL NEURAL NETWORKS (ANN) - JARINGAN SYARAF TIRUAN - Betha Nurina Sari, M.Kom.
PEMODELAN dan SIMULASI
dan Transformasi Linear dalam
Jaringan Syaraf Tiruan
Pengenalan Pola Materi 1
Aplikasi Terapan – Aljabar Linier
Matakuliah : I0014 / Biostatistika Tahun : 2005 Versi : V1 / R1
Tujuan Pembelajaran 1) Mengetahui definisi variabel dummy
Aplikasi Kecerdasan Komputasional
Penyajian Data dan Distribusi Frekuensi
PERSAMAAN LINEAR.
SOM – KOHONEN Unsupervised Learning
Algoritma kNN (k-Nearest Neighbor)
REGRESI LOGISTIK BINER
Jaringan Syaraf Tiruan (JST)
Clustering (Season 1) K-Means
? 1. Konsep Statistika STATISTIKA : Kegiatan untuk : mengumpulkan data
Statistik Non Parametrik
Jaringan Syaraf Tiruan Artificial Neural Networks (ANN)
DASAR ANALISIS MULTIVARIATE.
Jaringan Syaraf Tiruan
CLUSTERING.
Neural Network.
Analisis Klastering K-Means Model Datamining Kelompok 1 Eko Suryana
PRODI MIK | FAKULTAS ILMU-ILMU KESEHATAN
Statistik Inferensial
Algoritma kNN (k-Nearest Neighbor)
Analisa Data Statistik Chap 6: Distribusi Probabilitas Kontinu
MULTIVARIATE ANALYSIS
Klasifikasi Nearest Neighbor
Pengenalan Pola secara Neural (PPNeur)
ANALISIS CLUSTER Part 1.
TEKNIK KLASIFIKASI DAN PENGENALAN POLA
Teknik Klasifikasi & Pengenalan Pola
JARINGAN SYARAF TIRUAN BERBASIS KOMPETISI
Fungsi diskriminan linear, klasifikasi diskret dan regresi
Asosiasi Pola Kuliah 8.
TEKNIK KLASIFIKASI DAN PENGENALAN POLA
K-MEANS ALGORITHM CLUSTERING
Matriks dan Regresi TOTOK MUJIONO.
Implementasi clustering K-MEANS (dengan IRIS dataset)
By : Rahmat Robi Waliyansyah, M.Kom
FEATURE SELECTION.
DECISION SUPPORT SYSTEM [MKB3493]
Universitas Gunadarma
Intro Algoritma K-Nearest Neighbor (K- NN) adalah sebuah metode klasifikasi terhadap sekumpulan data maupun dokumen berdasarkan pembelajaran  data yang.
This presentation uses a free template provided by FPPT.com Pengenalan Pola Sinyal Suara Manusia Menggunakan Metode.
Algoritma kNN (k-Nearest Neighbor)
Transcript presentasi:

Pembelajaran terbimbing dengan pendekatan parametriks dan nonparametriks Kuliah 3

Pengertian pembelajaran Pembelajaran pada binatang atau manusia: upaya mendapatkan pengetahuan, pengertian, ketrampilan dengan yang diperoleh melalui belajar dan pengalaman. Pembelajaran pada mesin: merujuk pada perubahan dalam sistem yang membentuk tugas-tugas yang diasosiasikan dengan kecerdasan buatan. Tugas-tugas itu seperti: pengenalan, diagnosis, perencanaan, peramalan, kendalai robot dll.

Pembelajaran Mesin Algoritma pembelajaran yang dikembangkan berfungsi untuk menurunkan kesalahan dari data yang dilatihkan Kebanyakan pengklasifikasi melakukan proses Pembelajaran Menetapkan bentuk umum Menggunakan pola-pola pelatihan saat pembelajaran mengestimasikan parameter yang belum diketahui

Macam-macam pembelajaran Pembelajaran terbimbing (Supervised learning) Pembelajaran melalui satu pemetaan antara input x dan output tujuan y Pembelajaran tak-terbimbing (Unsupervised learning) Tidak diketahui hubungan antara komponen-komponen data

Kucing vs. anjing

Klasifikasi terbimbing

Klasifikasi tak terbimbing

Estimasi parametriks dan pembelajaran terbimbing Masalah yang penting dalam proses pelatihan adalah adanya sampel data yang representatif. Pada pembelajaran terbimbing masing-masing data pelatihan diberikan label klas yang benar dan sesuai. Hasil estimasi parametrik diperoleh ketika bentuk distribusi kerapatan data telah diketahui.

Pembelajaran terbimbing dengan pendekatan nonparametriks Bentuk distribusi kerapatan tidak dapat ditentukan Bentuk pilihan tidak hanya satu untuk rumusan yang dapat mengestimasi Pendekatan non parametriks: Estimasi fungsi kerapatan Estimasi secara langsung Transformasi bidang ciri

Fungsi Keputusan Fungsi utama dari suatu sistem pengenalan pola adalah mengambil keputusan untuk menentukan anggota klas dari suatu pola-pola masukan Fungsi keputusan untuk memisahkan populasi dua pola dapat digunakan persamaan garis linear

Fungsi keputusan … Persamaan garis linear d(x) = w1x1 + w2x2 + w3 = 0 dimana: w adalah parameter-parameter bobot x1, x2 adalah variabel-variabel koordinat d(x) dapat digunakan sebagai fungsi keputusan, jika misalnya diberikan suatu pola x yang belum diketahui kelompok klas nya, maka dapat ditentukan bahwa pola x akan masuk dalam kategori klas 1 jika d(x) > 0, atau masuk kedalam kategori klas 2 jika d(x) <0. The catch of salmon and sea bass is equiprobable P(1) = P(2) (uniform priors) P(1) + P( 2) = 1 (exclusivity and exhaustivity )

Contoh: 1 Dalam suatu observasi sistem pengenalan pola, sebuah pola dengan 2 ciri beserta label klasnya No. sampel Pola Klas (x1,x2) 1 (1,2) 2 (1.5,2) 3 (2,1.5) 4 (2,2) 5 (2.5,1) 6 (1,1) 7 (0.5,1.5) 8 (1.5,0.8) 9 (0.5,0.5) 10 (1,0.5) Jika Px = (0.5,2) adalah sebuah pola yang belum diketahui label klasnya, maka pola tersebut termasuk didalam klas =? The catch of salmon and sea bass is equiprobable P(1) = P(2) (uniform priors) P(1) + P( 2) = 1 (exclusivity and exhaustivity )

Penyelesaian Persamaan d1(x)=2x1+3x2-6 maka pola yang belum diketahui Px = (0.5,2) masuk kedalam kategori klas 1, namun bila menggunakan persamaan d2(x)=6x1+5x2-15 maka pola tersebut masuk kedalam kategori klas 2.

Estimasi kemiripan: metrik jarak Pengukuran kemiripan atau ketidakmiripan merupakan suatu dasar dalam tugas-tugas klasifikasi dan pengenalan Salah satu ukuran kemiripan adalah dengan menentukan metrik jarak Keberhasilan dalam proses klasifikasi tergantung dari populasi pola-pola yang akan diklasifikasikan a). Pola x mudah diklasifikasi b). Pola x tidak mudah diklasifikasi

Beberapa metrik jarak yang populer Manhattan Euclidean Mahalanobis Canberra

Beberapa metrik jarak… Bray-Curtis Squared Chord, Squared Chi-Squared

Beberapa metrik jarak… 1-r ( r=Pearson’s coefficient of correlation) dimana

Contoh: 2 Dari kasus pada contoh 2-1, gunakan metode metrik jarak (Manhattan) sebagai fungsi klasifikasi dan pola referensi merupakan rerata dari sampel data! Jawab: Pola untuk klas 1: P11=[1 2], P12 =[1.5 2], P13=[2 1.5], P14=[2 2], P15=[2.5 1] Pola untuk klas 2: P21=[1 1], P22=[0.5 1.5], P23=[1.5 0.8], P24=[0.5 0.5], P25=[1, 0.5] Pola referensi untuk masing-masing klas: P1 = 1/5 (P11+P12+P13+P14+P15) = [1.8 1.7] P2 = 1/5 (P21+P22+P23+P24+P25) = [0.9 0.86]

Menghitung nilai jarak dari pola Px = [0 Menghitung nilai jarak dari pola Px = [0.5 2] dengan pola referensi masing-masing klas. Kategori klasifikasi didasarkan pada jarak minimum sehingga Px termasuk ke dalam klas 2.

Contoh: 3 Dalam sebuah sistem OCR (Optical Character Recognition) akan diklasifikasikan sebuah karakter/huruf yang belum diketahui klasnya Jelaskan langkah-langkah yang dilakukan!

Jawab: Langkah-langkah yang dilakukan untuk proses klasifikasi adalah sebagaiberikut: a). Menentukan pola referensi (template) untuk masing-masing klas Membaca semua sampel yang akan diklasifikasikan Mengubah/menormalisasi ukuran matriks citra menjadi berukuran 20x20 Menyusun pola berbentuk vektor 1-dimensi berukuran 1x400 Menentukan pola referensi yaitu rerata dari pola sampel

b). Proses testing/pengujian Membaca sampel data yang akan diklasifikasikan Mengubah/menormalisasi ukuran matriks citra menjadi berukuran 20x20 Menyusun pola berbentuk vektor 1-dimensi berukuran 1x400 Menghitung nilai fungsi jarak Menentukan jarak minimum Menetapkan keputusan pengklasifikasi

Contoh program dengan MATLAB untuk klasifikasi karakter dengan fungsi jarak Manhattan. %Penentuan pola referensi clear; I1=imread('a1.jpg'); I2=imread('a2.jpg'); I3=imread('a3.jpg'); %imshow(I1); a1= rgb2gray(I1); a2= rgb2gray(I2); a3= rgb2gray(I3); aa1=imresize(a1,[20 20],'bilinear'); aa2=imresize(a2,[20 20],'bilinear'); aa3=imresize(a3,[20 20],'bilinear'); a1=aa1/255; a2=aa2/255; a3=aa3/255;

aa1=[a1(1,:) a1(2,:) a1(3,:) a1(4,:) a1(5,:) a1(6,:) a1(7,:) a1(8,:) a1(9,:) a1(10,:) a1(11,:) a1(12,:) a1(13,:) a1(14,:) a1(15,:) a1(16,:) a1(17,:) a1(18,:) a1(19,:) a1(20,:)]; aa2=[a2(1,:) a2(2,:) a2(3,:) a2(4,:) a2(5,:) a2(6,:) a2(7,:) a2(8,:) a2(9,:) a2(10,:) a2(11,:) a2(12,:) a2(13,:) a2(14,:) a2(15,:) a2(16,:) a2(17,:) a2(18,:) a2(19,:) a2(20,:)]; aa3=[a3(1,:) a3(2,:) a3(3,:) a3(4,:) a3(5,:) a3(6,:) a3(7,:) a3(8,:) a3(9,:) a3(10,:) a3(11,:) a3(12,:) a3(13,:) a3(14,:) a3(15,:) a3(16,:) a3(17,:) a3(18,:) a3(19,:) a3(20,:)]; aref=mean([aa1; aa2; aa3]);

I1=imread('b1.jpg'); I2=imread('b2.jpg'); I3=imread('b3.jpg'); %imshow(I1); b1= rgb2gray(I1); b2= rgb2gray(I2); b3= rgb2gray(I3); bb1=imresize(b1,[20 20],'bilinear'); bb2=imresize(b2,[20 20],'bilinear'); bb3=imresize(b3,[20 20],'bilinear'); b1=bb1/255; b2=bb2/255; b3=bb3/255;

bb1=[b1(1,:) b1(2,:) b1(3,:) b1(4,:) b1(5,:) b1(6,:) b1(7,:) b1(8,:) b1(9,:) b1(10,:) b1(11,:) b1(12,:) b1(13,:) b1(14,:) b1(15,:) b1(16,:) b1(17,:) b1(18,:) b1(19,:) b1(20,:)]; bb2=[b2(1,:) b2(2,:) b2(3,:) b2(4,:) b2(5,:) b2(6,:) b2(7,:) b2(8,:) b2(9,:) b2(10,:) b2(11,:) b2(12,:) b2(13,:) b2(14,:) b2(15,:) b2(16,:) b2(17,:) b2(18,:) b2(19,:) b2(20,:)]; bb3=[b3(1,:) b3(2,:) b3(3,:) b3(4,:) b3(5,:) b3(6,:) b3(7,:) b3(8,:) b3(9,:) b3(10,:) b3(11,:) b3(12,:) b3(13,:) b3(14,:) b3(15,:) b3(16,:) b3(17,:) b3(18,:) b3(19,:) b3(20,:)]; bref=mean([bb1; bb2; bb3]);

%Proses pengujian I=imread('Px.jpg'); imshow(I); Im= rgb2gray(I); Im=imresize(Im,[20 20],'bilinear'); Im=Im/255; polabaru=[Im(1,:) Im(2,:) Im(3,:) Im(4,:) Im(5,:) Im(6,:) Im(7,:) Im(8,:) Im(9,:) Im(10,:) Im(11,:) Im(12,:) Im(13,:) Im(14,:) Im(15,:) Im(16,:) Im(17,:) Im(18,:) Im(19,:) Im(20,:)]; polabaru=double(polabaru); d1=dmanhattan(polabaru,aref); d2=dmanhattan(polabaru,bref); minimum=min([d1 d2]); if (d1==minimum) class='a' elseif (d2==minimum) class='b' end

function d=dmanhattan(x,y) d=sum(abs(x-y)); End Hasil running program: d1 = 111.3333 d2 = 86.3333 class = b