Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Minggu lalu Decision tree Bayesian Classification Ujian.

Presentasi serupa


Presentasi berjudul: "Minggu lalu Decision tree Bayesian Classification Ujian."— Transcript presentasi:

1 Minggu lalu Decision tree Bayesian Classification Ujian

2 Clustering : k-means

3 Overview: Tabel Delapan nasabah Bank ABC yg pernah memperoleh kredit NasabahRumahMobil A13 B33 C43 D53 E12 F42 G11 H21

4 Overview Mari kita simak, renungi, pelajari Tabel delapan nasabah yg pernah memperoleh kredit dari Bank ABC. Diharapkan kita dpt mengelompokkan (clustering) ke-8 nasabah tsb ke dlm bbrp kelompok nasabah. Pengelompokkan yg diharapkan yg mampu menghasilkan kelompok nasabah yg memenuhi sifat sbb: – Nasabah yg jumlah rmh dan mobilnya hampir sama akan berada pd kelompok nasabah yg sama – Nasabah yg jumlah rumah dan mobilnya cukup berbeda akan berada pada kelompok nasabah yg berbeda.

5 Overview Hal-hal yg akan dikelompokan disebut “objek” atau “catatan”. Bdsk Tabel, objek dpt mengambil bentuk ke-8 nasabah yg akan dikelompokkan. Setiap objek dibedakan dari objek lain berdasarkan atribut yg dimilikinya masing2. Pada Tabel, objek dicirikan oleh “atribut” yg berupa jumlah “mobil” dan “rumah” yg dimiliki.

6 Overview Kumpulan dari seluruh atribut disebut “data input” Pada tabel, data input  himpunan dari keseluruhan atribut jumlah rumah dan mobil yg dimiliki objek (berupa nasabah) yg akan dikelompokkan Hasilnya  pengetahuan yg diperoleh merupakan pengetahuan berupa penentuan beberapa kelompok catatan yg memiliki kemiripan atribut. Secara ringkas, catatan2 yg memiliki kemiripan atribut akan dikelompokkan ke dalam salah satu dari sekian kelompok Adapun catatan2 yg kurang memiliki kesamaan atribut akan ditempatkan pada kelompok yg berbeda

7 Overview Pengelompokkan berawal dari data input yg tersedia  tabel Data input diolah dengan menggunakan algoritma clustering Masalah pengelompokkan berakhir dgn dihasilkannya 2 atau lebih kelompok objek sehingga objek2 yg memiliki atribut akan dimasukkan ke dalam kelompok yg sama, dan objek2 yg jrg memiliki kemiripan atribut akan dimasukkan dalam kelompok yg berbeda

8 Contoh Bsdk tabel 1, hendak dikelompokkan ke dalam 3 kelompok Hasil pengelompokkan pada Tabel 2 merupakan pengetahuan yg dihasilkan dari fungsi pengelompokan

9 Tabel 1 NasabahRumahMobil A13 B33 C43 D53 E12 F42 G11 H21

10 Tabel 2 ClusterAnggota Cluster 1{B} 2{A, E, G, H} 3{C, D, F}

11 Contoh: Pengetahuan yg didapatkan dlm interpretasi sbb: – Kelompok Nasabah pertama  kelompok yg unik krn hanya memiliki seoranga anggota saja (hanya B), yg kelak jelas bagi kita bhw kelompok ini mrpk kelompok nasabah yg memiliki jumlah rmh sedang (3 buah) dan jumlah mobil banyak (3 buah) – Kelompok Nasabah kedua  memiliki 4 org anggota (A, E, G, H), yg kelak akan menjadi jelas bagi kita bhw kelompok ini mrpkan kelompok nasabah yg memiliki rata2 jumlah rmh sedikit (1,25 buah) dan rata2 jumlah mobil sedikit pula (1,75 buah) – Kelompok Nasabah ketiga  memiliki 3 org anggota (C, D, F), yg kelak akan jelas bagi kita bhw kelompok ini merupakan kelompok nasabah yg memiliki rata2 jumlah rmh banyak (4,33 buah) dan rata2 jumlah mobil yg cukup banyak (2,67 buah)

12 Algoritma pengelompokan k-means Pembahasan dpt kita ringkas sbb: – Kita memiliki data input berupa atribut dari 8 buah catatan nasabah (Tabel A) dan kita ingin peroleh pengetahuan mengenai bgm catatan2 itu hrs dikelompokan agar diperoleh kelompok catatan yg memiliki kemiripan atribut – Data input tsb kelak akan dijadikan masukan bagi suatu algoritma, yg saat ini blm kita ketahui jenis algoritmanya – Sbg keluaran algoritma yg belum kita ketahui jenisnya, kita akan peroleh pengetahuan berupa kelompok catatan yg memiliki kemiripan atribut

13 Algoritma k- means akan menghasilkan kelompok catatan sebanyak k buah Algoritma ini digagas pertama kali oleh J. MacQueen

14 Langkah-langkah Algoritma k-means Pertama, tanyakan kpd user algoritma k-means, catatan2 yg ada akan dibuat menjadi berapa kelompok (misalnya sebanyak k kelompok) Kedua, secara random, pilihlah k buah catatan (dari sekian catatan yg ada) sebagai pusat kelompok awal Ketiga, untuk setiap catatan, tentukan pusat kelompok terdekatnya dan tetapkan catatan tsb sbg anggota dari kelompok yg terdekat pusat kelompoknya. Hitung rasio antara besaran “Between Cluster Variation” dgn “Within Cluster Variation”, lalu bandingkan rasio tsb dgn rasio sebelumnya (bila sdh ada). Jika rasio tsb membesar, lanjutkan ke langkah keempat. Jika tidak, hentikan prosesnya Keempat, perbaharui pusat-pusat kelompok (berdasarkan kelompok yg didapat dari langkah ketiga) dan kembalilah ke langkah ketiga.

15 Contoh penerapan: 1. Langkah 1 Data input didpt dari Tabel 1 Tanyakan kpd user, catatan2 yg ada akan dijadikan brp kelompok  Misalkan 3 kelompok, maka k-nya adalah 3 atau k=3

16 2. Langkah 2 Kita akan memilih secara random 3 buah (3 buah krn k=3) catatan dari 8 catatan yg ada pada Tabel 1 sbg pusat2 kelompok awal Misalnya, – Catatan B sbg pusat kelompok 1 shg m1=(3,3) – Catatan E sbg pusat kelompok 2 shg m2=(1,2) – Catatan F sbg pusat kelompok 3 shg m3=(4,2)

17 3. Langkah 3: Iterasi 1 Setiap catatan akan ditentukan pusat kelompok terdekatnya. Catatan tsb akan ditetapkan sbg anggota kelompok yg terdekat pusat kelompoknya (lihat Tabel 3)

18 Langkah 3: Iterasi 1 Contoh cara hitung jarak: – Catatan A ke pusat kelompok 1 (B) A(1,3) dan B(3,3) maka Jarak = [ (1-3) 2 + (3-3) 2 ] 0,5 = 2 – Catatan A ke pusat kelompok 2 (E) A(1,3) dan E(1,2) maka Jarak = [ (1-1) 2 + (3-2) 2 ] 0,5 =1 – Catatan A ke pusat kelompok 3 (F) A(1,3) dan F(4,2) maka Jarak = [ (1-4) 2 + (3-2) 2 ] 0,5 = 3,162 Catatan Jarak ke Pusat kelompok 1 Jarak ke Pusat kelompok 2 Jarak ke Pusat kelompok 3 Jarak terdekat ke kelompok A213,162C2... H2,2361,4142,236C2

19 Tabel 3: Iterasi ke-1 Catatan Jarak ke Pusat kelompok 1  B(3,3) Jarak ke Pusat kelompok 2  E(1,2) Jarak ke Pusat kelompok 3  F(4,2) Jarak terdekat ke kelompok A (1,3)213,162C2 B (3,3)02,2361,414C1 C (4,3)13,1621C3 D (5,3)24,1231,414C3 E (1,2)2,23603C2 F (4,2)1,41430C3 G (1,1)2,82813,162C2 H (2,1)2,2361,4142,236C2

20 Bdsk Tabel 3, didpt keanggotaan sbg berikut: – Kelompok 1 atau C1 = {B} – Kelompok 2 atau C2 = {A, E, G, H} – Kelompok 3 atau C3 = {C, D, F} Selanjutnya, hitung rasio antara BCV dgn WCV, sbb: BCV = d(m1, m2) + d(m1, m3) + d(m2, m3) = 2,236 +1, = 6,650 WCV = , ,414 2 = 7 Maka BCV/WCV = 6,650/7 = 0,950

21 Hitung Rasio BCV dgn WCV Catatan Jarak ke Pusat pok 1 (B) Jarak ke Pusat pok 2 (E) Jarak ke Pusat pok 3 (F) Jarak terdekat ke A213,162C2 B02,2361,414C1 C13,1621C3 D24,1231,414C3 E2,23603C2 F1,41430C3 G2,82813,162C2 H2,2361,4142,236C2 BCV = d(m1, m2) + d(m1, m3) + d(m2, m3) = 2,236 +1, = 6,650 WCV = , ,414 2 = 7 Maka BCV/WCV = 6,650/7 = 0,950

22 Dengan memperhatikan bhw langkah sebelumnya blm ada rasio ini, maka perbandingan rasio belum dpt dilakukan maka algoritma dilanjutkan langkah ke-empat

23 4. Langkah 4: Iterasi 1 Pada langkah ini, perbaharui pusat2 kelompok dgn hasil sbb: – m1 = rata2 (m B ) = (3,3) – m2 = rata2 (m A, m E, m G, m H ) = (1,25; 1,75) – m3 = rata2 (m C, m D, m F ) = (4,333; 3,667) Cara hitungnya A13 E12 G11 H21 Jml57 hasil 5/4 = 1,25 7/4 = 2,75

24 5. Langkah 3: Iterasi 2 Sama dengan langkah 3 iterasi 1, hitung jarak setiap catatan ke pusat masing kelompoknya Hasil terlihat pata Tabel 4: Iterasi ke-2

25 Tabel 4: Iterasi ke-2 Catatan Jarak ke Pusat kelompok 1  (3,3) Jarak ke Pusat kelompok 2  (1.25, 1.75) Jarak ke Pusat kelompok 3  (4.33, 3.66) Jarak terdekat ke kelompok A (1,3)21,2753,350C2 B (3,3)01,7681,374C1 C (4,3)13,0210,471C3 D (5,3)23,9530,745C3 E (1,2)2,2360,3543,399C2 F (4,2)1,4142,8130,745C3 G (1,1)2,8280,7913,727C2 H (2,1)2,2361,0612,867C2

26 Bdsk Tabel 4, didpt keanggotaan sbg berikut: – Kelompok 1 atau C1 = {B} – Kelompok 2 atau C2 = {A, E, G, H} – Kelompok 3 atau C3 = {C, D, F} Selanjutnya, hitung rasio antara BCV dgn WCV, sbb: BCV = d(m1, m2) + d(m1, m3) + d(m2, m3) = 6,741 WCV = 4,833 Maka BCV/WCV = 6,741/4,833 = 1,394 Tampak bhw rasio ini (1,394) membesar dibandingkan rasio sejenis yg didptkan pd langkah sebelumnya (0,950) Oleh krn itu, algoritma dilanjutkan kelangkah ke 4.

27 6. Langkah 4: Iterasi ke-3 Pada langkah ini, perbaharui pusat2 kelompok dgn hasil sbb: – m1 = rata2 (m B ) = (3,3) – m2 = rata2 (m A, m E, m G, m H ) = (1,25; 1,75) – m3 = rata2 (m C, m D, m F ) = (4,333; 3,667)

28 7. Langkah 3: Iterasi ke-3 Pada langkah ini, pusat kelompok terdekat utk setiap catatan akan ditentukan Tetapkan catatan tsb sbg anggota kelompok yg terdekat pusat kelompoknya Hasil lengkap terlihat pada Tabel 5

29 Tabel 5: Iterasi ke-3 Catatan Jarak ke Pusat kelompok 1 (B) Jarak ke Pusat kelompok 2 (E) Jarak ke Pusat kelompok 3 (F) Jarak terdekat ke kelompok A21,2753,350C2 B01,7681,374C1 C13,0210,471C3 D23,9530,745C3 E2,2360,3543,399C2 F1,4142,8130,745C3 G2,8280,7913,727C2 H2,2361,0612,867C2

30 Bdsk Tabel 5, didpt keanggotaan sbg berikut: – Kelompok 1 atau C1 = {B} – Kelompok 2 atau C2 = {A, E, G, H} – Kelompok 3 atau C3 = {C, D, F} Selanjutnya, hitung rasio antara BCV dgn WCV, sbb: BCV = d(m1, m2) + d(m1, m3) + d(m2, m3) = 6,741 WCV = 4,833 Maka BCV/WCV = 6,741/4,833 = 1,394 Tampak bhw rasio ini (1,394) sudah tdk lagi membesar dibandingkan rasio sejenis yg didptkan pd langkah sebelumnya (1,394) Oleh krn itu, algoritma akan dihentikan

31 Pengetahuan apa yg didapat? – Kelompok Nasabah pertama  kelompok yg unik krn hanya memiliki seoranga anggota saja (hanya B), yg kelak jelas bagi kita bhw kelompok ini mrpk kelompok nasabah yg memiliki jumlah rmh sedang (3 buah) dan jumlah mobil banyak (3 buah) – Kelompok Nasabah kedua  memiliki 4 org anggota (A, E, G, H), yg kelak akan menjadi jelas bagi kita bhw kelompok ini mrpkan kelompok nasabah yg memiliki rata2 jumlah rmh sedikit (1,25 buah) dan rata2 jumlah mobil sedikit pula (1,75 buah) – Kelompok Nasabah ketiga  memiliki 3 org anggota (C, D, F), yg kelak akan jelas bagi kita bhw kelompok ini merupakan kelompok nasabah yg memiliki rata2 jumlah rmh banyak (4,33 buah) dan rata2 jumlah mobil yg cukup banyak (2,67 buah)

32 Algoritma Pengelompokan lainnya Algoritma hierarchical clustering Algoritma partition clustering Algoritma single linkage Algoritma complete linkage Algoritma average linkage dll

33 Selesai

34 Lupakan


Download ppt "Minggu lalu Decision tree Bayesian Classification Ujian."

Presentasi serupa


Iklan oleh Google