NoOUTLOKTEMPERATUREHUMIDITYWINDYPLAY 1SunnyHotHighFALSENo 2SunnyHotHighTRUENo 3CloudyHotHighFALSEYes 4RainyMildHighFALSEYes 5RainyCoolNormalFALSEYes 6RainyCoolNormalTRUEYes.

Slides:



Advertisements
Presentasi serupa
Pohon Keputusan (Decision Tree)
Advertisements

Diadaptasi dari slide Jiawei Han
Menyusun Persamaan Kuadrat
Ujian Akhir Semester (UAS)
Desain dan Analisis Algoritma
Algoritma Runut-balik (Backtracking)
Kompleksitas Algoritma
Bab 2 – b PERINTAH 2 B Percabangan. PERCABANGAN Tidak setiap baris program akan dikerjakan Hanya yang memenuhi syarat (kondisi) Syarat terdiri dari operand-operand,
Pertemuan XII FUNGSI MAYOR Classification.
Algoritma Pemotongan Algoritma Gomory Langkah 1 x3* = 11/2 x2* = 1
ARTIFICIAL INTELLIGENCE 6 Fuzzy Logic
PERSAMAAN & FUNGSI KUADRAT.
Pertemuan 24 BRANCH AND BOUND (2)
Kasus Buat algoritma untuk menghitung total pembayaran dari proses pembelian.
LINEAR PROGRAMMING Pertemuan 05
BARISAN GEOMETRI.
Decision Tree.
Data Mining: 4. Algoritma Klasifikasi
Algoritma-algoritma Data Mining Pertemuan XIV. Classification.
Data Mining: 4. Algoritma Klasifikasi
Data Mining Algoritma C4.5. Penjelasan metode Kelebihan dan kekurangan.
Bahasa Pemrograman Dasar Pertemuan 6
TEORI PERMAINAN.
Flowchart dan Pseudocode
Perbandingan Algoritma Brute Force dan Depth First Search (DFS) dalam Kasus Travelling Salesman Problem (TSP) Ervin Yohannes ( )
Decision Tree.
Perulangan.
STUDI KASUS KLASIFIKASI Algoritma C 4.5
Penugasan (Assigment) - Minimalisasi Sapta Candra Miarsa,ST.,MT.
Peran Utama Data Mining
Akar-Akar Persamaan.
Algoritma C4.5. Algoritma C4.5 Object-Oriented Programming Introduction Algoritma C4.5 merupakan algoritma yang digunakan.
Data Mining Junta Zeniarja, M.Kom, M.CS
Decision Tree Classification.
Decision Tree Classification.
PERSAMAAN KUADRAT.
BARISAN DAN DERET ARITMETIKA
BAB 2 LOGARITMA.
Peta kendali atribut (lanjutan)
Algoritma dan Pemrograman 1A Sindy Nova
Decision Tree Analysis
Algoritma dan Pemrograman STRUKTUR PEMILIHAN (SELECTION) lanjutan
Naïve Bayes Classification.
Pohon Keputusan (Decision Trees)
Struktur Perulangan Yohana Nugraheni.
Naïve Bayes Classification.
Decision Tree.
Percabangan dan Perulangan
Optimasi dengan Algoritma simpleks
Kompleksitas Algoritma
Materi II Persamaan Non Linier METODE BISEKSI Choirudin, M.Pd
Analisa algoritma rekursif
Perulangan.
Metode Simpleks 17 April 2011 Free Powerpoint Templates.
MIK | FAKULTAS ILMU-ILMU KESEHATAN
Decision Tree Analysis
Data Mining DATA SET. Set Data Ada bermacam –macam cara untuk merepresentasikan data, Misalnya, atribut yang digunakan untuk menggambarkan jenis objek.
Anggota Dwita Eprila ( ) Mayang Hermeiliza Eka Putri ( ) Nadiah Amelia ( ) Rafif Abdusalam ( ) Shofyan.
Perancangan Sistem Klasifikasi Masa Studi Mahasiswa Menggunakan Data Mining Berbasis Algoritma ID3 (Studi Kasus:Jurusan Teknik Komputer –Unikom) Oleh:
DATA PREPARATION Kompetensi
Gerbang Logika Dasar (KK. MDDTD)
HUKUM TEGANGAN & ARUS KIRCHOFF
BAB I Program Linier Pertemuan 1.
Decision Tree Pertemuan : 13.
DATA PREPARATION.
Manfaat dan Teknik Penyajian Data
Data Mining Classification.
Universitas Gunadarma
Universitas Gunadarma
PRINSIP VARIASI “Jika sembarang fungsi gelombang digunakan untuk menghitung energi, maka nilai yang dihitung tidak pernah kurang dari energi sebenarnya”
Transcript presentasi:

NoOUTLOKTEMPERATUREHUMIDITYWINDYPLAY 1SunnyHotHighFALSENo 2SunnyHotHighTRUENo 3CloudyHotHighFALSEYes 4RainyMildHighFALSEYes 5RainyCoolNormalFALSEYes 6RainyCoolNormalTRUEYes 7CloudyCoolNormalTRUEYes 8SunnyMildHighFALSENo 9SunnyCoolNormalFALSEYes 10RainyMildNormalFALSEYes 11SunnyMildNormalTRUEYes 12CloudyMildHighTRUEYes 13CloudyHotNormalFALSEYes 14RainyMildHighTRUENo

Langkah Penyelesaian Kasus Secara umum algoritma C4.5 untuk membangun pohon keputusan adalah sebagai berikut: 1. Pilih atribut sebagai akar. 2. Buatt cabang untuk tiap-tiap nilai. 3. Bagi kasus dalam cabang. 4. Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yang sama.

Langkah Penyelesaian Kasus Node Jml Kasus (S)Tidak (S 1 )Ya (S 2 )EntropyGain 1TOTAL OUTLOOK CLOUDY404 0 RAINY SUNNY TEMPERATURE COOL4040 HOT4221 MILD HUMIDITY HIGH NORMAL7070 WINDY FALSE TRUE

Nilai Keputusan A Jumlah Kasus X Nilai Keputusan A Jumlah Kasus Nilai Keputusan B Jumlah Kasus LOG 2 X Nilai Keputusan B Jumlah Kasus LOG 2 Jumlah Kasus A Total Kasus X Entropy Keputusan A Entopy Total Jumlah Kasus B Total Kasus X Entropy Keputusan B Rumus Entropy Rumus Gain

Entropy (Total) = Sementara itu, nilai Gain pada pada baris OUTLOOK dihitung dengan menggunakan persamaan 1 sebagai berikut. Gain(Total, Outlook) =Entropy (Total)- Gain(Total, Outlook)= ((414*0.723+(-514*0.97)) Gain(Total,Outlook)=0,23

Entropy (Total) = Sementara itu, nilai Gain pada pada baris OUTLOOK dihitung dengan menggunakan persamaan 1 sebagai berikut. Gain(Total, Outlook) =Entropy (Total)- Gain(Total, Outlook)= ((414*0.723+(-514*0.97)) Gain(Total,Outlook)=0,23

Dari hasil pada tabel 2.2 dapat diketahui bahwa atribut dengan gain tertinggi adalah HUMIDITY, yaitu sebesar dengan demikian, HUMIDITY dapat menjadi node akar. Ada dua nilai atribut dari HUMIDITY, yaitu HIGHT dan NORMAL. Dari kedua nilai atribut tersebut, nilai atribut NORMAL sudah mengklasifikasikan kasus menjadi 1, yaitu keputusannya Yes, sehingga tidak perlu dilakukan penghitungan lebih lanjut, tetapi untuk nilai atribut HIGH masih perlu dilakukan perhitungan lagi 1 Humidity 1.1 ? Yes

Menghitung jumlah kasus, jumlah kasus untuk keputusan Yes, jumlah kasus untuk keputusan No, dan entropynya dari semua kasus dan kasus yang dibagi berdasarkan atribut OUTLOK, TEMPERATURE, dan WINDY yang dapat menjadi node akar dari nilai atribut HIGH, setelah itu, lakukan penghitungan Gain untuk tiap-tiap atribut hasil perhitungan ditunjukan oleh tabel Node Jml Kasus (S) Tidak (S 1 ) Ya (S 2 ) EntropyGain 1HUMIDITY- HIGH OUTLOOK CLOUDY2020 RAINY2111 SUNNY3300 TEMPERATURE COOL0000 HOT MILD4221 WINDY FASE4221 TRUE

Dari hasil pada tabel di atas dapat diketahui bahwa atribut dengan Gain tertinggi adalah OUTLOOK, yaitu sebesar dengan demikian OUTLOOK dapat menjadi node cabang dari nilai atribut HIGH. Ada tiga nilai atribut tersebut, nilai atribut CLOUDY sudah mengklasifikasikan kasus menjadi 1, yaitu keputusannya Yes dan nilai atribut SUNNY sudah mengklasifikasikan kasus menjadi satu dengan keputusan No. sehingga tidak perlu dilakukan perhitungan lebih lanjut, tetapi untuk nilai atribut RAINY masih perlu dilkukan perhitungan lagi. Pohon keputusan yang terbentuk sampai tahap ini ditunjukkan pada Gambar Berikut ini: 1.1 Outlook Yes 1 Humidity Yes No

Menghitung jumlah kasus, jumlah kasus untuk keputusan Yes, jumlah kasus untuk keputusan No, dan entropy dari semua kasus dan kasus yang dibagi berdasarkan atribut TEMPERATURE dan WINDY yang dapat menjadi node cabang dari nilai atribut RAINY. Setelah itu, lakukan penghitungan Gain untuk tiap-tiap atribut. Hasil perhitungan ditunjukan oleh tabel di bawah ini Dari hasil tabel 2.4 dapat diketahui bahwa atribut dengan Gain tertinggi adalah WINDY, yaitu sebesar 1. Dengan demikian, WINDY dapat menjadi node cabang dari nilai atribut RAINY. Ada dua nilai atribut dari WINDY, yaitu FALSE dan True. Dari kedua nilai atribut tersebut, nilai atribut FALSE sudah mengklasifikasikan kasus menjadi 1, yaitu keputusan Yes dan nilai atribut True sudah mengklasifikasikan kasus menjadi satu dengan keputusan No, sehingga tidak perlu dilakukan perhitungan lebih lanjut nilai atribut ini.

Node Jml Kasus (S) Tidak (S 1 ) Ya (S 2 ) EntropyGain 1 HUMIDITY- HIGH dan OUTLOOK- RAINY 2111 TEMPERATURE 0 COOL0000 HOT0000 MILD2111 WINDY 1 FALSE1010 TRUE1100

1.1 Outlook Yes Windy YesNo 1 Humidity YesNo