MIK | FAKULTAS ILMU-ILMU KESEHATAN

Slides:



Advertisements
Presentasi serupa
Pohon Keputusan (Decision Tree)
Advertisements

Sistem kontrol penyiram air
Diadaptasi dari slide Jiawei Han
Ujian Akhir Semester (UAS)
Desain dan Analisis Algoritma
Algoritma Data Mining Object-Oriented Programming Algoritma Data Mining
NoOUTLOKTEMPERATUREHUMIDITYWINDYPLAY 1SunnyHotHighFALSENo 2SunnyHotHighTRUENo 3CloudyHotHighFALSEYes 4RainyMildHighFALSEYes 5RainyCoolNormalFALSEYes 6RainyCoolNormalTRUEYes.
Pertemuan XII FUNGSI MAYOR Classification.
ARTIFICIAL INTELLIGENCE 6 Fuzzy Logic
Kasus Buat algoritma untuk menghitung total pembayaran dari proses pembelian.
Decision Tree.
Data Mining: 4. Algoritma Klasifikasi
Algoritma-algoritma Data Mining Pertemuan XIV. Classification.
Data Mining: 4. Algoritma Klasifikasi
Data Mining Algoritma C4.5. Penjelasan metode Kelebihan dan kekurangan.
Bahasa Pemrograman Dasar Pertemuan 6
Structure English dan Decision Table
Decision Tree.
Klasifikasi Data Mining.
ANALISIS ASOSIASI BAGIAN 1
Algoritma dan Struktur Data
STUDI KASUS KLASIFIKASI Algoritma C 4.5
TEORI DASAR Logika Fuzzy
Matematika Diskrit Kode Huffman Heru Nugroho, S.Si., M.T.
Peran Utama Data Mining
Martin Budi G Di Bawah Bimbingan Rindang Karyadin, S.T., M.Kom.
PEMBUATAN POHON KEPUTUSAN
Algoritma C4.5. Algoritma C4.5 Object-Oriented Programming Introduction Algoritma C4.5 merupakan algoritma yang digunakan.
Data Mining Junta Zeniarja, M.Kom, M.CS
Data Mining.
Decision Tree Classification.
Decision Tree Classification.
ANALISIS ASOSIASI BAGIAN 1
Nama Anggota Kelompok Nama Dosen
Agus Aan Jiwa Permana, S.Kom., M.Cs
Klasifikasi Berdasarkan Teorema Bayes
Klasifikasi.
Decision Tree Analysis
Algoritma dan Struktur Data
Naïve Bayes Classification.
Pohon Keputusan (Decision Trees)
TREE (POHON).
Matematika Diskrit Semester Ganjil TA Kode Huffman.
PRODI MIK | FAKULTAS ILMU-ILMU KESEHATAN
JENIS DAN SIMBOL FLOWCHART PRODI MIK | FAKULTAS ILMU-ILMU KESEHATAN
Naïve Bayes Classification.
Decision Tree.
Oleh : Rahmat Robi Waliyansyah, M.Kom.
.:: NAive bayes ::. DSS - Wiji Setiyaningsih, M.Kom.
Percabangan dan Perulangan
PRODI MIK | FAKULTAS ILMU-ILMU KESEHATAN
Analisa algoritma rekursif
Decision Tree Analysis
Data Mining DATA SET. Set Data Ada bermacam –macam cara untuk merepresentasikan data, Misalnya, atribut yang digunakan untuk menggambarkan jenis objek.
Algoritma dan Struktur Data
DATA MINING with W E K A.
KLASIFIKASI.
Anggota Dwita Eprila ( ) Mayang Hermeiliza Eka Putri ( ) Nadiah Amelia ( ) Rafif Abdusalam ( ) Shofyan.
Perancangan Sistem Klasifikasi Masa Studi Mahasiswa Menggunakan Data Mining Berbasis Algoritma ID3 (Studi Kasus:Jurusan Teknik Komputer –Unikom) Oleh:
DATA PREPARATION Kompetensi
Konsep Aplikasi Data Mining
Decision Tree Pertemuan : 13.
DATA PREPARATION.
KLASIFIKASI.
Pertemuan 10.
Model Pengambilan Keputusan (2)
Data Mining Classification.
Klasifikasi dengan Naive Bayes
Universitas Gunadarma
Universitas Gunadarma
Transcript presentasi:

MIK | FAKULTAS ILMU-ILMU KESEHATAN DECISION TREE PERTEMUAN 9 NOVIANDI MIK | FAKULTAS ILMU-ILMU KESEHATAN

KEMAMPUAN AKHIR YANG DIHARAPKAN Menjelaskan cara penggunaan decision tree terhadap data

Decision Tree Salah satu algoritma klasifikasi yang sangat powerful Waktu komputasi lebih singkat dibandingkan yang lain Rule-rule yang sederhana dan mudah untuk dimengerti

Algoritma Decision Tree Siapkan data training (data latih) Pilih atribut sebagai akar 3. Buat cabang untuk tiap –tiap nilai 4. Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg sama

1. Data training

2. Pilih atribut sebagai akar Memilih atribut akar, didasarkan pada nilai Gain tertinggi dari atribut-atribut yang ada. Untuk mendapatkan nilai Gain, harus ditentukan terlebih dahulu nilai Entropy. Rumus Entropy: S = Himpunan Kasus n = Jumlah Partisi S pi = Proporsi dari Si terhadap S Rumus Gain: S = Himpunan Kasus A = Atribut n = Jumlah Partisi Atribut A | Si | = Jumlah Kasus pada partisi ke-i | S | = Jumlah Kasus dalam S

Perhitungan Entropy dan Gain

Tabel Entropy

Perhitungan Gain Akar

Tabel Gain Akar NODE ATRIBUT JML KASUS (S) YA (Si) TIDAK (Si) ENTROPY 1 TOTAL   14 10 4 0,86312 OUTLOOK 0,25852 CLOUDY RAINY 5 0,72193 SUNNY 2 3 0,97095 TEMPERATURE 0,18385 COOL HOT MILD 6 0,91830 HUMADITY 0,37051 HIGH 7 0,98523 NORMAL WINDY 0,00598 FALSE 8 0,81128 TRUE

Menentukan Gain Tertinggi Gain tertinggi adalah HUMIDITY yaitu sebesar 0.37051 sehingga HUMIDITY dapat menjadi node akar. Humidity memiliki dua nilai atribut yaitu HIGH dan Normal. Terlihat bahwa atribut NORMAL sudah mengklasifikasikan kasus menjadi keputusan Yes, sehingga tidak perlu melakukan perhitungan lebih lanjut. 1. HUMIDITY 1.1 ? Yes High Normal

3. Pembuatan Cabang Untuk Tiap- tiap nilai Untuk memudahkan, dataset di filter dengan mengambil data yang memiliki kelembaban HUMADITY=HIGH untuk membuat table Node 1.1.

Perhitungan Entropi dan Gain Kembali

Pemilihan Node untuk 1.1 1. HUMIDITY 1.1 OUTLOOK Yes High Normal No 1.1.2 ? Cloudy Rainy Sunny Gain tertinggi pada table sebelumnya adalah atribut OUTLOOK yaitu sebesar 0.69951. Sehingga outlook yang menempati node kedua. Atribut CLOUDY= YES dan SUNNY= NO sudah mengklasifikasikan kasus menjadi 1 keputusan , sehingga tidak perlu diperhitungkan lebih lanjut tetapi untuk atribut Rainy perlu perhitungan lebih lanjut.

TERIMA KASIH 