Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Classification Supervised learning.

Presentasi serupa


Presentasi berjudul: "Classification Supervised learning."— Transcript presentasi:

1 Classification Supervised learning

2 Supervised vs Unsupervised Methods
Data mining dapat dikategorikan sebagai supervised ataupun unsupervised. Dalam unsupervised method, tidak ada variabel tujuan yg diidentifikasikan. Kebanyakan metoda data mining adalah supervised method, yang berarti : Ada variabel target yg dispesifikasi sebelumnya Algoritma diberikan beberapa contoh di mana nilai dari variabel target disediakan sehingga algoritma dapat mempelajari yg mana nilai variabel target berhubungan dengan yg mana nilai variabel pemrediksi.

3 Methodology for Supervised Modelling
Algoritma disediakan data training untuk membuat model yg diaplikasikan pada data test

4 Classification Task Beberapa contoh fungsi klasifikasi: Banking:
Pemberian kredit  good or bad credit risk Transaksi kartu kredit  fraudulent or not Education: Penempatan student baru ke suatu jalur tertentu Medicine: Mendiagnosa apakah keberadaan jenis penyakit Law: Menentukan akan penulisan terhadap yg meninggal atau pemalsuan Homeland security: Mengidentifikasikan apakah seseotang yg berperilaku mendikasikan kemungkan ancaman teroris.

5 Contoh kutipan pengklasifikasian pendapatan. (sebagai data training)
Maka berdasarkan klasifikasi dari data training, akan dapat mengassign rekord baru, misal seorang profesor wanita berusia 63 th mgkn diklasifikasikan ke high-income

6 Classification Techniques
Nearest-neighbor (KNN) Naïve Bayes Decision Tree based Methods Rule-based Methods Support Vector Machines Neural Networks Boosting, Bagging, Random Forests

7 Nearest Neighbor Classifiers
Basic idea: Jika dia berjalan seperti itik, maka dia itik Training Records Test Record Choose k of the “nearest” records

8 K-Nearest Neighbor K-nearest neighbors dari suatu record x: titik2 data yg memiliki k terkecil jarak ke x

9 Nearest Neighbor Classifiers
Requires three things The set of stored records Distance Metric to compute distance between records The value of k, the number of nearest neighbors to retrieve To classify an unknown record: Compute distance to other training records Identify k nearest neighbors Use class labels of nearest neighbors to determine the class label of unknown record (e.g., by taking majority vote)

10 K-Nearest Neighbor (KNN) Algorithm
K-NN merupakan instance-based learning, dimana data training disimpan sehingga klasifikasi untuk record baru yg belum diklasifikasi dpt ditemukan dengan membandingkan kemiripan yang paling banyak dalam data training.

11 Contoh: scatter plot untuk rasio sodium/ potasium thd umur
200 pasien Y light gray X dark gray (A) B, C  medium gray

12 Jika ada pasien baru, maka dilihat yg paling dekat (k=1)  pasien 2 (drug A)

13 Important issue in K-NN
Berapa banyak neighbor yg seharusnya dipertimbangkan (k)? Bagaimana mengukur jarak? Bagaimana mengkombinasikan informasi dari lebih dari satu observasi? Haruskah seluruh titik sama bobotnya, atau beberapa titik memiliki informasi lebih dari yg lain

14 DISTANCE FUNCTION Fungsi jarak yang paling umum digunakan  Euclidean distance Dimana, x=x1,x2,…xm, dan y1,y2,…ym merepresentasikan nilai atribut m dari dua rekord

15

16 Untuk data kontinyu bisa juga digunakan rumusan normalisasi/ standarisasi sebelum dilakukan klasifikasi: Untuk variabel kategori:

17 Contoh: nilai variable untuk age & gender (k=1)
Maka jarak antara pasien A & B  d(A,B)=√[(50-20)2 + 02]= 30; dan jarak antara A & C  d(A,C)= √[(50-50)2 + 12]=1 Hal ini berarti pasien A lebih similar ke C daripada ke B

18 Jika dilakukan normalisasi min-max, maka ditemukan: d(A,B)=0
Jika dilakukan normalisasi min-max, maka ditemukan: d(A,B)=0.6, d(A,C)=1 sehingga dihasilkan pasien B lebih mirip ke pasien A Dan juga bila dilakukan Z-score standarization, maka dihasilkan: d(A,B)=0.6, d(A,C)=1, sehingga didapatkan pasien C yg lebih mirip ke pasien A Sering terjadi penyimpangan yg dilakukan oleh normalisasi min-max

19 Combination Function Simple Unweighted Voting
Menentukan k, jml rekord yg memiliki suara dalam pengklasifikasian rekord baru Membandingkan rekord baru ke k-nn, yakni k rekord yg berjarak minim dalam ukuran jarak Sekali k rekord dipilih, maka yg diperhatikan jaraknya. Satu record satu vote Maka bila terdapat k=3, dan terdapat 2 rekord yg lebih dekat ke suatu record (misal: medium gray), maka memiliki confidence 66.67%

20 Weighting Voting Diharapkan memperkecil kesalahan
Merupakan kebalikan proporsi jarak dari rekord baru dengan klasifikasi. Vote dibobotkan dengan inverse square dari nilai jarak

21

22 Sehingga dipilih vote tertinggi yakni dark gray

23 Quantifying Attribute Relevance: Stretching the Axes
Adanya kemungkinan suatu atribut memiliki informasi yg penting thd yg lain, maka dilakukan pengalian terhadap nilai tertentu. Misal adanya informasi Na/K ratio tiga kali lebih penting dari age, maka untuk pencarian jarak sbb:

24 Choosing k Pemilihan k yg terlalu kecil menyebabkan sensitive terhadap noise Namun k terlalu besar, neighborhood dapat mencangkup titik2 dari kelas lain Sehingga dilakukan pemilihan dengan meminimkan estimasi error pengklasifikasian


Download ppt "Classification Supervised learning."

Presentasi serupa


Iklan oleh Google