NIPRL 1.4 Probabilitas Bersyarat Definisi Probabilitas Bersyarat(1/2) Probabilitas Bersyarat Probabilitas bersyarat kejadian A pada kejadian B adalah untuk P(B)>0. Fungsi tersebut mengukur kejadian A terjadi bila mengethaui bahwa B terjadi
NIPRL Definisi Probabilitas Bersyarat(2/2)
NIPRL Contoh Probabilitas Bersyarat(1/3) Contoh: Power Plant Operation A = { pembangkit X tidak beroperasi } dan P(A) = 0.32 Misalkan diketahui bahwa setidaknya dua dari tiga pabrik yang menghasilkan listrik ( event B ). B = {setidaknya dua dari tiga pembangkit menghasilkan listrik } P(A) = 0.32 => P(A|B) = 0.257
NIPRL Contoh Probabilitas Bersyarat(2/3) - Dadu dilempar. - Dadu merah dan biru dilempar. A = { Angka 6 dadu merah } B = { paling tidak angka 6 diperoleh pada dua dadu}
NIPRL Contoh C = { tepat hanya satu angka 6 }
NIPRL 1.5 Probabilitas dari kejadian yang beririsan Hukum perkalian Probabilitas Kejadian yang saling berkaitan Probabilitas dari kejadian yang saling berkaitan dapat dihitung dari
1.5.2 Kejadian Saling bebas Kejadian saling bebas Dua kejadian A dan B Saling bebas jika
NIPRL Interpretasi dua kejadian saling bebas adalah bahwa kejadian satu tidak berpengaruh terhadpa probabilitas kejadian yang lain Keterkaitan (irisan) dari kejadian saling bebas Probabilitas dari kejadian saling bebas dinyatakan dengan
1.5.3 Examples and Probability Trees(1/3) Contoh : Garansi Mobil Perusahaan menjual type mobil tertentu, yang dirakit di salah satu dari 4 tempat perakitan. Tempatt I 20%; Tempat II, 24%; Tempat III, 25%; Tempat IV, 31%. Pembeli membeli mobil tidak tahu dimana mobil dirakit, sehingga probabilitas dari mobil yang dibeli dari setiap tempat empat dinyatakan dengan probabilitas 0.20, 0.24, 0.25, dan Setiap mobil diberi garansi dengan : P( claim | plant I ) = 0.05, P( claim | plant II ) = 0.11 P( claim | plant III ) = 0.03, P( claim | plant IV ) = 0.08 Contoh : mobil dirakit ditempat I memiliki probabilitas 0.05 menerima garansinya. Perhatikan bahwa claim jelas tidak terlepas dari lokasi perakitan karena keempat probabilitas kondisional tidak sama.
NIPRL Examples and Probability Trees(2/3) P( claim ) = P( plant I, claim ) + P( plant II, claim ) + P( plant III, claim) + P( plant IV, claim ) =
NIPRL Examples and Probability Trees(3/3) GAMES OF CHANCE - Dadu merah dan biru dilempar A = { dadu merah muncul angka genap} B = { dadu biru muncul angka genap }
NIPRL 1.6 Posterior Probabilitas Hukum Jumlah Probabilitas(1/3)
NIPRL Hukum Jumlah Probabilitas Jika adalah bagian dari ruang sampel, maka probabilitas dari kejadian B dapat diperoleh dari probabilitias dan menggunakan formula
NIPRL Menghitung Posterior Probabilitas Bayes’ Theorem If adalah bagian-bagian dari ruang sampel, maka posterior probabilities dari kejadian bersyarat A i pada kejadian B dapat diperoleh dari B dapat diperoleh dari dan dengan
NIPRL Examples of Posterior Probabilities(1/2) Contoh : Garansi Mobil - Prior probabilitas -Jika klaim dibuat pada garansi mobil didasarkan pada tempat? Cara menghitungnya….
NIPRL Examples of Posterior Probabilities(2/2) - Tidak ada klaim yang dibuat pada garansinya
June 8, 2015 Data Mining: Concepts and Techniq ues17 Aplikasi Theorema Bayesian Perhatikan D adalah record training dan ditetapkan label- label kelasnya dan masing-masing record dinyatakan n atribut ( n field ) X = (x 1, x 2, …, x n ) Misalkan terdapat m kelas C 1, C 2, …, C m. Klassifikasi adalah diperoleh maximum posteriori yaitu maximum P(C i |X) Ini dapat diperoleh dari teorema Bayes Karena P(X) adalah konstan untuk semua kelas, hanya Perlu dimaksimumkan
18 Derivation of Naïve Bayes Classifier Diasumsikan: atribut dalam kondisi saling bebas (independent) yaitu tidak ada kebergantungan antara atribut-atribut : A k adalah categorical, P(x k |C i ) adalah jumlah record dalam kelas C i yang memiliki nilai x k untuk A k dibagi dengan |C i, D | jumlah record dalam C i dalam D)
19 Naïve Bayesian Classifier: Training Dataset Class: C1:buys_computer = ‘yes’ C2:buys_computer = ‘no’ Data sample X = (age <=30, Income = medium, Student = yes Credit_rating = Fair) D= 14
June 8, 2015 Data Mining: Concepts and Techniq ues20 Naïve Bayesian Classifier: An Example P(C i ): P(buys_computer = “yes”) = 9/14 = P(buys_computer = “no”) = 5/14= Compute P(X|C i ) for each class P(age = “<=30” | buys_computer = “yes”) = 2/9 = P(age = “<= 30” | buys_computer = “no”) = 3/5 = 0.6 P(income = “medium” | buys_computer = “yes”) = 4/9 = P(income = “medium” | buys_computer = “no”) = 2/5 = 0.4 P(student = “yes” | buys_computer = “yes) = 6/9 = P(student = “yes” | buys_computer = “no”) = 1/5 = 0.2 P(credit_rating = “fair” | buys_computer = “yes”) = 6/9 = P(credit_rating = “fair” | buys_computer = “no”) = 2/5 = 0.4 X = (age <= 30, income = medium, student = yes, credit_rating = fair) P(X|C i ) : P(X|buys_computer = “yes”) = x x x = P(X|buys_computer = “no”) = 0.6 x 0.4 x 0.2 x 0.4 = P(X|C i )*P(C i ) : P(X|buys_computer = “yes”) * P(buys_computer = “yes”) =0,044*0.643 = P(X|buys_computer = “no”) * P(buys_computer = “no”) = Sehingga, X belongs to class (“buys_computer = yes”)