Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Pengantar Intelijensia Buatan

Presentasi serupa


Presentasi berjudul: "Pengantar Intelijensia Buatan"— Transcript presentasi:

1 Pengantar Intelijensia Buatan
Pertemuan XI FOL Reasoning & PROLOG

2 Previously on AI Pengenalan FOL Metode inferensi FOL
Masalah dengan inferensi ??

3 Topic for Today Generalized Modus Ponens Forward & backward Chaining
Resolution & Refutation Introduction to PROLOG

4 Generalized modus ponens
Generalized modus ponens menggabungkan and introduction, universal elimination, dan modus ponens menjadi satu aksi. Untuk setiap atomic sentence p1’,p2’, dan q , dimana terdapat subtitution Ө sehingga SUBST(Ө,p1’)=SUBST(Ө,p1), untuk semua i :

5 Generalized modus ponens
Contoh : P1’ is Missile(M1)  P1 is Missile(x) P2’ is Owns(y,M1)  P2 is Owns(nono,x) Ө is {x/M1,y/nono}  q is Sells(west,nono,x) Then SUBST(Ө,q) is Sells (west,nono,M1)

6 Generalized modus ponens
Generalized modus ponens adalah metode inferensi yang efisien karena 3 alasan : GMP mereduksi 3 langkah inferensi yang kecil menjadi satu langkah yang besar. Daripada menggunakan universal elimination GMP mengambil langkah yang masuk akal dengan menggunakan subtitusi yang dijamin menguntungkan Agar lebih efisien GMP menggunakan langkah pre- compilation dengan menggubah semua kalimat di KB dalam bentuk canonical form agar mudah untuk diproses

7 Canonical form Dalam GMP semua kalimat dalam KB harus berupa atomic sentence atau sebuah implikasi dengan konjungsi di sebelah kiri dan sebuah kalimat atomic di sebelah kanan Bentuk seperti ini disebut juga horn sentences atau canonical form. Kita harus menggubah semua kalimat yang masuk ke dalam KB ke dalam bentuk canonical.

8 Unification Unification adalah bagian yang penting dalam GMP, unification mengambil dua kalimat dan mengembalikan sebuah subtitusi yang membuat dua kalimat itu sama apabila subtitusi seperti itu memungkinkan. Example : UNIFY(Knows(John, x), Knows(John, Jane) = {x/Jane}

9 Unification Algorithm

10 Sample proof revisited

11 Constructing a reasoning program
Ada dua cara untuk menggunakan generalized modus ponens untuk membentuk reasoning program: Forward Chaining Backward Chaining

12 Forward Chaining. Forward Chaining dilakukan ketika sebuah fakta baru (anggap saja p1) dimasukan ke dalam KB Idenya adalah mencari semua implikasi yang mungkin terjadi dengan p1 sebagai premis, ketika suatu implikasi sudah ditemukan, implikasi itu mentrigger kembali forward chaining, sampai akhirnya semua fakta yang bisa ditemukan dikeluarkan

13 Forward chaining Contoh
Kita mulai dengan KB yang mengandung implikasi dalam bentuk horn clause. Cari kemudian fakta yang dapat diunifikasikan ke dalamnya.

14 Forward chaining Forward chaining secara bertahap membentuk gambaran baru akan dunia bersamaan dengan penerimaan data, forward chaining tidak diarahkan untuk menyelesaikan suatu permasalahan tertentu, karenanya metoda ini disebut juga data-driven atau data-directed procedure. Forward chaining dapat menghasilkan banyak kesimpulan yang pada akhirnya tidak digunakan (sia-sia)

15 Forward chaining FOL-FC-ASK(KB, American(West))
Criminal(West) Weapon(M1) Sells(West,Nono,M1) Hostile(Nono) American(West) Missile(M1) Owns(Nono,M1) Enemy(Nono, America) FOL-FC-ASK(KB, American(West)) FOL-FC-ASK(KB, Country(Nono)) FOL-FC-ASK(KB, Enemy(Nono, America)) FOL-FC-ASK(KB, Hostile(Nono)) FOL-FC-ASK(KB, Owns(Nono,M1)) FOL-FC-ASK(KB, Missile(M1)) FOL-FC-ASK(KB, Sells(West,Nono,M1)) FOL-FC-ASK(KB, Weapon(M1)) FOL-FC-ASK(KB, Criminal(West)) Country(Nono)

16 Forward Chaining

17 Backward Chaining Backward chaining di desain untuk menemukan semua jawaban atas pertanyaan yang diajukan kepada knowledge base. Cara kerjanya adalah dengan memeriksa apakah jawaban dapat dihasilkan secara langsung dari knowledge base, lalu ia mencari semua implikasi yang kesimpulannya adalah jawaban dari pertanyaan dan kemudian berusaha untuk memenuhi semua premis yang membentuk implikasi tersebut

18 Backward Chaining Criminal(x) American(x) Weapon(y) Country(z)
Hostile(z) Sells(x,z,y) Yes{x/West} Yes{z/nono} Missile(y) Enemy(z,America) Yes{y/M1t} Yes{z/Nono} Owns(Nono,M1) Missile(M1) Yes{} Yes{}

19 Backward Chaining

20 Backward Chaining Criminal(x) American(x) Weapon(y) Country(z)
Hostile(America) Sells(x,z,y) Yes {x/West} Yes {z/America} failed Missile(y) Yes {y/M1t}

21 Resolution Generalized modus ponens tidak complete, masih ada beberapa kalimat benar yang tidak bisa diinferensi oleh prosedur ini. Untuk mengatasi masalah ini kita menggunakan metode resolusi, prosedure inferensi yang lebih complete.

22 Inference resolution rule ?

23 Resolution inference Untuk mencari solusi menggunakan resolusi kita harus mengubah KB menjadi bentuk Conjunctive Normal Form (CNF) atau Implicative Normal Form (INF).

24 Generalized resolution (disjunction)

25 Generalized resolution (implication)

26 Example of resolution Anggaplah kita memiliki KB berikut :
Kita ingin membuktikan S(A) adalah true

27 Example of resolution Apply: -elemination Apply:  elem, resolution
Apply: Resolution

28 Refutation Chaining dengan resolusi lebih baik dari GMP namun tetap tidak complete Cobalah menyelesaikan masalah ini dengan resolution dalam sebuah KB kosong : Prosedur inferensi yang totally complete adalah refutation

29 Refutation Refutation adalah pembuktian berdasarkan kontradiksi atau reductio ad absurdum Idenya adalah untuk membuktikan P itu benar, maka kita asumsikan bahwa P itu salah (tambahkan ~P ke KB) dan buktikan bahwa suatu kontradiksi terjadi (true => false, false => true). Jika suatu kontradiksi terjadi maka P dikatakan terbukti benar

30 Refutation example Rules Facts

31 Conversion to Normal Form

32 Conversion to Normal Form

33 Example proof of refutation
Jack owns a dog Every dog owner is an animal lover No animal lover kills animal Either jack or curiosity killed the cat, who is named tuna Did “curiosity” kill the cat ? / Who kills the cat ?

34 FOL

35 Implicative Normal Form

36 Refutation ? Dog (y)  Owns(x,y) AnimalLover(x)
Dog (D) Dog (y)  Owns(x,y) AnimalLover(x) Owns(x,D) AnimalLover(x) Owns(Jack,D) AnimalLover(Jack)

37 Refutation

38 Refutation

39 Refutation

40

41 Another resolution example

42 Introduction to prolog
PROLOG = “Programmation en logique” (Marseille, 1972) Declarative programming language with procedural elements Used for problems of AI / knowledge-based (expert) systems Motivation: reconcile use of logic as declarative knowledge representation with procedural representation of knowledge Strengths: Logical descriptions of problems, instead of HOW to solve them  let computer work out the solution Well-suited for problems involving search Simple programs can be understood by reading the code Limitations Flow of control / procedural semantics

43 Facts Prolog-program = collection of clauses Facts Rules
Goals (queries), shaped liked facts Facts describe properties of objects and relations between objects; comparable to tables in a relational database student Name interest Name Subject Hans Hans Math Tina Tina Datalogi Lars Lars Physics Frida Frida Math Prolog notation: student(hans). student(tina). student(lars). student(frida). Prolog notation: interest(hans,math). interest(tina,datalogi). interest(lars,physics). interest(frida,math). Prolog notation: <predicate_name>(arg1, arg2…).

44 Rules Simple IF-THEN statements
“Every reasonable student is interested in math.” interest(X,math) :- student(X). head body All specified conditions in the body (all clauses) must be true to make the predicate in the head true. Conjunctions (AND connected): mother(X,Person) :- parent(X,Person),sex(X,female). Disjunctions (OR connected): interest(X,prolog) :- interest(X,artificial_intelligence). interest(X,prolog) :- interest(X,logic).

45 Goals Goals are queries One ore more subgoals ?- student(thomas).
=> no Pattern matching: a fact matches a goal if Same predicate Same corresponding arguments. Goals can contain variables: ?- student(X). => X = hans ; => X = tina ; => X = lars ; => X = frida ; => no. Variables are instantiated, but cannot be declared!

46 Prolog’s Inference mechanism
Leftmost-depth-first search for solutions Matching: either two terms are identical, or they become identical by variable substitution (resolution based on pred.logic) Processing of subgoals from left to right Backtracking 1: s(a). 2: s(b). 3: q(a). 4: p(X) :- s(X). 5: p(Y) :- q(Y). ?- p(Z). p(Z) 4 5 s(Z) q(Z) 1 2 3 Z=a Z=b Z=a

47 Backward Chaining the Prolog interpreter uses backward chaining:
starting from a goal (theorem) prove the goal by searching for rules whose ”head” (action part) matches the goal Given are the following rules: 1 X 2 H 3 4 OR 5 F&C B&E facts prove AND AND F C B E AND B A C B

48 Latihan Inferensi dan Refutasi FOL (1)
Buktikan bahwa “Marcus membenci Caesar” Facts Marcus adalah seorang manusia Marcus orang Pompei Marcus mencoba membunuh Caesar Caesar adalah seorang penguasa Rules Semua orang Pompei adalah orang Romawi Semua orang Romawi setia pada Caesar atau membenci Caesar Setiap orang setia pada minimal 1 orang Orang hanya mencoba membunuh penguasa yang kepadanya mereka tidak setia

49

50 Latihan FOL (2) Gunakan FOL ini menjadi bentuk CNF Buktikan : Rich(Me) dengan refutation.


Download ppt "Pengantar Intelijensia Buatan"

Presentasi serupa


Iklan oleh Google