Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

1 Pertemuan 16 Game Playing Continued Matakuliah: T0264/Intelijensia Semu Tahun: Juli 2006 Versi: 2/2.

Presentasi serupa


Presentasi berjudul: "1 Pertemuan 16 Game Playing Continued Matakuliah: T0264/Intelijensia Semu Tahun: Juli 2006 Versi: 2/2."— Transcript presentasi:

1 1 Pertemuan 16 Game Playing Continued Matakuliah: T0264/Intelijensia Semu Tahun: Juli 2006 Versi: 2/2

2 2 Learning Outcomes Pada akhir pertemuan ini, diharapkan mahasiswa akan mampu : >

3 3 Outline Materi Materi 1 Materi 2 Materi 3 Materi 4 Materi 5

4 Alfa-Beta Cutoffs Digunakan teknik branch-and-bound untuk mengurangi jumlah keadaan yang harus diuji guna menentukan nilai dari suatu pohon pelacakan.  adalah batas bawah digunakan oleh node yang melakukan maximize.  adalah batas atas digunakan oleh node yang melakukan minimize.

5 5 Alfa-Beta Cutoffs Pada node yang melakukan minimize, evaluasi akan dihentikan jika sudah didapat node anak memiliki nilai lebih kecil dari pada batas bawah (  ) Pada node yang melakukan maximize, evaluasi akan dihentikan jika sudah didapat node anak memiliki nilai lebih besar dari pada batas atas (  )

6 6 Alfa-Beta Cutoffs Alpha Cutoffs

7 7 Alfa-Beta Cutoffs Pada pohon pencarian, nilai  diset -  dan nilai  diset . Node-node yang melakukan maximize akan memperbaiki nilai , dari nilai anak-anaknya. Node-node yang melakukan minimize akan memperbaiki nilai  dari nilai anak-anaknya.  -cotoff diperuntukan bagi node yang melakukan minimize dan  -cutoff diperuntukan bagi yang melakukan maximize

8 8 Alfa-Beta Cutoffs Jika nilai  >  maka evaluasi dihentikan. Tiap-tiap node yang melalui nilai  dan  akan dievaluasi anak-anaknya dan akan memperbaiki nilainya. Node-node yang melakukan minimize akan memberikan nilai  sesuai dengahn nilai nodenya. Node-node yang melakukan maximize akan memberikan niali  sesuai dengan nilai nodenya.

9 9 Alfa-Beta Cutoffs Alpha and Beta Cutoffs  pruning  pruning

10 10 Contoh lain  - cutoff

11 Additional Refinements  Waiting for quiescence Cara lain untuk membuat gerakan lebih efektif adalah dengan melihat beberapa ply ke depan hingga diperoleh keadaan yang stabil. Pada gambar berikut ini : Didapat nilai A = 2 untuk game dengan 2 ply. Namun setelah dilakukan eksplor menjadi 3 ply maka didapat nilai A = 6.  Secondary search Untuk meyakinkan bahwa nilai yang diperoleh sudah optimal, maka dapat dilakukan dengan cara mengekspand beberpa cabang, dan proses ini dikenal dengan nama pencarian sekunder

12 12 Additional Refinements  Menggunakan Book Moves Cara lain untuk membuat proses pencarian lebih efektif adalah dengan menggunakan bantuan book moves. Proses ini dilakukan dengan cara mencari langkah-langkah yang telah terbukti kualitasnya. Proses pencarian ini hanya dilakukan pada suatu tabel bukan ruang keadaan.

13 13 Additional Refinements  Alternatives to MINIMAX Cara ini digunakan untuk memperbaiki permasalahan pada minimax. Asumsinya bahwa lawan akan selalu memilih gerakan yang optimal Garansinya bahwa gerakan merupakan pilihan terbaik yang dapatkan. Dalam situasi tertentu lebih baik mengambil resiko dengan asumsi lawan akan melakukan kesalahan.

14 Iterative Deepening Algorithm : Depth-First Iterative Deepening Algorithm : Iterative – Deepening – A* Skema :

15 15 Algorithm : Depth-First Iterative Deepening 1.Set SEARCH-DEPTH = 1 2.Conduct a depth-first search to a depth of SEARCH-DEPTH. If a solution path is found, then return it. 3.Otherwise, increment SEARCH-DEPTH by 1 and go to step 2.

16 16 Algorithm : Iterative Deepening-A* 1.Set THRESHOLD = the heuristic evaluation of the start state. 2.Conduct a depth-first search, pruning any branch when its total cost function (g + h’) exceeds THRESHOLD. If solution path is found during the search, return it. 3.Otherwise, increment THRESHOLD by the minimum amount it was exceeded during the previous step, and then go to step 2.

17 17 > End of Pertemuan 16 Good Luck


Download ppt "1 Pertemuan 16 Game Playing Continued Matakuliah: T0264/Intelijensia Semu Tahun: Juli 2006 Versi: 2/2."

Presentasi serupa


Iklan oleh Google