HO-2 KTL401 Kecerdasan Buatan Intelligent Agents Opim S Sitompul
Outline Agen dan lingkungan Rasionalitas PEAS (Performance measure, Environment, Actuators, Sensors) Jenis-jenis Lingkungan Jenis-jenis Agen
Agent Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators Agen manusia: Sensor: mata, telinga, dan organ tubuh lain; Actuator: tangan, kaki, mulut, dan bagian tubuh lain Agen robotik: Sensor: kamera dan infrared range finders; Actuator: berbagai macam motor
Agent dan lingkungan Fungsi agen memetakan dari sejarah persepsi ke dalam tindakan (actions): [f: P* A] Program agen berjalan pada arsitektur fisik untuk menghasilkan f agen = arsitektur + program
Vacuum-cleaner world Percepts: location and contents, e.g., [A,Dirty] Actions: Left, Right, Suck, NoOp
A vacuum-cleaner agent Sekuen Persepsi Tindakan [A, Clean] Right [A, Dirty] Suck [B, Clean] Left [B, Dirty] [A, Clean], [A, Clean] [A, Clean], [A, Dirty] … [A, Clean], [A, Clean], [A, Clean] [A, Clean], [A, Clean], [A, Dirty]
Agen rasional Sebuah agen haruslah mengarah kepada “lakukan hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen Mis., ukuran performance dari sebuah agen vacuum-cleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.
Agen rasional Agen rasional : Untuk setiap deretan persepsi yang mungkin, sebuah agen rasional hendaklah memilih satu tindakan yang diharapkan memaksimalkan ukuran performance-nya, dengan adanya bukti yang diberikan oleh deretan presepsi dan apapun pengetahuan terpasang yang dimiliki agen itu.
Agen rasional Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga) Agen dapat melakukan tindakan untuk memodifikasi persepsi masa depan sedemikian hingga dapat memperoleh informasi yang berguna (pengumpulan informasi, eksplorasi) Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi)
PEAS PEAS: Performance measure, Environment, Actuators, Sensors Pertama-tama harus menentukan pengaturan untuk desain agen cerdas Pertimbangkan, mis., tugas merancang supir taksi otomatis: Performance measure: Aman, cepat, legal, perjalanan menyenangkan, maksimumkan keuntungan Environment: Jalan, trafik lain, pejalan kaki, pelangan Actuators: Kemudi, gas, rem, lampu sign, horn Sensors: Kamera, sonar, speedometer, GPS, odometer, engine sensors, keyboard
PEAS Agen: Sistem pendiagnosa medis Performance measure: Pasien sehat, biaya minimal, sesuai aturan/hukum (lawsuits) Environment: Patient, hospital, staff Actuators: Screen display (questions, tests, diagnoses, treatments, referrals) Sensors: Keyboard (entry of symptoms, findings, patient's answers)
PEAS Agent: Robot pengutip-sukucadang Performance measure: Persentase sukucadang dalam kotak yang benar Environment: ban berjalan dengan sukucadang, kotak Actuators: Pergelangan dan tangan tersambung Sensors: Kamera, joint angle sensors
PEAS Agen: Tutor Bahasa Inggeris Interaktif Performance measure: Memaksimalkan nilai mahasisa pada waktu ujian Environment: Sekumpulan mahasiswa Actuators: Layar display (exercises, suggestions, corrections) Sensors: Keyboard
Jenis-jenis Lingkungan Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu. Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic) Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.
Jenis-jenis Lingkungan Static (vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan (deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah) Discrete (vs. continuous): Sejumlah terbatas persepsi dan tindakan yang khas dan terdefinisi baik. Single agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam sebuah lingkungan.
Jenis-jenis Lingkungan Lingkungan Tugas Observable Deterministic Episodic Static Discrete Agents Crossword puzzle Chess with a clock Fully Stategic Sequential Semi Single Multi Poker Backgammon Partially Stochastic Taxi driving Medical diagnosis Dynamic Continu Image-analysis Part-picking robot Refinery Controller Int. English Tutor Jenis lingkungan sangat menentukan rancangan agen Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent
Struktur Agen Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi. Tugas AI adalah merancang program agen yang mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur) Agent = arsitektur + program Program yang dipilih harus sesuai dengan arsitektur tersebut. Cth: Action: Walk arsitekturnya hendaklah memiliki kaki
Program-Program Agen Empat jenis dasar untuk menambah generalitas: Simple reflex agents Model-based reflex agents Goal-based agents Utility-based agents
Table-driven agent function TABLE-DRIVEN-AGENT(persept) returns an action static: percepts, a sequence, initially empty tables, a table of actions, indexed by percepts sequence, initially fully specified append percept to the end of percepts action <- LOOKUP(percepts, table) return action
Table-driven agent Kekurangan: Tabel sangat vesar Misalkan P himpunan percepts yang mungkin T lifetime agen Entri table lookup: Automated taxi: rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan 24 bit color information) Table lookup: 10250,000,000,000 Memakan waktu lama untuk membangun tabel Tidak Otonom Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel
Simple reflex agents Contoh: function REFLEX-VACUUM-AGENTS([location, status]) returns an action if status = Dirty then return Suck else if location = A then return Right else if location = B then return Left
Simple reflex agents
Simple Reflex Agent function SIMPLE-REFLEX-AGENT(percept) returns an action static: rules, a set of condition-action rules state <- INTERPRET-INPUT(percept) rule <- RULE-MATCH(state, rule) action <- RULE-ACTION[rule] return action
Model-based reflex agents
Model-based reflex agents function REFLEX-AGENT-WITH-STATE(percept) returns an action static: state, a description of the current world state rules, a set of condition-action rules action, the most recent action, initially none state <- UPDATE-STATE(state, action, percept) rule <- RULE-MATCH(state, rules) action <- RULE-ACTION[rule] return action
Goal-based agents
Utility-based agents
Learning agents