susy susmartini operations research II, 2006 OPERATION RESEARCH II 3 SKS MATERI KULIAH 1 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 DYNAMIC PROGRAMMING KARAKTERISTIK DP: PROBLEM DAPAT DIBAGI DALAM STAGE, DENGAN SUATU POLICY DECISION, SETIAP STAGE TERDIRI DARI SATU ATAU LEBIH STATE (POSSIBLE CONDITIONS) PENGARUH POLICY DECISION PADA SETIAP STAGE MENGUBAH CURRENT STATE KE DALAM SUATU STATE YANG BERHUBUNGAN DENGAN NEXT STAGE SOLUTION PROBLEM DIDISAIN UNTUK MENDAPATKAN OPTIMAL POLICY BAGI PROBLEM SECARA KESELURUHAN OPTIMAL POLICY PADA SUATU STAGE BERSIFAT INDEPENDENT DARI POLICY PADA STAGE SEBELUMNYA SOLUTION PROCEDURE DIMULAI DENGAN MENENTUKAN OPTIMAL POLICY PADA LAST STAGE RECURSIVE RELATIONSHIP : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
JENIS DYNAMIC PROGRAMMING DETERMINISTIC DYNAMIC PROGRAMMING PROBABILISTIC DYNAMIC PROGRAMMING Stage n Stage n+1 State : Contribution from stage n 1 probability decision State : 2 s susy susmartini operations research II, 2006
DETERMINISTIC DYNAMIC PROGRAMMING Contoh soal 1: No. of Medical Teams Thousands of Additional Person-Years of Life Country 1 2 3 4 5 45 70 90 105 120 20 75 110 150 50 80 100 130 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Penyelesaian : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 1 2 3 4 5 50 70 80 100 130 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 1 2 3 4 5 50 70 80 100 130 20 90 120 45 95 115 125 75 145 110 160 150 0 or 1 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 1 2 3 4 5 160 170 165 155 120 Optimal Solution : susy susmartini operations research II, 2006
DETERMINISTIC DYNAMIC PROGRAMMING CONTOH SOAL 2 : THE MINIMUM EMPLOYMENT REQUIREMENT SEASON SPRING SUMMER AUTUMN WINTER REQUIREMENT 255 220 240 200 BIAYA KELEBIHAN TENAGA KERJA $ 2,000 / ORG / MUSIM BIAYA PERUBAHAN JUMLAH TENAGA KERJA $ 200 / (PERBEDAAN JUMLAH TK)2 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 PENYELESAIAN : Stage n Stage n+1 STAGE 1 : SUMMER STAGE 2 : AUTUMN STAGE 3 : WINTER STAGE 4 : SPRING State : Value : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Feasible Possible Cost 1 220 2 240 3 200 4 255 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Solution procedure 255 Stage 4 : n = 4 Stage 3 : n = 3 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Stage 2 : n = 2 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Stage 1 : n = 1 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 255 185,000 247.5 247.5 245 255 susy susmartini operations research II, 2006
PROBABILISTIC DYNAMIC PROGRAMMING CONTOH : Sebuah perusahaan menerima order dgn ketentuan sbb : Keputusan produk diterima/ditolak di tangan CUSTOMER CUSTOMER hanya membutuhkan SATU PRODUK SAJA Perusahaan mempunyai kesempatan hanya 3 KALI PRODUCTION RUN Jika pada akhir production run yg KE 3 BELUM ADA produk yg dapat diterima oleh customer , perusahaan akan mendapatkan PENALTY COST sebesar $ 1,600 Perusahaan mengestimasikan : Peluang produk DITERIMA & DITOLAK, masing2 : ½ SETUP COST di setiap awal PRODUCTION RUN : $ 300 PRODUCTION COST : $ 100 per ITEM Berapa jumlah produk pada masing-masing PRODUCTION RUN, agar total ongkos produksi minimal ? susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 PENYELESAIAN : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 decision State : Value : 1 2 3 4 5 16 12 9 8 8.5 3 or 4 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 1 2 3 4 8 7 7.5 2 or 3 1 2 3 4 7 7.5 6 3/4 6 7/8 7 7/16 n = 1 KESIMPULAN susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 CONTOH : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 1 2 3 4 >5 2/3 - 2 (or more) 1 (or more) 0(or < s3 – 5) n = 3 1 2 3 4 >5 2/3 4/9 8/9 - 1 or 2 0, 2 or 3 0(or<s2-5) n = 2 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 1 2 3 2/3 20/27 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 MARKOV PROCESSES DEFINISI : MARKOV PROCESS MODELS adalah suatu proses stokastik untuk memperkirakan keadaan di masa mendatang, dengan hanya mempertimbangkan keadaan tepat sebelumnya. Sehingga untuk suatu Markov Process, dengan present state yang diketahui, maka conditional probability keadaan berikutnya bersifat independen dari keadaan sekarang. Suatu stochastic process dengan suatu finite or countable state space, dikatakan mempunyai suatu Markov chain structure jika susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 N x N Transition Probability Matrix P State 1 2 …….. N P = . P11 p21 pN1 p12 pN2 P1N p2N pNN susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Contoh 1: Current selection Selection Next Week Pizzaria A Pizzaria B Pizzaria C 0.5 0.4 0.3 0.2 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Selection Time After Next, n= 2 Selection Next Time, n= 1 p=0.5 Pizzaria A (0.4) (0.5) = 0.20 Pizzaria A p=0.3 Pizzaria B p=0.2 Pizzaria C p=0.4 p=0.4 Pizzaria A (0.2) (0.4) = 0.08 Current Selection, Pzzaria B ( n=0 ) p=0.2 p=0.2 Pizzaria B Pizzaria B p=0.4 Pizzaria C p=0.4 Pizzaria A (0.4) (0.3) = 0.12 p=0.3 p=0.3 Pizzaria C Pizzaria B p=0.4 Pizzaria C susy susmartini operations research II, 2006
The Chapman-Kolmogorov Equations susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
The LONG-RUN BEHAVIOR OF MARKOV PROCESSED Markov Chain mempunyai suatu sifat tertentu, yaitu bahwa setelah melalui operasi untuk periode waktu yang cukup lama (beberapa step), maka Markov process akan mencapai suatu steady-state conditions. Suatu Markov chain mencapai steady-state conditions, maka rangkaian (chain) pasti ergodic. Suatu ergodic Markov Chain mempunyai sifat yang memungkinkan / possible, pergerakan dari suatu state menuju ke state yang lain, tanpa memperhatikan present state. susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Contoh 2 : Future States 1 2 3 4 Present State 1/3 1/2 1/4 2/4 2/3 Dari State 1 dapat langsung ke semua state kecuali ke state 3. Untuk menuju ke state 3, harus dilakukan melalui state 2 terlebih dahulu, baru ke state 3 Dari State 2 dapat langsung ke semua state kecuali ke state1. Untuk menuju ke state 1,harus dilakukan melalui state 3 atau 4 terlebih dahulu, dari state 3 baru ke state 1. Atau dari state 4 ke state 3, baru ke state 1. Dst pada prinsipnya, dari suatu state dapat menuju ke state lainnya Transition Matrix tsb suatu ergodic chain susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Jenis ergodic chain yang penting diketahui adalah Regular Chain Suatu Regular Chain didefinisikan sebagai chain yang mempunyai suatu transition matrix P dimana power P hanya terdiri dari positive probability values. Dengan perkataan lain : Semua Regular Chain pasti suatu ergodic chain, tetapi tidak semua ergodic chain merupakan Regular Chain. Contoh : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Contoh 3 : susy susmartini operations research II, 2006
DETERMINATION OF STEADY-STATE CONDITIONS susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Contoh 4 ( Pizzaria ) : Current selection Selection Next Week Pizzaria A Pizzaria B Pizzaria C 0.5 0.4 0.3 0.2 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 FIRST PASSAGE TIMES FIRST PASSAGE TIMES (Tij ) adalah waktu / jumlah transisi / proses yang diperlukan untuk melakukan transisi dari suatu state i ke state j pertama kali. Jika j=i, maka First Passage Time disebut sebagai Recurrence Time (Waktu Kambuh/Berulang), yaitu waktu / jumlah transisi yang diperlukan untuk kembali ke initial state i. Contoh 5 : Berikut ini adalah data persediaan barang dalam 8 minggu : I1 = 8 I2 = 6 I3 = 5 I4 = 7 I5 = 5 I6 = 8 I7 = 6 I8 = 2 First Passage Time dari state 8 ke state 5 adalah 2 minggu, dari dari state 8 ke state 7 adalah 3 minggu, sementara Recurrence Time dari state 8 adalah 5 minggu, dan Recurrence Time dari state 5 adalah 2 minggu susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Contoh 6 (Pizzaria) : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Current selection Selection Next Week Pizzaria A Pizzaria B Pizzaria C 0.5 0.4 0.3 0.2 Contoh 7: (kasus Pizzaria) susy susmartini operations research II, 2006
Analysis of ABSORBING MARKOV CHAINS Suatu Markov Chain menjadi suatu Absorbing Markov Chain jika : Sedikitnya, terdapat satu Absorbing State Pergerakan state dimungkinkan dari setiap nonabsorbing state ke paling tidak satu absorbing state pada langkah / step tertentu. Contoh 8 : State 1 : Championship tournamen caliber State 2 : “Washout” – switch to another sport State 3 : Daily instruction and practice needed State 4 : Twice daily instruction and practice needed susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
Expected steps before Absorption S3 S4 2.14 + 0.36 = 2.50 Beginning State Expected steps before Absorption S3 S4 2.14 + 0.36 = 2.50 0.71 + 1.79 = 2.50 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006
APPLICATION OF MARKOV PROCESS MODELS Contoh 9: State Condition of Printer Output 1 2 3 Excelent Acceptable, but of marginal quality Unacceptable, blurry and unreadable From State To State 1 2 3 7/8 3/4 1/8 1/4 State Expected Cost 1 2 3 $ 0 $ 1000 (cost of illegible reports) $ 5000 (cost of illegible reports, plus cost of repairing printer) susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Transition matrix of maintenance policy : From state To state 1 2 3 7/8 3/4 1/8 1/4 susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Artinya : Untuk waktu yang cukup lama, printer akan berada pada : State 1 18.18 % of the time State 2 63.64 % of the time State 3 18.18 % of the time Sehingga : Untuk waktu yang cukup lama, diperkirakan rata-rata biaya untuk maintenance policy : susy susmartini operations research II, 2006
Contoh 10 : Suatu credit card company membagi Status of Accounts Receivable menjadi 4 kategori, yaitu : Berikut ini adalah transition matrix (periode mingguan) yang berhasil dibuat oleh company berdasarkan pengamatan : Accounts Receivable Category (states) Status of Accounts Receivable 1 2 3 4 Paid in full Bad debt 0-30 days late 31-120 days late To AR Category (state) 1 2 3 4 P = From AR Category (state) 0.4 0.2 0.3 0.1 Untuk membuat credit-control policies yang lebih effektif, antara lain diperlukan suatu gambaran tentang probability of absorption susy susmartini operations research II, 2006
susy susmartini operations research II, 2006 Penyelesaian : susy susmartini operations research II, 2006
susy susmartini operations research II, 2006