Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

susy susmartini operations research II, 2006

Presentasi serupa


Presentasi berjudul: "susy susmartini operations research II, 2006"— Transcript presentasi:

1 susy susmartini operations research II, 2006
OPERATION RESEARCH II 3 SKS MATERI KULIAH 1 susy susmartini operations research II,

2 susy susmartini operations research II, 2006
DYNAMIC PROGRAMMING KARAKTERISTIK DP: PROBLEM DAPAT DIBAGI DALAM STAGE, DENGAN SUATU POLICY DECISION, SETIAP STAGE TERDIRI DARI SATU ATAU LEBIH STATE (POSSIBLE CONDITIONS) PENGARUH POLICY DECISION PADA SETIAP STAGE MENGUBAH CURRENT STATE KE DALAM SUATU STATE YANG BERHUBUNGAN DENGAN NEXT STAGE SOLUTION PROBLEM DIDISAIN UNTUK MENDAPATKAN OPTIMAL POLICY BAGI PROBLEM SECARA KESELURUHAN OPTIMAL POLICY PADA SUATU STAGE BERSIFAT INDEPENDENT DARI POLICY PADA STAGE SEBELUMNYA SOLUTION PROCEDURE DIMULAI DENGAN MENENTUKAN OPTIMAL POLICY PADA LAST STAGE RECURSIVE RELATIONSHIP : susy susmartini operations research II,

3 susy susmartini operations research II, 2006

4 JENIS DYNAMIC PROGRAMMING
DETERMINISTIC DYNAMIC PROGRAMMING PROBABILISTIC DYNAMIC PROGRAMMING Stage n Stage n+1 State : Contribution from stage n 1 probability decision State : 2 s susy susmartini operations research II,

5 DETERMINISTIC DYNAMIC PROGRAMMING
Contoh soal 1: No. of Medical Teams Thousands of Additional Person-Years of Life Country 1 2 3 4 5 45 70 90 105 120 20 75 110 150 50 80 100 130 susy susmartini operations research II,

6 susy susmartini operations research II, 2006
Penyelesaian : susy susmartini operations research II,

7 susy susmartini operations research II, 2006
1 2 3 4 5 50 70 80 100 130 susy susmartini operations research II,

8 susy susmartini operations research II, 2006
1 2 3 4 5 50 70 80 100 130 20 90 120 45 95 115 125 75 145 110 160 150 0 or 1 susy susmartini operations research II,

9 susy susmartini operations research II, 2006
1 2 3 4 5 160 170 165 155 120 Optimal Solution : susy susmartini operations research II,

10 DETERMINISTIC DYNAMIC PROGRAMMING
CONTOH SOAL 2 : THE MINIMUM EMPLOYMENT REQUIREMENT SEASON SPRING SUMMER AUTUMN WINTER REQUIREMENT 255 220 240 200 BIAYA KELEBIHAN TENAGA KERJA $ 2,000 / ORG / MUSIM BIAYA PERUBAHAN JUMLAH TENAGA KERJA $ 200 / (PERBEDAAN JUMLAH TK)2 susy susmartini operations research II,

11 susy susmartini operations research II, 2006
PENYELESAIAN : Stage n Stage n+1 STAGE 1 : SUMMER STAGE 2 : AUTUMN STAGE 3 : WINTER STAGE 4 : SPRING State : Value : susy susmartini operations research II,

12 susy susmartini operations research II, 2006
Feasible Possible Cost 1 220 2 240 3 200 4 255 susy susmartini operations research II,

13 susy susmartini operations research II, 2006
Solution procedure 255 Stage 4 : n = 4 Stage 3 : n = 3 susy susmartini operations research II,

14 susy susmartini operations research II, 2006

15 susy susmartini operations research II, 2006
Stage 2 : n = 2 susy susmartini operations research II,

16 susy susmartini operations research II, 2006

17 susy susmartini operations research II, 2006
Stage 1 : n = 1 susy susmartini operations research II,

18 susy susmartini operations research II, 2006
255 185,000 247.5 247.5 245 255 susy susmartini operations research II,

19 PROBABILISTIC DYNAMIC PROGRAMMING
CONTOH : Sebuah perusahaan menerima order dgn ketentuan sbb : Keputusan produk diterima/ditolak di tangan CUSTOMER CUSTOMER hanya membutuhkan SATU PRODUK SAJA Perusahaan mempunyai kesempatan hanya 3 KALI PRODUCTION RUN Jika pada akhir production run yg KE 3 BELUM ADA produk yg dapat diterima oleh customer , perusahaan akan mendapatkan PENALTY COST sebesar $ 1,600 Perusahaan mengestimasikan : Peluang produk DITERIMA & DITOLAK, masing2 : ½ SETUP COST di setiap awal PRODUCTION RUN : $ 300 PRODUCTION COST : $ 100 per ITEM Berapa jumlah produk pada masing-masing PRODUCTION RUN, agar total ongkos produksi minimal ? susy susmartini operations research II,

20 susy susmartini operations research II, 2006
PENYELESAIAN : susy susmartini operations research II,

21 susy susmartini operations research II, 2006

22 susy susmartini operations research II, 2006
decision State : Value : 1 2 3 4 5 16 12 9 8 8.5 3 or 4 susy susmartini operations research II,

23 susy susmartini operations research II, 2006
1 2 3 4 8 7 7.5 2 or 3 1 2 3 4 7 7.5 6 3/4 6 7/8 7 7/16 n = 1 KESIMPULAN susy susmartini operations research II,

24 susy susmartini operations research II, 2006
CONTOH : susy susmartini operations research II,

25 susy susmartini operations research II, 2006

26 susy susmartini operations research II, 2006
1 2 3 4 >5 2/3 - 2 (or more) 1 (or more) 0(or < s3 – 5) n = 3 1 2 3 4 >5 2/3 4/9 8/9 - 1 or 2 0, 2 or 3 0(or<s2-5) n = 2 susy susmartini operations research II,

27 susy susmartini operations research II, 2006
1 2 3 2/3 20/27 susy susmartini operations research II,

28 susy susmartini operations research II, 2006
MARKOV PROCESSES DEFINISI : MARKOV PROCESS MODELS adalah suatu proses stokastik untuk memperkirakan keadaan di masa mendatang, dengan hanya mempertimbangkan keadaan tepat sebelumnya. Sehingga untuk suatu Markov Process, dengan present state yang diketahui, maka conditional probability keadaan berikutnya bersifat independen dari keadaan sekarang. Suatu stochastic process dengan suatu finite or countable state space, dikatakan mempunyai suatu Markov chain structure jika susy susmartini operations research II,

29 susy susmartini operations research II, 2006

30 susy susmartini operations research II, 2006
N x N Transition Probability Matrix P State 1 2 …….. N P = . P11 p21 pN1 p12 pN2 P1N p2N pNN susy susmartini operations research II,

31 susy susmartini operations research II, 2006
Contoh 1: Current selection Selection Next Week Pizzaria A Pizzaria B Pizzaria C 0.5 0.4 0.3 0.2 susy susmartini operations research II,

32 susy susmartini operations research II, 2006

33 susy susmartini operations research II, 2006
Selection Time After Next, n= 2 Selection Next Time, n= 1 p=0.5 Pizzaria A (0.4) (0.5) = 0.20 Pizzaria A p=0.3 Pizzaria B p=0.2 Pizzaria C p=0.4 p=0.4 Pizzaria A (0.2) (0.4) = 0.08 Current Selection, Pzzaria B ( n=0 ) p=0.2 p=0.2 Pizzaria B Pizzaria B p=0.4 Pizzaria C p=0.4 Pizzaria A (0.4) (0.3) = 0.12 p=0.3 p=0.3 Pizzaria C Pizzaria B p=0.4 Pizzaria C susy susmartini operations research II,

34 The Chapman-Kolmogorov Equations
susy susmartini operations research II,

35 susy susmartini operations research II, 2006

36 The LONG-RUN BEHAVIOR OF MARKOV PROCESSED
Markov Chain mempunyai suatu sifat tertentu, yaitu bahwa setelah melalui operasi untuk periode waktu yang cukup lama (beberapa step), maka Markov process akan mencapai suatu steady-state conditions. Suatu Markov chain mencapai steady-state conditions, maka rangkaian (chain) pasti ergodic. Suatu ergodic Markov Chain mempunyai sifat yang memungkinkan / possible, pergerakan dari suatu state menuju ke state yang lain, tanpa memperhatikan present state. susy susmartini operations research II,

37 susy susmartini operations research II, 2006
Contoh 2 : Future States 1 2 3 4 Present State 1/3 1/2 1/4 2/4 2/3 Dari State 1 dapat langsung ke semua state kecuali ke state 3. Untuk menuju ke state 3, harus dilakukan melalui state 2 terlebih dahulu, baru ke state 3 Dari State 2 dapat langsung ke semua state kecuali ke state1. Untuk menuju ke state 1,harus dilakukan melalui state 3 atau 4 terlebih dahulu, dari state 3 baru ke state 1. Atau dari state 4 ke state 3, baru ke state 1. Dst pada prinsipnya, dari suatu state dapat menuju ke state lainnya Transition Matrix tsb suatu ergodic chain susy susmartini operations research II,

38 susy susmartini operations research II, 2006
Jenis ergodic chain yang penting diketahui adalah Regular Chain Suatu Regular Chain didefinisikan sebagai chain yang mempunyai suatu transition matrix P dimana power P hanya terdiri dari positive probability values. Dengan perkataan lain : Semua Regular Chain pasti suatu ergodic chain, tetapi tidak semua ergodic chain merupakan Regular Chain. Contoh : susy susmartini operations research II,

39 susy susmartini operations research II, 2006
Contoh 3 : susy susmartini operations research II,

40 DETERMINATION OF STEADY-STATE CONDITIONS
susy susmartini operations research II,

41 susy susmartini operations research II, 2006
Contoh 4 ( Pizzaria ) : Current selection Selection Next Week Pizzaria A Pizzaria B Pizzaria C 0.5 0.4 0.3 0.2 susy susmartini operations research II,

42 susy susmartini operations research II, 2006
FIRST PASSAGE TIMES FIRST PASSAGE TIMES (Tij ) adalah waktu / jumlah transisi / proses yang diperlukan untuk melakukan transisi dari suatu state i ke state j pertama kali. Jika j=i, maka First Passage Time disebut sebagai Recurrence Time (Waktu Kambuh/Berulang), yaitu waktu / jumlah transisi yang diperlukan untuk kembali ke initial state i. Contoh 5 : Berikut ini adalah data persediaan barang dalam 8 minggu : I1 = 8 I2 = 6 I3 = 5 I4 = 7 I5 = 5 I6 = 8 I7 = 6 I8 = 2 First Passage Time dari state 8 ke state 5 adalah 2 minggu, dari dari state 8 ke state 7 adalah 3 minggu, sementara Recurrence Time dari state 8 adalah 5 minggu, dan Recurrence Time dari state 5 adalah 2 minggu susy susmartini operations research II,

43 susy susmartini operations research II, 2006
Contoh 6 (Pizzaria) : susy susmartini operations research II,

44 susy susmartini operations research II, 2006

45 susy susmartini operations research II, 2006

46 susy susmartini operations research II, 2006
Current selection Selection Next Week Pizzaria A Pizzaria B Pizzaria C 0.5 0.4 0.3 0.2 Contoh 7: (kasus Pizzaria) susy susmartini operations research II,

47 Analysis of ABSORBING MARKOV CHAINS
Suatu Markov Chain menjadi suatu Absorbing Markov Chain jika : Sedikitnya, terdapat satu Absorbing State Pergerakan state dimungkinkan dari setiap nonabsorbing state ke paling tidak satu absorbing state pada langkah / step tertentu. Contoh 8 : State 1 : Championship tournamen caliber State 2 : “Washout” – switch to another sport State 3 : Daily instruction and practice needed State 4 : Twice daily instruction and practice needed susy susmartini operations research II,

48 susy susmartini operations research II, 2006

49 Expected steps before Absorption S3 S4 2.14 + 0.36 = 2.50
Beginning State Expected steps before Absorption S3 S4 = 2.50 = 2.50 susy susmartini operations research II,

50 susy susmartini operations research II, 2006

51 APPLICATION OF MARKOV PROCESS MODELS Contoh 9:
State Condition of Printer Output 1 2 3 Excelent Acceptable, but of marginal quality Unacceptable, blurry and unreadable From State To State 1 2 3 7/8 3/4 1/8 1/4 State Expected Cost 1 2 3 $ 0 $ 1000 (cost of illegible reports) $ 5000 (cost of illegible reports, plus cost of repairing printer) susy susmartini operations research II,

52 susy susmartini operations research II, 2006
Transition matrix of maintenance policy : From state To state 1 2 3 7/8 3/4 1/8 1/4 susy susmartini operations research II,

53 susy susmartini operations research II, 2006
Artinya : Untuk waktu yang cukup lama, printer akan berada pada : State % of the time State % of the time State % of the time Sehingga : Untuk waktu yang cukup lama, diperkirakan rata-rata biaya untuk maintenance policy : susy susmartini operations research II,

54 Contoh 10 : Suatu credit card company membagi Status of Accounts Receivable menjadi 4 kategori, yaitu : Berikut ini adalah transition matrix (periode mingguan) yang berhasil dibuat oleh company berdasarkan pengamatan : Accounts Receivable Category (states) Status of Accounts Receivable 1 2 3 4 Paid in full Bad debt 0-30 days late days late To AR Category (state) 1 2 3 4 P = From AR Category (state) 0.4 0.2 0.3 0.1 Untuk membuat credit-control policies yang lebih effektif, antara lain diperlukan suatu gambaran tentang probability of absorption susy susmartini operations research II,

55 susy susmartini operations research II, 2006
Penyelesaian : susy susmartini operations research II,

56 susy susmartini operations research II, 2006


Download ppt "susy susmartini operations research II, 2006"

Presentasi serupa


Iklan oleh Google