Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Susy susmartini operations research II, 2006 OPERATION RESEARCH II 3 SKS MATERI KULIAH 1.

Presentasi serupa


Presentasi berjudul: "Susy susmartini operations research II, 2006 OPERATION RESEARCH II 3 SKS MATERI KULIAH 1."— Transcript presentasi:

1 susy susmartini operations research II, 2006 OPERATION RESEARCH II 3 SKS MATERI KULIAH 1

2 susy susmartini operations research II, 2006 DYNAMIC PROGRAMMING KARAKTERISTIK DP: PROBLEM DAPAT DIBAGI DALAM STAGE, DENGAN SUATU POLICY DECISION, SETIAP STAGE TERDIRI DARI SATU ATAU LEBIH STATE (POSSIBLE CONDITIONS) PENGARUH POLICY DECISION PADA SETIAP STAGE MENGUBAH CURRENT STATE KE DALAM SUATU STATE YANG BERHUBUNGAN DENGAN NEXT STAGE SOLUTION PROBLEM DIDISAIN UNTUK MENDAPATKAN OPTIMAL POLICY BAGI PROBLEM SECARA KESELURUHAN OPTIMAL POLICY PADA SUATU STAGE BERSIFAT INDEPENDENT DARI POLICY PADA STAGE SEBELUMNYA SOLUTION PROCEDURE DIMULAI DENGAN MENENTUKAN OPTIMAL POLICY PADA LAST STAGE RECURSIVE RELATIONSHIP :

3 susy susmartini operations research II, 2006

4 JENIS DYNAMIC PROGRAMMING DETERMINISTIC DYNAMIC PROGRAMMING PROBABILISTIC DYNAMIC PROGRAMMING Stage n State : Stage n+1 State : decision 1 2 s probability Contribution from stage n

5 susy susmartini operations research II, 2006 DETERMINISTIC DYNAMIC PROGRAMMING Contoh soal 1: No. of Medical Teams Thousands of Additional Person-Years of Life Country

6 susy susmartini operations research II, 2006 Penyelesaian :

7 susy susmartini operations research II, n = 3

8 susy susmartini operations research II, or n = 2

9 susy susmartini operations research II, n = 1 Optimal Solution :

10 susy susmartini operations research II, 2006 DETERMINISTIC DYNAMIC PROGRAMMING CONTOH SOAL 2 : THE MINIMUM EMPLOYMENT REQUIREMENT SEASONSPRINGSUMMERAUTUMNWINTERSPRING REQUIREMENT BIAYA KELEBIHAN TENAGA KERJA $ 2,000 / ORG / MUSIM BIAYA PERUBAHAN JUMLAH TENAGA KERJA $ 200 / (PERBEDAAN JUMLAH TK) 2

11 susy susmartini operations research II, 2006 PENYELESAIAN : STAGE 1 : SUMMER STAGE 2 : AUTUMN STAGE 3 : WINTER STAGE 4 : SPRING State : Stage n Stage n+1 Value :

12 susy susmartini operations research II, 2006 FeasiblePossibleCost

13 susy susmartini operations research II, 2006 Solution procedure Stage 4 : n = Stage 3 : n = 3

14 susy susmartini operations research II, 2006

15 Stage 2 : n = 2

16 susy susmartini operations research II, 2006

17 Stage 1 : n = 1

18 susy susmartini operations research II, ,

19 susy susmartini operations research II, 2006 PROBABILISTIC DYNAMIC PROGRAMMING CONTOH : Sebuah perusahaan menerima order dgn ketentuan sbb : Keputusan produk diterima/ditolak di tangan CUSTOMER CUSTOMER hanya membutuhkan SATU PRODUK SAJA Perusahaan mempunyai kesempatan hanya 3 KALI PRODUCTION RUN Jika pada akhir production run yg KE 3 BELUM ADA produk yg dapat diterima oleh customer, perusahaan akan mendapatkan PENALTY COST sebesar $ 1,600 Perusahaan mengestimasikan : Peluang produk DITERIMA & DITOLAK, masing 2 : ½ SETUP COST di setiap awal PRODUCTION RUN : $ 300 PRODUCTION COST : $ 100 per ITEM Berapa jumlah produk pada masing-masing PRODUCTION RUN, agar total ongkos produksi minimal ?

20 susy susmartini operations research II, 2006 PENYELESAIAN :

21 susy susmartini operations research II, 2006

22 State : decision Value : or 4

23 susy susmartini operations research II, or 3 n = 2 n = /4 6 7/8 7 7/16 6 3/4 2 KESIMPULAN

24 susy susmartini operations research II, 2006 CONTOH :

25 susy susmartini operations research II, 2006

26 01234>501234>5 0 2/ (or more) 1 (or more) 0(or < s 3 – 5) n = 3 n = >5 0 2/ /9 8/9 4/9 2/3 0 4/9 2/3 8/ or 2 0, 2 or 3 1 0(or

27 susy susmartini operations research II, /320/27 2/3 20/27 1 n = 1

28 susy susmartini operations research II, 2006 MARKOV PROCESSES DEFINISI : MARKOV PROCESS MODELS adalah suatu proses stokastik untuk memperkirakan keadaan di masa mendatang, dengan hanya mempertimbangkan keadaan tepat sebelumnya. Sehingga untuk suatu Markov Process, dengan present state yang diketahui, maka conditional probability keadaan berikutnya bersifat independen dari keadaan sekarang. Suatu stochastic process dengan suatu finite or countable state space, dikatakan mempunyai suatu Markov chain structure jika

29 susy susmartini operations research II, 2006

30 State12……..N P = 12...N12...N P 11 p 21. p N1 p 12 p 21. p N2 P 1N p 2N. p NN N x N Transition Probability Matrix P

31 susy susmartini operations research II, 2006 Contoh 1: Current selection Selection Next Week Pizzaria APizzaria BPizzaria C Pizzaria A Pizzaria B Pizzaria C

32 susy susmartini operations research II, 2006

33 Current Selection, Pzzaria B ( n=0 ) Pizzaria A Pizzaria B Pizzaria C Pizzaria B Pizzaria A (0.4) (0.5) = 0.20 Pizzaria C Pizzaria B Pizzaria A (0.4) (0.3) = 0.12 Pizzaria C Pizzaria B Pizzaria A (0.2) (0.4) = 0.08 p=0.3 p=0.2 p=0.4 p=0.5 p=0.4 p=0.3 p=0.4 p=0.3 p=0.2 p=0.4 Selection Next Time, n= 1 Selection Time After Next, n= 2

34 susy susmartini operations research II, 2006 The Chapman-Kolmogorov Equations

35 susy susmartini operations research II, 2006

36 The LONG-RUN BEHAVIOR OF MARKOV PROCESSED Markov Chain mempunyai suatu sifat tertentu, yaitu bahwa setelah melalui operasi untuk periode waktu yang cukup lama (beberapa step), maka Markov process akan mencapai suatu steady-state conditions. Suatu Markov chain mencapai steady-state conditions, maka rangkaian (chain) pasti ergodic. Suatu ergodic Markov Chain mempunyai sifat yang memungkinkan / possible, pergerakan dari suatu state menuju ke state yang lain, tanpa memperhatikan present state.

37 susy susmartini operations research II, 2006 Contoh 2 : Future States 1234 Present State 11/ /21/4 3 02/41/4 4001/32/3 Dari State 1dapat langsung ke semua state kecuali ke state 3. Untuk menuju ke state 3, harus dilakukan melalui state 2 terlebih dahulu, baru ke state 3 Dari State 2dapat langsung ke semua state kecuali ke state1. Untuk menuju ke state 1,harus dilakukan melalui state 3 atau 4 terlebih dahulu, dari state 3 baru ke state 1. Atau dari state 4 ke state 3, baru ke state 1. Dstpada prinsipnya, dari suatu state dapat menuju ke state lainnya Transition Matrix tsb suatu ergodic chain

38 susy susmartini operations research II, 2006 Jenis ergodic chain yang penting diketahui adalah Regular Chain Suatu Regular Chain didefinisikan sebagai chain yang mempunyai suatu transition matrix P dimana power P hanya terdiri dari positive probability values. Dengan perkataan lain : Semua Regular Chain pasti suatu ergodic chain, tetapi tidak semua ergodic chain merupakan Regular Chain. Contoh :

39 susy susmartini operations research II, 2006 Contoh 3 :

40 susy susmartini operations research II, 2006 DETERMINATION OF STEADY-STATE CONDITIONS

41 susy susmartini operations research II, 2006 Contoh 4 ( Pizzaria ) : Current selection Selection Next Week Pizzaria APizzaria BPizzaria C Pizzaria A Pizzaria B Pizzaria C

42 susy susmartini operations research II, 2006 FIRST PASSAGE TIMES FIRST PASSAGE TIMES (T ij ) adalah waktu / jumlah transisi / proses yang diperlukan untuk melakukan transisi dari suatu state i k e state j pertama kali. Jika j=i, maka First Passage Time disebut sebagai Recurrence Time (Waktu Kambuh/Berulang), yaitu waktu / jumlah transisi yang diperlukan untuk kembali ke initial state i. Contoh 5 : Berikut ini adalah data persediaan barang dalam 8 minggu : I 1 = 8 I 2 = 6 I 3 = 5 I 4 = 7 I 5 = 5 I 6 = 8 I 7 = 6 I 8 = 2 First Passage Time dari state 8 ke state 5 adalah 2 minggu, dari dari state 8 ke state 7 adalah 3 minggu, sementara Recurrence Time dari state 8 adalah 5 minggu, dan Recurrence Time dari state 5 adalah 2 minggu

43 susy susmartini operations research II, 2006 Contoh 6 (Pizzaria) :

44 susy susmartini operations research II, 2006

45

46 Contoh 7: (kasus Pizzaria) Current selection Selection Next Week Pizzaria APizzaria BPizzaria C Pizzaria A Pizzaria B Pizzaria C

47 susy susmartini operations research II, 2006 Analysis of ABSORBING MARKOV CHAINS Suatu Markov Chain menjadi suatu Absorbing Markov Chain jika : Sedikitnya, terdapat satu Absorbing State Pergerakan state dimungkinkan dari setiap nonabsorbing state ke paling tidak satu absorbing state pada langkah / step tertentu. Contoh 8 : State 1: Championship tournamen caliber State 2: “Washout” – switch to another sport State 3: Daily instruction and practice needed State 4 : Twice daily instruction and practice needed

48 susy susmartini operations research II, 2006

49 Beginning StateExpected steps before Absorption S3S4S3S = = 2.50

50 susy susmartini operations research II, 2006

51 APPLICATION OF MARKOV PROCESS MODELS Contoh 9: StateCondition of Printer Output Excelent Acceptable, but of marginal quality Unacceptable, blurry and unreadable From State To State /8 3/4 0 1/8 1/4 1 StateExpected Cost $ 0 $ 1000 (cost of illegible reports) $ 5000 (cost of illegible reports, plus cost of repairing printer)

52 susy susmartini operations research II, 2006 Transition matrix of maintenance policy : From state To state /8 3/4 0 1/8 1/4 0

53 susy susmartini operations research II, 2006 Artinya : Untuk waktu yang cukup lama, printer akan berada pada : State % of the time State % of the time State % of the time Sehingga : Untuk waktu yang cukup lama, diperkirakan rata-rata biaya untuk maintenance policy :

54 susy susmartini operations research II, 2006 Contoh 10 : Suatu credit card company membagi Status of Accounts Receivable menjadi 4 kategori, yaitu : Berikut ini adalah transition matrix (periode mingguan) yang berhasil dibuat oleh company berdasarkan pengamatan : Accounts Receivable Category (states) Status of Accounts Receivable Paid in full Bad debt 0-30 days late days late To AR Category (state) 1234 P = From AR Category (state) Untuk membuat credit- control policies yang lebih effektif, antara lain diperlukan suatu gambaran tentang probability of absorption

55 susy susmartini operations research II, 2006 Penyelesaian :

56 susy susmartini operations research II, 2006


Download ppt "Susy susmartini operations research II, 2006 OPERATION RESEARCH II 3 SKS MATERI KULIAH 1."

Presentasi serupa


Iklan oleh Google