Proses Stokastik.

Slides:



Advertisements
Presentasi serupa
Simulasi Rantai Markov
Advertisements

Proses Stokastik Semester Ganjil 2013/2014
Metode Statistika (STK211)
Matriks 2 1. Menentukan invers suatu matriks brordo 2x2
Hasil Kali Langsung.
Teknik Elektro STTA Yenni Astuti, S.T., M.Eng.
Fungsi Konveks dan Konkaf
DERET Deret tak hingga adalah pernyataan penjumlahan bilangan/variabel yang tak hingga banyaknya berbentuk : a1 + a2 + a an Dengan.
Delay System II. Tutun Juhana – ET3042 ITB 2 Sistem Antrian M/M/m Kedatangan panggilan : Poisson arrival Service time : exponentially distributed Jumlah.
Sistem Delay (Sistem Antrian/Delay System)
Proses Stokastik Semester Ganjil 2011.
Induksi Matematis Mohammad Fal Sadikin.
Penyelesaian Persamaan Linier Simultan
BAB VII KOMBINATORIAL & PELUANG DISKRIT.
Proses Stokastik Semester Ganjil 2013 DR. Rahma Fitriani, S.Si., M.Sc.
DETERMINAN 2.1. Definisi   DETERMINAN adalah suatu bilangan ril yang diperoleh dari suatu proses dengan aturan tertentu terhadap matriks bujur sangkar.
Proses Poisson Hasih Pratiwi.
BAB II FINITE STATE AUTOMATA.
MODEL LINIER Lia Yuliana, S.Si., MT. Tahun Akademik 2011/2012.
BAB I MATRIKS.
PEUBAH ACAK DAN DISTRIBUSI PROBABILITAS
BAB II FINITE STATE AUTOMATA.
BAB III DETERMINAN.
7. RANTAI MARKOV WAKTU KONTINU (Kelahiran&Kematian Murni)
Proses Stokastik Semester Ganjil 2013 DR. Rahma Fitriani, S.Si., M.Sc.
Proses Stokastik Semester Ganjil 2013/2014
BAB I SISTEM PERSAMAAN LINIER
Dosen Pembimbing Gisoesilo Abudi
BAB II FINITE STATE AUTOMATA.
BAB II FINITE STATE AUTOMATA.
1. 7 Faktorisasi Persamaan Kuadrat, ax2 + bx + c dengan a 1
BAB VIII RUANG HASILKALI DALAM (lanjutan).
Analisa Markov Riset Operasi.
Definisi Induksi matematika adalah :
Penyelidikan Operasi Pemrograman Dinamik Stokastik.
5. RANTAI MARKOV WAKTU DISKRIT
Penyelesaian Persamaan Linier Simultan
Teori-Bahasa-dan-Otomata
Induksi Matematika Nelly Indriani Widiastuti Teknik Informatika UNIKOM.
RANTAI MARKOV Tita Talitha, M.T.
Metode Statistika (STK211)
MARKOV CHAIN (LONG-RUN PROPERTIES OF MARKOV CHAINS)
Metode simpleks yang diperbaiki menggunakan
ATURAN PRODUKSI TATA BAHASA REGULER
6. RANTAI MARKOV WAKTU DISKRIT KLASIFIKASI RUANG KEADAAN
Proses Kedatangan dan Distribusi Waktu Pelayanan
RANTAI MARKOV PENGANTAR TEORI GAME.
BAB II FINITE STATE AUTOMATA.
Proses Stokastik Semester Ganjil 2013.
Model black-scholes untuk menentukan nilai opsi beli tipe eropa
Metode Statistika (STK211)
MODEL RANTAI MARKOV Pertemuan 11
Matematika Diskrit.
Tutun Juhana – Lab. Telematika – EE Dept. ITB
BARISAN DAN DERET ARITMETIKA
KULIAH TEORI SISTEM DISKRIT MINGGU 5 Dosen Pengampu: Dr. Salmah, M.Si
Loss System.
Stochastic Modeling Rian F. Umbara, M.Si
MARI BELAJAR MATEMATIKA BERSAMA
Analisa Markov Riset Operasi.
Prodi Ilmu Komputasi IT Telkom
(REVISED SIMPLEKS).
Rosanita Nisviasari  Menyusun koefisien-koefisien binomial kedalam bentuk segitiga.
Metode Statistika (STK211)
Riset Operasi Analisis Markov Ramos Somya.
BARISAN DAN DERET ARITMETIKA
Peta Konsep. Peta Konsep B. Deret Geometri Tak Hingga.
Peta Konsep. Peta Konsep A. Deret Geometri Tak Hingga.
OPERATIONS RESEARCH – I
OPERATIONS RESEARCH – I
Transcript presentasi:

Proses Stokastik

Definisi proses stokastik : adalah suatu keluarga peubah acak Xt atau X(t), di mana t  T dengan T = {1, 2, 3, …} untuk t diskret dan T = {0,} untuk t kontinu. Contoh Pada percobaan pelemparan mata uang berkali – kali X1 adalah peubah acak yang berhubungan dengan pelemparan pertama X2 adalah peubah acak yang berhubungan dengan pelemparan kedua ⋮ Xn adalah peubah acak yang berhubungan dengan pelemparan ke-n X1 sampai Xn ini disebut keluarga peubah acak yang dapat juga disebut proses stokastik.

Contoh Perhatikan banyaknya kelahiran di suatu tempat pada suatu hari. Bila Xt adalah banyaknya kelahiran pada (0,t) dengan t  [0,1440], maka kumpulan dari Xt adalah proses stokastik.

RANTAI MARKOV Definisi Proses Markov adalah proses stokastik yang mempunyai sifat bahwa jika nilai Xt telah diketahui, maka Xs di mana s > t tidak dipengaruhi oleh Xu di mana u < t. Definisi tersebut memiliki arti bahwa fenomena masa datang hanya dipengaruhi oleh fenomena masa sekarang dan tidak dipengaruhi oleh masa lalu. Rantai Markov dengan waktu diskret (Diskret Time Markov Chain) adalah suatu proses markov dengan waktu diskret dan Xt memiliki nilai diskret.

Secara matematis Proses Markov dapat dinyatakan sebagai berikut: P(Xn+1=j| X1 = i1, X2=i2, …, Xn=in) = P(Xn+1 =j|Xn = in) Xn = j artinya rantai markov pada waktu n berada pada state j. Peluang Xn+1 berada pada state j jika Xn berada pada state i dilambangkan dengan

Peluang ini juga dinamakan peluang transisi satu langkah (one-step transition probability) dan secara matematis dapat dinyatakan sebagai berikut P(Xn+1=j|Xn=i). Bila peluang transisi satu langkah bebas terhadap peubah waktu n, maka rantai markov mempunyai peluang transisi yang stasioner atau = Pij

Secara umum, peluang transisi diatur dalam suatu matriks yang dinamakan matriks peluang transisi. Baris ke – i+1 dari P adalah sebaran peluang dari nilai Xn+1 dibawah kondisi Xn= i. Jika banyaknya state terhingga maka P adalah matriks kuadrat terhingga

Nilai Pij memenuhi kondisi Pij  0 untuk semua i dan j dan untuk i = 0, 1, 2, …

Jika matriks peluang transisi P dan sebaran peluang X0 diketahui, maka perilaku dari rantai markov dapat diketahui. Pernyataan ini akan ditunjukkan dalam penjelasan berikut: Misalkan diketahui matriks peluang transisi dan P(X0=i) = pi, maka kita dapat mencari P(X0=i0, X1=i1, X2 = i2, …, Xn=in) Berdasar definisi peluang bersyarat kita dapatkan P(X0=i0, X1=i1, X2 = i2, …, Xn=in) =P(Xn=in| X0=i0, X1=i1, X2 = i2, …, Xn-1=in-1)  P(X0=i0, X1=i1, X2 = i2, …, Xn-1=in-1)

Berdasar definisi rantai markov kita dapatkan P(X0=i0, X1=i1, X2 = i2, …, Xn=in) = P(Xn=in| Xn-1=in-1)  P(X0=i0, X1=i1, X2 = i2, …, Xn-1=in-1) = P(X0=i0, X1=i1, X2 = i2, …, Xn-1=in-1) Melalui induksi akan kita dapatkan P(X0=i0, X1=i1, X2 = i2, …, Xn=in) =

Matriks Peluang Transisi Rantai Markov Analisis dari rantai markov berpusat pada perhitungan peluang kemungkinan realisasi proses yang mungkin. Perhitungan ini berpusat pada matriks peluang transisi n langkah P(n) = . melambangkan peluang proses pindah dari state i ke state j dalam n langkah. Secara formal dapat dinyatakan sebagai =P(Xm+n=j|Xm=i).

Sifat Markov memungkinkan kita menyatakan dalam theorema berikut Theorema Peluang transisi n langkah dari rantai markov memenuhi Di mana Dari teori matriks, maka persamaan dalam teorema ini adalah rumus untuk perkalian matriks, sehingga P(n) = PP(n-1). Dengan mengiterasikan rumus ini kita dapatkan Dengan kata lain, peluang transisi n langkah adalah isi matriks Pn.

THE LONG RUN BEHAVIOR OF MARKOV CHAIN Matriks Peluang Transisi Reguler Misalkan P (matriks peluang transisi) mempunyai sifat jika dipangkatkan k, Pk mempunyai elemen yang semuanya positif, maka P dikatakan reguler Rantai Markov yang reguler memiliki limiting probability distribution  = (0, 1, …, N); di mana j>0 dan =1 dan sebaran ini bebas dari state awal

Untuk matriks peluang transisi yang regular , j = 0, 1, …, N Contoh Rantai Markov regular dengan matriks peluang transisi Mempunyai limiting probability distribution 0 1

Contoh numerik dapat ditunjukkan, misalkan rantai markov memiliki matriks peluang transisi Beberapa pangkat pertama dari P adalah Limiting distribution-nya adalah b/(a+b) = 0.5282 dan a/(a+b) = 0.4718.

Untuk semua matriks peluang transisi dengan state 0, 1, 2, …,N yang memenuhi dua kondisi berikut adalah regular Untuk setiap pasang state i,j, terdapat path (jalur) k1, k2, …, kr di mana Pik1Pk1k2 ... Pkrj>0 Terdapat minimal satu state di mana Pii>0

Theorema Misalkan P adalah matriks peluang transisi suatu rantai markov regular dengan state 0, 1, 2, …, N, maka limiting probability distribution =(0, 1, 2, …,N) adalah solusi unik dari sistem persamaan berikut  = P dan

Contoh Bila diketahui rantai markov dengan matriks peluang transisi 0 1 2 Carilah limiting probability distributionnya!

Jawab =P Sehingga kita memiliki persamaan, yaitu Solusi dari sistem persamaan di samping adalah 0 = 0.077, 1 = 0.625, 2 = 0.298

Sehingga limiting probability distribution-nya adalah 0 1 2