RISET OPERASI Rantai MARKOV Rantai MARKOV Analisis MARKOV

  • Slides: 12
Download presentation
RISET OPERASI Rantai MARKOV

RISET OPERASI Rantai MARKOV

Rantai MARKOV Analisis MARKOV menghasilkan suatu informasi probabilistik tentang satu kejadian mendatang (dengan mengetahui

Rantai MARKOV Analisis MARKOV menghasilkan suatu informasi probabilistik tentang satu kejadian mendatang (dengan mengetahui kondisi dasarnya) yang dapat digunakan untuk membantu pembuatan keputusan. Analisis Markov bukan teknik Optimasi tetapi suatu teknik deskriptif, yang terbentuk dari model probabilistik yang lebih dikenal dengan Stochastic Process. Sifat Khusus Rantai Markov yaitu probabilitas

SIFAT RANTAI MARKOV Suatu kondisi adalah rantai Markov jika mempunyai sifat markovian, yaitu merupakan

SIFAT RANTAI MARKOV Suatu kondisi adalah rantai Markov jika mempunyai sifat markovian, yaitu merupakan probabilitas bersyarat dari kejadian mendatang, dengan kejadian masa lampau dan state saat ini Xt = i, adalah independen terhadap kejadian di waktu lalu dan hanya tergantung dengan state saat ini. Probabilitas bersyarat P{Xt+1=j | Xt = i} untuk rantai markov disebut probabilitas transisi (satu langkah, jika untuk setiap i dan j, adalah P{Xt+1=j | Xt = i} = P{X 1=j | X 0 = i} untuk semua t = 1, 2, … Probabilitas transisi n-langkah yang probabilitas transisi stationer, adalah P{Xt+1=j | Xt = i} Pnij{Xt+n=j | Xt = i} juga disebut

MATRIKS RANTAI MARKOV (n) Oleh Karena P ij adalah probabilitas bersyarat, probabilitas tersebut harus

MATRIKS RANTAI MARKOV (n) Oleh Karena P ij adalah probabilitas bersyarat, probabilitas tersebut harus nonnegatif, dan oleh karena prosesnya harus membuat perubahan ke state lain maka probabilitas tersebut harus memenuhi sifat (n) P ij untuk semua i dan j; n = 1, 2, … Dan

MATRIKS RANTAI MARKOV Cara Mudah untuk menunjukkan semua probabilitas transisi n - langkah adalah

MATRIKS RANTAI MARKOV Cara Mudah untuk menunjukkan semua probabilitas transisi n - langkah adalah dalam bentuk matriks. State (n) P = 0 1 … 0 P(n)0 1 M 1 00 (n) P P(n)1 10 1 M State M (n) P = 0 1 … M 0 P(n)0 1 M 1 00 (n) P P(n)1 10 1 M Ketika n = 1, kita hilangkan superscript n disebut. . matriks transisi. (n) (n) (n) P P P M M (n) M 0 M 1 M M 0 M 1 Untuk Mencari Pij M, digunakan persamaan yang diturunkan dari persamaan Chapman-Kolgomorov, yaitu:

1. Cuaca pada kota Bandar Lampung bisa berubah dengan cukup cepat dari hari ke

1. Cuaca pada kota Bandar Lampung bisa berubah dengan cukup cepat dari hari ke hari. Namun, peluang besok cerah (tidak hujan) bisa lebih besar apa bila hari ini hujan. Secara khusus, probabilitas besok cerah adalah 0, 8 jika hari ini cerah dan hanya 0. 6 jika hari ini hujan. Probabilitas tidak berubah jika informasi mengenai cuaca kemarin juga diperhitungkan. Berapa Probabilitas hari ke dua hujan jika hari sebelumnya cerah. jawab. P 00 = P{Xt+1=Cerah | Xt = Cerah} = 0. 8 P 10 = P{Xt+1=Cerah | Xt = Hujan} = 0. 6 Dalam bentuk matrik adalah: CONTOH RANTAI MARKOV State P= 0 1 0 P 0 1 1 P 10 P 11 = P= State 0 1 0 0. 8 0. 2 1 0. 6 0. 4

CONTOH RANTAI MARKOV Probabilitas hari ke dua hujan jika hari sebelumnya cerah adalah P

CONTOH RANTAI MARKOV Probabilitas hari ke dua hujan jika hari sebelumnya cerah adalah P 201 yaitu 0. 24 Matriks transisi n-Langkah untuk kasus cuaca adalah:

CONTOH RANTAI MARKOV Blue Bird adalah perusahaan TAXI. Di dalam 2. PT mengoperasikan TAXI

CONTOH RANTAI MARKOV Blue Bird adalah perusahaan TAXI. Di dalam 2. PT mengoperasikan TAXI nya selaluterdapat dua keadaan yaitu Narik atau Mogok. Probabilitas besok Mobil Narik sebesar 0. 6 jika pada hari ini mobil narik dan hanya 0. 8 jika hari ini Mogok. Berapa Jumlah kendaraan yang dapat narik per hari jika tersedia 100 kendaraan. jawab. P 00 = P{Xt+1=Narik| Xt = Narik} = PNN= 0. 6 P 10 = P{Xt+1=Narik | Xt = Mogok} = PNM =0. 8 Dalam bentuk matrik adalah: State (Sekaran g) P= State (Besok) Narik Mogok Narik PNN=0. 6 PMN=0. 4 Mogok PNM=0. 8 PMM=0. 2

CONTOH RANTAI MARKOV Untuk mencari berapa banyak mobil yang bisa narik dari 100 mobil

CONTOH RANTAI MARKOV Untuk mencari berapa banyak mobil yang bisa narik dari 100 mobil yang ada, perlu dicari matriks probabilitas steady state, yaitu keadaan dimana probabilitas berikutnya tidak terjadi perubahan. Untuk kasus diatas keadaan steady state terjadi pada periode ke 7. sehingga dapat disimpulkan : Probabilitas Narik sebesar 0. 6667 dan probabilitas Mogok

CONTOH RANTAI MARKOV 3. Pada sebuah kota terdapat tiga buah restoran bebek goreng, yaitu

CONTOH RANTAI MARKOV 3. Pada sebuah kota terdapat tiga buah restoran bebek goreng, yaitu Berek, Harti, dan Donald. Dengan jumlah pelanggan 7000. dari laporan pasar pada bulan pertama dan kedua adalah: Restoran Barek Harti Donald Jumlah Pelanggan B Pertama B Kedua 2000 2100 4000 3300 1000 1600 7000 satu restoran 7000 dari Pegerakan yang lain secara detail : Bulan Perta Barek Harti Donald Jumlah Bulan Kedua Berek Harti Donald 1600 200 400 2800 100 300 600 2100 3300 1600 ke restoran Jumlah 2000 4000 1000 7000

CONTOH RANTAI MARKOV Jika diasumsikan pergeseran pelanggan stabil, probabilitas transisinya adalah: Bulan Kedua Bulan

CONTOH RANTAI MARKOV Jika diasumsikan pergeseran pelanggan stabil, probabilitas transisinya adalah: Bulan Kedua Bulan Perta Berek Harti Donald Barek 0. 8 0. 1 Harti 0. 1 0. 7 0. 3 Donald 0. 1 0. 3 0. 6 Jumlah pelanggan yang makan di Berek adalah 300* Jumlah P 210+2100 pelanggan * P 200= 1600 = 0. 66 * 2100 + 0. 17 * 3300 + 0. 17 * 1600 = 2219 Pelanggan

PROBABILITAS STEADY STATE Untuk mencari Probabilitas Steady State yang lebih efisien adalah dengan asumsi

PROBABILITAS STEADY STATE Untuk mencari Probabilitas Steady State yang lebih efisien adalah dengan asumsi jika kondisi steady state tercapai, maka probabilitas status periode I akan sama dengan probabilitas status periode berikutnya (t+1). Untuk mencari probabilitas status periode ke t+1, digunakan persamaan: