2.1
Pengertian Rantai Markov
Model Proses Markov dikembangkan oleh seorang ahli
Rusia bernama A.A. Markov, pada
tahun 1906. Rantai Markov (Markov Chains) adalah suatu teknik matematika
yang biasa digunakan untuk melakukan pembuatan model (modelling)
bermacam – macam sistem dan proses bisnis. Teknik ini dapat digunakan untuk
memperkirakan perubahan – perubahan diwaktu yang akan datang dalam variabel –
variabel dinamis atas dasar perubahan – perubahan dari variabel – variabel
dinamis tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk
menganalisa kejadian – kejadian di waktu – waktu mendatang secara sistematis.
Penerapan Proses Markov mula – mula
adalah pada ilmu – ilmu pengetahuan fisik dan meteorologi. Teknik ini mula –
mula digunakan untuk menganalisa dan memperkirakan perilaku partikel – pertikel
gas dalam suatu wadah (container) tertutup serta meramal keadaan cuaca.
Sebagai suatu peralatan riset operasi dalam pengambilam keputusan manajerial.
Proses Markov telah banyak diterapkan untuk menganalisa tentang perpindahan
merek (brands witching) dalam pemasaran, perhitungan rekening –
rekening, jasa – jasa persewaan mobil, perencanaan penjualan, masalah – masalah
persediaan, pemeliharaan mesin, antrian, perubahan harga pasar saham, dan
administrasi rumah sakit. Semuanya ini hanya beberapa contoh aplikasi yang
banyak dijumpai sekarang.
Proses stokastik X(t) adalah aturan
untuk menentukan fungsi X(t, x) untuk setiap . Jadi proses stokastik
adalah keluarga fungsi waktu yang tergantung pada parameter ξ atau
secara ekivalen fungsi t dan ξ. X(t) adalah proses keadaan diskret bila
harga-harganya bulat. Bila tidak demikian X(t) adalah proses kontinu. Pada
tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang merupakan murid
Chebysev mengemukakan teori ketergantungan variabel acak proses acak yang
dikenal dengan proses Markov. Proses Markov adalah proses stokastik masa lalu
tidak mempunyai pengaruh pada masa yang akan datang bila masa sekarang
diketahui.
Untuk dapat menerapkan
analisa rantai Markov kedalam suatu kasus, ada beberapa syarat yang harus
dipenuhi :
1.
Jumlah
probabilitas transisi untuk suatu keadaan awal dari system sama dengan 1.
2.
Probabilitas-probabilitas
tersebut berlaku untuk semua partisipan dalam system.
3.
Probabilitas
transisi konstan sepanjang waktu.
4.
Kondisi
merupakan kondisi yang independent sepanjang waktu.
Dalam realita, penerapan analisa Markov bias
dibilang cukup terbatas karena sulit menemukan masalah yang memenuhi semua
sifat yang diperlukan untuk analisa Markov, terutama persyaratan bahwa
probabilitas transisi harus konstan sepanjang waktu ( probabilitas transisi
adalah probabilitas yang terjadi dalam pergerakan perpindahan kondisi dalam
system ).
Penerapan Proses Markov mula – mula adalah pada ilmu –
ilmu pengetahuan fisik dan meteorologi. Teknik ini mula – mula digunakan untuk
menganalisa dan memperkirakan perilaku partikel – pertikel gas dalam suatu
wadah (container) tertutup serta meramal keadaan cuaca. Sebagai suatu
peralatan riset operasi dalam pengambilam keputusan manajerial. Proses Markov
telah banyak diterapkan untuk menganalisa tentang perpindahan merek (brands
witching) dalam pemasaran, perhitungan rekening – rekening, jasa – jasa
persewaan mobil, perencanaan penjualan, masalah – masalah persediaan,
pemeliharaan mesin, antrian, perubahan harga pasar saham, dan administrasi
rumah sakit. Semuanya ini hanya beberapa contoh aplikasi yang banyak dijumpai
sekarang.Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, x)
untuk setiap . Jadi proses stokastik adalah keluarga fungsi waktu yang
tergantung pada parameter ξ atau secara ekivalen fungsi t dan ξ.
X(t) adalah proses keadaan diskret bila harga-harganya bulat. Bila tidak
demikian X(t) adalah proses kontinu. Pada tahun 1906, A.A. Markov seorang ahli
matematika dari Rusia yang merupakan murid Chebysev mengemukakan teori
ketergantungan variabel acak proses acak yang dikenal dengan proses Markov.
2.2
Dasar Teori
·
Model Rantai Markov
Ada beberapa prosedur dalam model rantai markov,
antara lain :
1.
Menyusun Matriks Probabilitas Transisi.
Untuk menggambarkan proses markov, akan disajikan suatu contoh masalah tentang kegiatan
– kegiatan pemilihan merek dan peramalan probabilitas transisi yang kemungkinan
dilakukan para konsumen, yaitu pergantian dari satu merek ke merek lain
DOWNLOAD FULL PAGE
No comments:
Post a Comment