Rantai Markov (Markov chain) dapat didefinisikan sebagai suatu teknik matematika yang biasa digunakan untuk melakukan pembuatan model (modeling) bermacam-macam sistem dan proses bisnis. Rantai markov merupakan penerapan baru program dinamis terhadap pemecahan masalah suatu proses stochastic yang dapat dijelaskan oleh sejumlah state yang terbatas. Teknik ini dapat digunakan untuk memperkirakan perubahan-perubahan yang akan terjadi diwaktu yang akan datang dalam variable-variabel dinamis atau dasar perubahan-perubahan dari variabel-variabel dinamis tersebut dimasa lalu. Sebagai suatu alat dalam riset operasi dalam mengambil keputusan manajerial. Rantai Markov telah banyak digukan untuk menganalisa tentang perpindahan merk (Brand Swtitchin) dalam pemasaran, perhitungan rekening jasa persewaan rencana penjualan, masalah persediaan, pemasaraan (replacement) pengelolaan aliran uang (casg flow management) pengaturan kapasitas penumpang air dan sebagainya.
            Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit ( dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state pada time discrete. Ada beberapa macam v [ edit ] Variationsariasi dari bentuk rantai markov
1.       Continuous-time Markov processes have a continuous index.Continuous Markov memiliki indeks kontinu.
2.       Time-homogeneous Markov chains (or stationary Markov chains ) are processes whereSisa rantai Markov homogen (rantai Markov stasioner) adalah proses di mana
for all n               untuk semua n. The probability of the transition is independent of n. Probabilitas transisi tidak tergantung dari n.
3.       A Markov chain of order m (or a Markov chain with memory m ) where m is finite, is a process satisfyiSebuah rantai Markov orde m di mana m adalah terbatas,
Dengan kata lain, keadaan selanjutnya tergantung pada keadaan m selanjutnya. It is possible to construct a chain ( Y n ) from ( X n ) which has the ‘classical’ Markov property as follows: Let Y n = ( X n , X n −1 , …, X nm +1 ), the ordered m -tuple of X values. Sebuah rantai (Y n) dari (X n) yang memiliki ‘klasik’ Markov properti sebagai berikut: Biarkan Y n = (X n, X n -1, …, X n – m 1 ), yang memerintahkan m-tupel dari nilai-nilai X. Then Y n is a Markov chain with state space S m and has the classical Markov property . Maka Y n adalah sebuah rantai Markov dengan ruang keadaan S m dan memiliki klasik properti Markov.
4.       An additive Markov chain of order m where m is finite, is Sebuah aditif rantai Markov order m di mana m adalah terbatas adalah [ clarification needed ]
for all n>m untuk semua n> m.
            We describe a Markov chain as follows: We have a set of states The process starts in one of these states and moves successively from one state to another. Each move is called a step. If the chain is currently in state si, then it moves to state sj at the next step with a probability denoted by pij , and this probability does not depend upon which states the chain was in before the current state. The probabilities pij are called transition probabilities. The process can remain in the state it is in, and this occurs with probability pii. An initial probability distribution, de¯ned on S, speci¯es the starting state. Usually this is done by specifying a particular state as the starting state. R. A. Howard1 provides us with a picturesque description of a Markov chain as a frog jumping on a set of lily pads. The frog starts on one of the pads and then jumps from lily pad to lily pad with the appropriate transition probabilities.Rantai Markov (Markov chain) dapat didefinisikan sebagai suatu teknik matematika yang biasa digunakan untuk melakukan pembuatan model (modeling) bermacam-macam sistem dan proses bisnis. Rantai markov merupakan penerapan baru program dinamis terhadap pemecahan masalah suatu proses stochastic yang dapat dijelaskan oleh sejumlah state yang terbatas. Teknik ini dapat digunakan untuk memperkirakan perubahan-perubahan yang akan terjadi diwaktu yang akan datang dalam variable-variabel dinamis atau dasar perubahan-perubahan dari variabel-variabel dinamis tersebut dimasa lalu. Sebagai suatu alat dalam riset operasi dalam mengambil keputusan manajerial. Rantai Markov telah banyak digukan untuk menganalisa tentang perpindahan merk (Brand Swtitchin) dalam pemasaran, perhitungan rekening jasa persewaan rencana penjualan, masalah persediaan, pemasaraan (replacement) pengelolaan aliran uang (casg flow management) pengaturan kapasitas penumpang air dan sebagainya.
            Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit ( dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state pada time discrete. Ada beberapa macam v [ edit ] Variationsariasi dari bentuk rantai markov
1.       Continuous-time Markov processes have a continuous index.Continuous Markov memiliki indeks kontinu.
2.       Time-homogeneous Markov chains (or stationary Markov chains ) are processes whereSisa rantai Markov homogen (rantai Markov stasioner) adalah proses di mana
for all n               untuk semua n. The probability of the transition is independent of n. Probabilitas transisi tidak tergantung dari n.
3.       A Markov chain of order m (or a Markov chain with memory m ) where m is finite, is a process satisfyiSebuah rantai Markov orde m di mana m adalah terbatas,
Dengan kata lain, keadaan selanjutnya tergantung pada keadaan m selanjutnya. It is possible to construct a chain ( Y n ) from ( X n ) which has the ‘classical’ Markov property as follows: Let Y n = ( X n , X n −1 , …, X nm +1 ), the ordered m -tuple of X values. Sebuah rantai (Y n) dari (X n) yang memiliki ‘klasik’ Markov properti sebagai berikut: Biarkan Y n = (X n, X n -1, …, X n – m 1 ), yang memerintahkan m-tupel dari nilai-nilai X. Then Y n is a Markov chain with state space S m and has the classical Markov property . Maka Y n adalah sebuah rantai Markov dengan ruang keadaan S m dan memiliki klasik properti Markov.
4.       An additive Markov chain of order m where m is finite, is Sebuah aditif rantai Markov order m di mana m adalah terbatas adalah [ clarification needed ]
for all n>m untuk semua n> m.
            We describe a Markov chain as follows: We have a set of states The process starts in one of these states and moves successively from one state to another. Each move is called a step. If the chain is currently in state si, then it moves to state sj at the next step with a probability denoted by pij , and this probability does not depend upon which states the chain was in before the current state. The probabilities pij are called transition probabilities. The process can remain in the state it is in, and this occurs with probability pii. An initial probability distribution, de¯ned on S, speci¯es the starting state. Usually this is done by specifying a particular state as the starting state. R. A. Howard1 provides us with a picturesque description of a Markov chain as a frog jumping on a set of lily pads. The frog starts on one of the pads and then jumps from lily pad to lily pad with the appropriate transition probabilities.

Markov Chains
          langkah-langkah untuk menyelesaikan masalah Markov Chains menggunakan software QSBWin adalah sebagai berikut :
1.    Buka aplikasi Markov Process pada QSBWin.
2.    Klik ‘File-New Problem’. Kemudian akan muncul tabel dialog seperti dibawah ini,
3.    Set data, yaitu :
Problem Title : judul,.
Number of States : diisi sesuai banyaknya state.
4.    Klik ‘OK’, maka akan muncul tampilan seperti berikut :
Masukkan data-data yang sesuai ke dalam tabel data..

Setelah selesai mengisi semua data pada tabel, klik ‘Solve and analyze’

Leave a comment