Quá trình Markov
Bách khoa toàn thư mở Wikipedia
Trong lí thuyết xác suất, quá trình Markov là một quá trình mang tính ngẫu nhiên (stochastic process) với đặc tính như sau: trạng thái ck tại thời điểm k là một giá trị trong tập hữu hạn . Với giả thiết rằng quá trình chỉ diễn ra từ thời điểm 0 đến thời điểm N và rằng trạng thái đầu tiên và cuối cùng là đã biết, chuỗi trạng thái sẽ được biểu diễn bởi một vectơ hữu hạn C = (c0,...,cN).
Nếu P(ck | c0,c1,...,c(k − 1)) biễu diễn xác suất (khả năng xảy ra) của trạng thái ck tại thời điểm k khi đã trải qua mọi trạng thái cho đến thời điểm k − 1. Giả sử trong quá trình đó thì ck chỉ phụ thuộc vào trạng thái trước ck − 1 và độc lập với mọi trạng thái trước khác. Quá trình này được gọi là quá trình Markov bậc 1 (first-order Markov process). Có nghĩa là xác suất để trạng thái ck xảy ra tại thời điểm k, khi biết trước mọi trạng thái cho đến thời điểm k − 1 chỉ phụ thuộc vào trạng thái trước, ví dụ: trạng thái ck−1 của thời điểm k − 1. Khi đó ta có công thức:
Nói tóm lại, một hệ có thuộc tính Markov được gọi là quá trình Markov (bậc 1).
Như vậy, với quá trình Markov bậc n,
Nói chung, với giải thuật Viterbi, quá trình xảy ra bên dưới được xem là một quá trình Markov với các đặc tính sau:
- trạng thái hữu hạn, nghĩa là số M là hữu hạn.
- thời gian rời rạc, nghĩa là việc chuyển từ trạng thái này sang trạng thái khác mất cùng 1 đơn vị thời gian.
- quan sát không tốn bộ nhớ, nghĩa là chuỗi các quan sát phụ thuộc xác suất chỉ vào trạng thái ngay trước đó (nên không cần lưu nhớ nhiều).
[sửa] Xem thêm
- Xích Markov
- Shift of finite type