CADENA DE MARKOV.
Las Cadenas de Markov reciben su nombre del matemático ruso Andrei Markov, comprenden una serie
de eventos, en los cuales la probabilidad de la ocurrencia de un evento depende del evento ocurrido
inmediatamente anterior a este. Las cadenas...
More
CADENA DE MARKOV.
Las Cadenas de Markov reciben su nombre del matemático ruso Andrei Markov, comprenden una serie
de eventos, en los cuales la probabilidad de la ocurrencia de un evento depende del evento ocurrido
inmediatamente anterior a este. Las cadenas de este tipo “recuerdan” el último evento y esto condiciona las
posibilidades de los eventos futuros, esta dependencia distingue a las cadenas de Markov de las series de
eventos independientes.
La comprensión del concepto de Cadenas de Markov requiere entender conceptos previos a este tales
como procesos estocásticos, teoría de análisis de decisiones, teoría de colas.
Una cadena de Markov, es una sucesión de ensayos similares, en la cual:
i) El resultado de un ensayo o intento dado depende sólo del resultado del intento inmediatamente
anterior y no de cualquier resultado previo.
ii) La probabilidad de pasar del estado iE al estado jE en dos intentos sucesivos, permanece
constante.
Matriz de Transición.
La matriz de transición de una
Less