Cadenas de markov

55 %
45 %
Information about Cadenas de markov

Published on March 10, 2014

Author: TPYXNHKN

Source: slideshare.net

NOMBRE DEL ALUMNO: JAIME VALDIVIA CASTELLANOS MATERIA: INVESTIGACIÓN DE OPERACIONES II NUMERO DE CONTROL: 119T0101 NOMBRE DEL DOCENTE: ING. ROBERTO CRUZ ANDRADE NÚMERO Y NOMBRE DE LA UNIDAD: IV CADENAS DE MARKOV

INTRODUCCIÓN En las cadenas de Markov considera ciertos puntos discretos en el tiempo para toma valores de la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Markov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas. Los estados en el tiempo representan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito o infinito. Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí. Las cadenas de Markov se pueden aplicar en áreas como la educación, comercialización, servicios de salud, finanzas, contabilidad y producción.

4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV La cadena de Markov recibe su nombre del matemático ruso AndreiMarkov que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo. A veces nos interesa saber cómo cambia una variable aleatoria a través del tiempo. Por ejemplo, desearíamos conocer cómo evoluciona el precio de las acciones de una empresa en el mercado a través del tiempo. La cadena de markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

4.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de transición conocida. Como todas las cadenas con las que trataremos son estacionarias, no nos importara identificar nuestras cadenas de markov como estacionarias. Una pregunta de interés es: si una cadena de markov está en el estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la cadena de markov este en el estado j? como se trata de una cadena de markov estacionaria, esta probabilidad será independiente de m y, por tanto, podemos escribir Donde Se llama probabilidad en la etapa n de una transición de estado i al estado j. Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se encuentra hoy en el estado i. entonces para que el estado termine en el estado j dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del estado k al estado i este modo de razonar nos permite escribir (Probabilidad de transición de i a k) (Probabilidad de transición de k a j) De acurdo con la definición de p. la matriz de transición de replanteamos la última ecuación en la siguiente forma:

4.3. ESTADO ESTABLE Para grande, n p tiende a una matriz con renglones idénticos. Esto significa que después de un largo tiempo, la cadena de markov se estabiliza, e (independientemente del estado inicial ) hay una probabilidad j de que se está en el estado j . El vector  n 21, se llama distribución de estado estable o distribución de equilibrio, para la cadena de markov. Para una cadena determinada con matriz de transición , ¿cómo se puede hallar la distribución de probabilidad de estado estable? A partir del teorema 1, se observa que para grande y toda ,     jijij npnp 1 (6) Puesto que  1npij (renglón de n p ) (columna de ), se podría escribir     kj sk k ijij pnpnp     1 1 (7) Si es grande, sustituyendo la ecuación (6) en la (7), se obtiene     sk k kjkj p 1  (8) En forma de matriz, (8) se podría escribir como p  (8` ) Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un número infinito de soluciones, debido a que el rango de la matriz siempre resulta ser 1 s (véase capitulo 2, problema de repaso 21). Para obtener los valores únicos de la probabilidad de estado estable, observe que para cualquier y cualquier ,       121  npnpnp isii  (9)

4.4. ESTADOS ABSORBENTES Es un estado a partir de la cual existe cero probabilidad de hacer una transición fuera de ese estado, que contiene al menos un estado que es posible llegar a un número de etapas comenzando en caulquier estado no absorbente. En una cadena de Markov un conjunto C de estados se denomina absorbentes si el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto cerrado es un estado particular que tenga una probabilidad de transición . En este caso se denomina estado absorbente. Todos los estado de una cadena irreducible deben formar un conjunto cerrado y ningún otro subconjunto puede ser cerrado. Los estados absorbentes tendrás sumas de probabilidades que con el correr del tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de estados.

CONCLUSIÓN Como conclusión las cadenas de Markov nos permite hacer análisis sobre el estudio de los comportamientos de ciertos sistemas en ciertos periodos que pueden ser cortos o largos. Además se tiene una relación con las probabilidades absolutas. Pero sin embargo lo más importante es el estudio del comportamiento sistemas a largo plazo, cuando el número de transiciones tiene al infinito Al conocer más o menos las probabilidades de un experimento, esto a su vez nos permitirá conocer a corto yplazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses, y tomar una decisión de manera consciente y no se comentan muchos errores. Esto también nos proporcionara un tiempo estimado para que identifiquemos cada estado y el periodo en que se encuentra con la implementación de un proceso, también se establece las probabilidades como una herramienta más en las cadenas de Markov.

BIBLIOGRAFÍA 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826 4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826 Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 928-931. 4.3. ESTADO ESTABLE Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 934-938. 4.4. ESTADOS ABSORBENTES Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830

Add a comment

Related presentations

Related pages

Cadena de Márkov - Wikipedia, la enciclopedia libre

En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la ...
Read more

Cadenas de Markov - YouTube

Aplicación de cadenas de Markov para resolver un ejercicio propuesto. Narración: Lcdo. Simon Velandia Cámara: Leonardo Contreras Asistente de ...
Read more

Cadenas de Markov - INFOAMÉRICA

C:My DocumentsCursosM 50011.06.Cadenas de Markov.doc pag. 1 Cadenas de Markov Después de mucho estudio sobre el clima, hemos visto que si un día ...
Read more

TEORIA Y EJEMPLOS ~ CADENAS DE MARKOV

MATRIZ DE TRANSICIÓN: Una matriz de transición para una cadena de Markov de n estado es una matriz de n X n con todos los registros no negativos y con la ...
Read more

cadenas de markov, periodos. EJEMPLO 1: investigacion de ...

Cadenas de Markov: Probabilidad de Estado Estable y Costos - Duration: 13:11. SANTIAGO HOYOS TUBERQUIA 1,783 views. 13:11 Markov Matrices | ...
Read more

Cadenas de Markov - halweb.uc3m.es

Cadenas de Markov Los procesos de paseo aleatorio en realidad son un caso particular de procesos más generales que son las cadenas de Markov. En esencia ...
Read more

Cadenas de Markov, by Mijaíl Martínez on Prezi

Cadenas de Markov, Gráficas y aplicaciones ¿Qué es una cadena de Markov? ¿Qué es una gráfica? ¿Qué relación hay entre ambos conceptos? ¿Cómo ...
Read more

Cadenas de Markov - iesxunqueira1.com

Cadenas de Markov. Ejercicios resueltos Página 3 c) Nos piden las probabilidades estacionarias.
Read more

CADENAS DE MARKOV

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las ...
Read more

CADENAS DE MARKOV | INVESTIGACIÓN DE OPERACIONES II

El método de las cadenas de Markov consiste en emplear la información probabilística en el análisis de tendencias con el fin de predecir sus resultados.
Read more