miércoles, 30 de octubre de 2013

trabajo markov




Como alumnos de la Escuela Profesional de Ingeniería Industrial de la Universidad César Vallejo, presentamos  este Informe de la aplicación de cadenas de Markov, las cuales han sido realizadas en el centro de informática y Sistemas,

LOS AUTORES













Una sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende del azar se denomina proceso aleatorio o proceso estocástico. Por ejemplo, la sucesión podría ser las condiciones del tiempo en la ciudad de Trujillo en una serie de días consecutivos: el tiempo cambia día a día de una manera que en apariencia es algo aleatoria. O bien, la sucesión podría consistir en los precios de las acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de aleatoriedad.
Un ejemplo simple de un proceso estocástico es una sucesión de ensayos de Bernoulli, por ejemplo, una sucesión de lanzamientos de una moneda. En este caso, el resultado en cualquier etapa es independiente de todos los resultados previos (esta condición de independencia es parte de la definición de los ensayos de Bernoulli). Sin embargo, en la mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en un día determinado no es aleatorio por completo sino que es afectado en cierto grado por el tiempo de días previos. El precio de una acción al cierre de cualquier día depende en cierta medida del comportamiento de la bolsa en días previos.
El caso más simple de un proceso estocástico en que los resultados dependen de otros, ocurre cuando el resultado en cada etapa sólo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos. Tal proceso se denomina cadena de Markov. Estas cadenas reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922).Estas cadenas tiene memoria, recuerdan el último evento y eso condiciona las posibilidades de los eventos futuros. Esto justamente las distingue de una serie de eventos independientes como el hecho de tirar una moneda. Este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. Se utilizan, por ejemplo, para planear necesidades de personal, para analizar el reemplazo de un equipo, entre otros.




PRESENTACIÓN
El mundo actual, caracterizado por entornos abiertos altamente competitivos, exige profesionales preparados y a la vanguardia del avance tecnológico que respondan exitosamente al mercado laboral, por ello el Centro de Informática y Sistemas de la Universidad César Vallejo cumple un rol activo en la capacitación y entrenamiento de los alumnos y la comunidad con servicios educativos modernos y de calidad.
El CIS complementa la formación de los estudiantes de pregrado a través del Programa de Acreditación en Computación, que prepara y certifica a los alumnos en el manejo y dominio de herramientas informáticas y tecnologías de la información, conforme a las demandas propias de sus carreras y dentro de las exigencias del mercado empresarial.
Además, mediante el Programa de Extensión, entrena a la comunidad universitaria, profesional y empresarial en el dominio de las últimas herramientas tecnológicas, con una metodología práctica e instructores certificados a nivel internacional que procuran su desarrollo profesional y la actualización permanente del conocimiento.
.










 





CADENA DE MARKOV

Se entiende por proceso estocástico aquel que evoluciona en el tiempo de forma no determinista al pasar por distinto estados. Las cadenas de markov son un proceso estocástico discreto que sirve para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos.
Una cadena de markov por tanto, es un modelo que sirve para representar un sistema que modifica su estado en transcurso del tiempo. Cada modificación de sistema se denomina transición. Las transiciones ocurren según ciertas probabilidades que determinan la probabilidad del siguiente estado en función de aquellos por los que ha transitado el sistema.  Se estudia la llamada cadena finita de markov, que se caracterizan por que el conjunto de estados del sistema es finito.
Formalmente, para definir una cadena de markov finita es preciso determinar los siguientes elementos:
A) un conjunto de estados del sistema
B) la distribución inicial del sistema
C) una probabilidad de transición de un estado a otro que verifique la condición de markov.
Los estados son una abstracción de la situación en que se halla el sistema en un instante dado; dicha abstracción puede ser cuantitativa o cualitativa; por ejemplo, un cajero automático pude encontrarse en estado operativo o averiado; o una persona puede vivir en el campo, en el centro de una ciudad o en el extranjero.
Así, el estado de un sistema en una instante T ʗ N es una variable Xt  cuyos valores solo pueden pertenecer al conjunto de estado del sistema, S. El sistema es modelado por la cadena finita, por tanto, es una variable que cambia de valor en el tiempo Xt  ϵ S, cambio al que llamaremos transición.
Por ser el sistema estocástico, no se conocerá con certeza el estado del sistema en un instante determinado, si no tan solo la probabilidad asociada a cada uno de los estados. Esto puede expresarse en términos de probabilidad condicional:
P{ Xt = j | Xt-1 =i, Xt – 2 =st-2, Xt-3 = st-3,…,  X0 = s0 } = Pt { Xt = j | Xt-1 =I }
Donde i, j, st pertenecen al conjunto S de posibles estados del sistema. De inicio se considera solo aquella probabilidades constantes en el tiempo o denominadas también homogéneas en el tiempo. Es decir, donde Pt{ Xt = j | Xt-1 =I }= P{ Xt = j | Xt-1 =i} Ѵ t ϵ T.
En las cadenas finitas de markov de primer orden, la expresión habitual de la ley de probabilidad condicional consiste en una matriz de probabilidades transición P. dicha matriz es cuadrada con tantas filas y columnas como estado tenga el sistema, y sus elementos representan la probabilidad de que el estado siguiente sea el correspondiente a la columna si el estado actual es el correspondiente a la fila.
Como el sistema debe evolucionar hasta alguno de los n estado posibles, las probabilidades de transición deben cumplir la siguiente propiedad.
Además por definición de probabilidad, cada elemento de la matriz de transición debe ser no negativo (pij ≥ 0). Cuando las pij, cumple las dos propiedades indicadas, entonces la matriz P será una matriz estocástica: la suma de los valores de sus filas será siempre igual a 1 (la suma de los valores de las columnas no tiene ninguna propiedad especial) y sus elementos serán no negativos.
Para su uso posterior, es interesante recordar dos propiedades de estas matrices.
·         Si P y Q son matrices estocásticas, sus productos P*Q también lo será.
·         Los auto valores de una matriz estocástica tienen siempre modulo inferior o igual a 1.
La propiedad markoviana quizá parezca una limitación en la modelización de sistema reales con cadenas de markov, pero en realidad no lo es, ya que es posible formular cadenas de orden superior (k>1) y transformarlas en otras de primer orden equivalentes.
Al conocer la distribución inicial de la cadena y las probabilidades de transacción es posible calcular la distribución del proceso en la siguiente etapa, en este caso por medio de cálculo matricial.
Para ello basta razonar directamente que será:
X1=PX0
Dónde:
 P = (pij) es la matriz de transición,
X0 es la distribución inicial y
X1 es la distribución en la primera etapa.

CLASIFICACION DE ESTADOS Y DE CADENA DE MARKOV.

La cadena de markov se puede clasificar de acuerdo con dos criterios de clasificación: según los estados que la compongan o según el comportamiento de la cadena.

CLASFICACION DE ESTADOS. CLASES DE EQUIVALENCIA.

La clasificación de una cadena de markov en función de la naturaleza de los estados que la componen esta basada en su análisis topológico, el cual consiste en clasificar los estados mediante una relación de equivalencia, es decir, dependiendo de cómo se comunique un estado con los otros. Por medio de una relación de equivalencia (denominada “de comunicación”) es posible establecer diferentes clases de equivalencia de estados, lo cual proporciona una partición disjunta del conjunto de estados. Un estado j se relación con otro i si es posible acceder a j desde i con probabilidad no nula, entonces se dice que j es accesible desde i y se expresa como i        j.
A partir de esta relación puede definirse otros conceptos que se utilizaran en la clasificación de los estados y de las cadenas:
·         Los estados i y j se comunican si i es accesible desde j y j lo es desde i, estos se expresa como i            j.
·         Se definirá como un ciclo dentro de una cadena de markov a cualquier camino en la cadena que comunique al estado i consigo mismo. El conjuntos de ciclos se caracteriza por el número mínimo de transiciones que necesitara el sistema el sistema para volver al estado i, si el procesos se inició en ese estado.

Se considera por convenio que todo estado se comunica consigo mismo (circuito de longitud 0), al margen de que exista además otros circuitos de longitud mayor. Con ello, la relación “estar comunicado” entre estados es reflexiva, simétrica y transitiva, por lo que se trata de una relación de equivalencia. Por este motivo se dice que un conjunto de estados comunicados entre sí constituye una clase de equivalencia. De esta manera es factible agrupar en diversas clases los estados de una cadena de markov de acuerdo con la clase de equivalencia a la que pertenezcan. A su vez, puede definirse la propiedad de clase siguiente paras las clases de equivalencia que se hayan establecido:
          a) una clase de equivalencia será recurrente si cuando el proceso llega a uno de los estados de la clase (en las transiciones siguientes) evoluciona siempre dentro de los estados de dicha clase.
         b) aquellas clases de equivalencia que no sean recurrentes serán transitorias. Las clases  transitorias son de poco interés en el estudio de la cadena de markov.
 Esta clasificación es conjunta pues induce los dos tipos de estados de una cadena: recurrentes o transitorios. Observe que si dos estados comunican pueden ser transitorios o recurrentes y que los estados transitorios son inaccesibles desde los recurrentes. Puesto que el sistema debe ser capaz de evolucionar de manera indefinida entre un numero finito de estado, es claro que toda cadena debe tener al menos una clase recurrentes. Si en sus infinitas transiciones el sistema pasa por todos los estados, entonces habrá una única clase recurrentes que los incluirá a todos ellos.
Para una clase recurrente se introduce el concepto de periodo, mismo que puede definirse como el máximo común divisor de las longitudes de los ciclos que se encuentran en esa clase. Habra entonces dos tipos de clases recurrentes:
·         Clase cíclica o periódica: aquellas que tenga un periodo de valor p > 1.
·         Clases a cíclicas o aperiódicas: aquellas que tengan un periodo de valor p = 1.

Note que la definición de periodo de una clase recurrente es compatible con la existencia de ciclos mayores. La existencia de un ciclo longitud 1 implica que la clase es aperiódica. Un caso particular interesante dentro de las clases recurrentes a cíclicas es el de los estados absorbentes: se trata de estados que constituyen por si mismos una sola clase final, puesto que la única transición posible es ir otra vez al mismo estado. En términos matemáticos significa que en la fila correspondiente a P habrá solo 0 excepto en la diagonal principal donde habrá un 1; el significado de esto es un sistema que se ha degradado, y ya no puede evolucionar más.
Para analizar de modo grafico las relaciones entre estados es útil recordar que, según la teoría de grafos, toda matriz cuadrada tiene asociado una red, cuya representación gráfica se puede elaborar a partir de la matriz de probabilidades de transición, el diagrama de transición de estados.
Cada estado de la cadena de la cadena se representa por un vértice del grafo y cada transición con probabilidad no nula se representa por una relación entre los vértices que representan los estados anterior y posterior de la misma.  De esta manera en el diagrama se representa todas las situaciones en las que un estado i enlaza con j.

CLASIFICACION DE LAS CADENAS DE MARKOV.

A partir de la clasificación del estado es posible clasificar las cadenas en función de la clase de equivalencia que contengan:
a) Cadena sin estado transitorios: si estas cadenas poseen más de una clase recurrente significa que hay más de una cadena yuxtapuesta, pero que no se interrelaciona unas con otras; por lo cual una se podrá estudiar de manera individual. Sin perder la generalidad considere que tenemos una clase recurrente, en ese caso la cadena se denomina ergódica. De acuerdo con la existencia de periodos, las cadenas se pueden clasificar en:
Ø  Regulares: cuando la clase es recurrente y aperiódica.
Ø  Periódicas: cuando la clase es recurrente y cíclica.

b) Cadenas con  estado transitorios: en estas cadenas el proceso evoluciona hasta que queda atrapado en una clase recurrente, en las siguientes categorías:
Ø  Absorbentes: cuando todas las clase recurrentes contienen un único elemento denominado estado absorbente.
Ø  Semiregulares: cuando coexiste más de una clase recurrente.
Ø  Poli cíclica: cuando todas las clases recurrentes son periódicas.
Ø  Mixta, cuando coexisten clases recurrentes periódicas y aperiódicas.

CADENA ERGODICAS.

El concepto de cadena ergódica tiene relación con el comportamiento de largo plazo del sistema. En una cadena ergódica todos los estados se dan a largo plazo, es decir, que en un régimen permanente todos ellos tienen una probabilidad no nula de aparecer. Se trata de cadenas cuyo comportamiento no varía de forma cualitativa. En el transcurso del tiempo, es un comportamiento estacionario y las probabilidades de encontrar el sistema en algunos de los estados a largo plazo se denomina probabilidades estacionarias. En ellas es lo mismo el largo plazo que el corto plazo, salvo que se conserva la memoria  del estado inicial.
Sea una cadena markov de dos estados con la matriz de probabilidades de transición dada por:
                                                             P=



Calcule la potencia novena para aproximar la matriz de probabilidades estacionarias:

                                                           P9=  
Observe que las probabilidades estables de los diferentes estados son independientes del estado de origen, razón por la cual de la matriz de probabilidades estacionarias todas las filas son iguales. Se trata entonces de una cadena de markov regular, en la que las probabilidades estacionarias no dependen del estado inicial. Además, ninguna de las probabilidades tiene valor 0. Así es una cadena de Markov ergódica.

CADENA SEMIERGODICA.

En las cadenas semiergódicas los comportamientos a largo y a corto plazo son cualitativamente distintos. Hay estado transitorios que a largo plazo desaparecerán y, por tanto, solo aparecerán mientras el sistema no haya alcanzado su régimen permanente. Una vez que esto último se ha logrado, el comportamiento de la cadena no difiere del caso ergódico si se hace abstracción de los estados que ya no pueden aparecer.
Observe ahora una cadena de Markov de cuatro estados, de matriz de probabilidades de transición.

                                                                      
                                                                      P=  
Si se observa la matriz de la transición vigésimo cuarta, todas las filas tienden a ser iguales y se aprecian bloques de determinadas filas y columnas, con una diferencia importante respecto de la cadena ergódica: hay estados cuya probabilidad de estabilidad tiene ser 0 (serán estado no visitados en un comportamiento a largo plazo). Por tanto, no es una cadena ergódica. Sin embargo, aún es cierto que todas las filas tienden hacia un mismo valor, de modo que sigue siendo regular. Las cadenas de Markov regulares con algunas de las columnas de la matriz que probabilidades estacionarias igual a 0 se llaman semiergódicas. Las cadenas ergódicas pueden considerarse como un caso particular  de las cadenas semiergódicas.
                                                                             
                                                                      P24 =

CADENA NO ERGODICAS

En las cadenas no ergódicas el comportamiento a largo plazo depende de la situación inicial. Al contrario de lo que ocurre en las cadenas ergódicas y semiergódicas, el comportamiento a largo plazo no está definido cualitativamente, sino que será distinto según la clase final a la que se dirigía el sistema. Ello significa que la probabilidad estacionaria de cada estado depende de la situación inicial, que puede determinar si algunos estados no se alcanzaran jamás si se parte de un cierto conjunto de estados.
Considere de nuevo una cadena de Markov de cuatro estados con la siguiente matriz de transición:
                                                                
                                                                  P=  
Si observa la matriz de la transición trigésima, vera que, mientras algunas filas tienen el mismo comportamiento que las de los casos anteriores, otras tienden a ciertos valores, diferentes de los de las otras filas. En concreto, el segundo estado es absorbente: ello quiere decir que, al contrario de lo que sucede con el caso regular.
(TAHA, 2004)Cuando se dispone de clases recurrentes cíclicas se aprecia su carácter cíclico a partir de una división de sus estados en p subclases, de manera que la evolución de la cadena dentro de esta clase pasara sucesivamente por un estado de la subclase 1, luego uno de la subclase 2, y así por el estilo, hasta cíclicas, entonces, son un caso intermedio entre un sistema estocástico puro en el que no se puede predecir su evolución más allá de la mera descripción probabilística y el caso determinista en que la siguiente con exactitud, pero sí que forma parte de un subconjunto bien determinado.
Todo ello quiere decir que la interpretación de las probabilidades estacionarias es ligeramente distinta en el caso acíclico. Si se observa el sistema en un momento cualquiera, la probabilidad de hallarlo en uno u otro estado es, en efecto, la estacionaria; sin embargo, ello es sólo consecuencia de no conocer  el número de transiciones realizadas. Si se conociera su módulo p de ciclicidad, las probabilidades serian distintas, puesto que las potencias de P evolucionan cíclicamente.
Por ejemplo, la cadena de Markov tiene la siguiente matriz de probabilidades de transición presenta un comportamiento reincidente después de un número elevado de transiciones:



Transición, se observa que estas no convergen en un valor concreto sino que muestran un comportamiento cíclico. En este caso, las transiciones impares tienden a un valor y las pares a otro:

                                          
Estas cadenas son cíclicas. En este caso particular, se tiene una cadena de periodo p=2-
Observe que la primera columna es siempre 0, por lo que el primer estado desaparecerá en las probabilidades de largo plazo; es decir, que la cadena no es ergódica, aunque está claro que puede haber cadenas cíclicas ergódicas, como se verá en ejemplos posteriores.
Clasificación practica de las cadenas de Markov
Los casos que se han analizado son solo algunos (lo mas importantes) de los que pueden ocurrir en la relación con la clasificación de las cadenas de Markov. Con todo lo que se ha expuesto hasta ahora, si se desea analizar el comportamiento a largo plazo de un proceso estocástico que cumpla la propiedad markoviana, se necesita:
-          Una metodología para clasificar la cadena como ergódica o no ergódica por una parte, y como regular, semirregular o cíclica por otra, al examinar la matriz de probabilidades de transición.
-          Una metodología que permita el cálculo de la matriz de probabilidades estacionarias.
La clasificación práctica de las cadenas de Markov se lleva a cabo con dos métodos:
-          Análisis topológico; examinar las propiedades de los estados de la cadena y establecer clases de equivalencia entre los estados.
-          Análisis espectral; examinar los valores propios de la matriz de probabilidades de transición de un paso.
Una vez clasificada la cadena, debe obtenerse información acerca de la forma que presenta la matriz de probabilidades estacionarias, lo cual facilita su obtención.

Aplicación del análisis espectral en la clasificación de cadenas

Si se conocen los valores propios de una matriz de transición es factible observar ciertas propiedades de su cadena de Markov relacionada con el análisis espectral, con base en la siguiente propiedad general de las matrices estocásticas: los valores propios de una matriz estocástica tienen modulo inferior o igual a 1.
Para detectar el número de clases recurrentes y su periodicidad, el análisis espectral se basa en la acotación de los autovalores de la matriz de transición y del hecho de que cada clase recurrente de periodo p genera p valores propios de valor igual a las raíces p-ésimas de 1. El resto de autovalores serán de módulo inferior a 1.  En consecuencia, el número de clases recurrentes será igual a la multiplicidad 1 como valor propio. De este modo, a partir del examen de los valores propios de la matriz de probabilidades de transición, se obtienen las siguientes conclusiones:

·         Una cadena de Markov regular, tanto ergódica como semiergódica, tendrá un único valor propio de 1. El resto de valores propios serán de modulo inferior a 1.
·         Una cadena Markov semirregular tendrá un valor propio 1 múltiple, y el resto de los valores propios será de modulo inferior a 1. La multiplicidad del valor propio 1 será igual al número de clases recurrentes de la cadena.
·         Una cadena de Markov cíclica (o policíclica) tendrá, entre sus valores propios, uno o varios conjuntos de raíces p-ésimas de 1. Cada uno de esos conjuntos revelará la presencia de una clase cíclica de periodo p.
 









El análisis espectral no permite hacer deducciones acerca de las clases transitorias y por ello tampoco informa si se trata de una cadena ergódica o no, sólo se deduce que si el valor propio +1 es múltiple, será una cadena no ergódica y, en caso contrario, será ergódica o semiergódica.
Ejemplo1
Aplique el análisis espectral a una cadena de Markov con el siguiente conjunto de valores propios
Solución:
Se trata de una cadena de Markov cíclica con una clase recurrente de periodo 1 y con una clase recurrente de periodo 2. Dado que hay ocho valores propios, la cadena debe tener precisamente ocho estados, pero no se sabe cuáles pertenecen a cada una de las dos clases recurrentes o si hay o no alguno en clases transitorias. Sí se sabe que por tratarse de una cadena mixta es un caso no ergódico.
Ejemplo 2
Aplique el análisis espectral a una cadena de Markov con el siguiente conjunto de valores propios
Solución:
En este caso se trata de una cadena de Markov con dos clases recurrentes, puesto que (como en la cadena anterior) la multiplicidad de 1 es doble: una de las clases es de periodo 4, mientras que la otra es de periodo 2 se repetirán alternativamente en las potencias pares e impares de P, mientras que en la clase de periodo 4 se repetirán cada 4 potencias.

Cadenas absorbentes, matriz fundamental

Un estado absorbente es aquel que forma por sí solo una clase recurrente, por tanto, la probabilidad en una etapa de regresar al mismo estado es 1. Una cadena absorbente será aquella en la que las únicas clases recurrentes estarán formadas por estados absorbentes.
Cualquier cadena de Markov finita verifica que, al margen del estado en que se inicie el proceso, la probabilidad de que tras n etapas se encuentre en una clase recurrente tiende a 1 a medida que n tiende a infinito.
Dada una cadena absorbente es posible representar su matriz de transición según la siguiente forma canónica:
Donde 0 será la matriz nula, Q será la matriz correspondiente a las transiciones entre estados transitorios, R serán las probabilidades de transición de los estados transitorios a los estados absorbentes y S será la matriz correspondiente a los estados absorbentes. En caso de más de un estado absorbente, la matriz S será igual a la matriz identidad.
Para las cadenas absorbentes se define la matriz fundamental como . Esta matriz resulta importante debido a que representa el número medio de etapas por las que el proceso transita hasta que es absorbido; ese valor es infinito.
Ejemplo 3:
Imagine un proceso de producción en el cual se fabrican piezas a partir de cuatro procesos. La pieza puede ser defectuosa (con probabilidad 0.2), que deba repetirse el proceso(con probabilidad 0.1) o que pase al siguiente proceso (con probabilidad 0.7) Interprete la matriz fundamental.

Solución:
Los estados del proceso serán: . Los procesos se representan con los estados , ,  inician con el  y concluyen en  . La matriz de transición correspondiente es:

La matriz fundamental es:



Su interpretación es la siguiente: una pieza en el proceso  invertirá 1.1 etapa en ser absorbida (acabada o rechazada); una pieza en el tercer proceso ( ), estará 1.11 etapas en concluir el proceso y 0.86 en el último proceso, y así sucesivamente. Los ceros indican que una pieza no puede regresar a un proceso anterior, siempre avanzara hacia adelante en su fabricación.
Algunas aplicaciones más importantes de la matriz fundamental son:

·         Varianza del tiempo medio en cada estado antes de la absorción:
·         Número total de etapas de un estado particular hasta la absorción:
·         Varianza del número total de etapas para pasar de un estado hasta la absorción:
·         Probabilidad de que el proceso se inicie en un estado y acabe en otro absorbente:

 



HORARIOS DE ATENCIÓN





DÍAS  Y ANOTACIONES DE CLIENTES




JUEVES





VIERNES







LUNES







JUEVES


HORAS
N° DE CLIENTES
1
0
2
0
3
3
4
1
5
0
6
0
7
1
8
0
9
1



0
1
3
TOTAL
0
II
II
I
5
1
II
0
0
2
3
0
I
0
1




P

0
1
3
0
0.40
0.40
0.20
1
1.00
0.00
0.00
3
0.00
1.00
0.00
P2

0
1
3
0
0.56
0.36
0.08
1
0.40
0.40
0.20
3
1.00
0.00
0.00
P4

0
1
3
0
0.54
0.35
0.12
1
0.58
0.30
0.11
3
0.56
0.36
0.08
P8

0
1
3
0
0.56
0.33
0.11
1
0.55
0.33
0.11
3
0.56
0.33
0.11
P16

0
1
3
0
0.56
0.33
0.11
1
0.56
0.33
0.11
3
0.56
0.33
0.11
La probabilidad de tener 0 clientes es de 56%
La probabilidad de tener 1 clientes es de 33%
La probabilidad de tener 3 clientes es de 11%

























0
1
2
TOTAL
0
II
II
0
4
1
0
0
II
2
2
II
0
0
2





P

0
1
2
0
0.50
0.50
0.00
1
0.00
0.00
1.00
2
1.00
0.00
0.00
P2

0
1
2
0
0.25
0.25
0.50
1
1.00
0.00
0.00
2
0.50
0.50
0.00
P4

0
1
2
0
0.56
0.31
0.13
1
0.25
0.25
0.50
2
0.63
0.13
0.25
P8

0
1
2
0
0.47
0.27
0.26
1
0.52
0.20
0.28
2
0.54
0.26
0.20
P16

0
1
2
0
0.50
0.25
0.25
1
0.50
0.25
0.25
2
0.50
0.25
0.25
La probabilidad de tener 0 clientes es de 50%
La probabilidad de tener 1 clientes es de 25%
La probabilidad de tener 2 clientes es de 25%















LUNES




P

0
1
0
0.40
0.60
1
0.67
0.33
P2

0
1
0
0.56
0.44
1
0.49
0.51
P4

0
1
0
0.53
0.47
1
0.52
0.48
P8

0
1
0
0.53
0.47
1
0.53
0.47
La probabilidad de tener 0 clientes es de 53%
La probabilidad de tener 1 clientes es de 47%







 














*      La probabilidad de tener 0 clientes el día jueves es de 56%                       
*      La probabilidad de tener 1 clientes el día jueves es de 33%                       
*      La probabilidad de tener 3 clientes el día jueves es de 11%
*      La probabilidad de tener 0 clientes el día viernes es de 50%                                 
*      La probabilidad de tener 1 clientes el día viernes es de 25%                                 
*      La probabilidad de tener 2 clientes el día viernes es de 25%
*      La probabilidad de tener 0 clientes el día lunes es de 53%                         
*      La probabilidad de tener 1 clientes el día lunes es de 47%                                                                                   











 

Bibliografía

BENITEZ, MARCO ANTONIO MONTAFUR. 2009. INVESTIGACIÓN DE OPERACIONES. MEXICO : PATRIA, S.A. DE C.V, 2009.
TAHA, HAMDY A. 2004. INVESTIGACIÓN DE OPERACIONES. MÉXICO : PEARSON EDUCIÓN DE MÉXICO S.A. DE C.V., 2004. 970-26-0498-2.
WINSTON, WAYNE L. 2011. INVESTIGACIÓN DE OPERACIONES. MEXICO : CENGAGE Learning, 2011. 978-970-686-362-1.

 








 ll






HORARIOS DE ATENCIÓN


LOCAL DEL CIS


TOMA DE TIEMPOS






No hay comentarios:

Publicar un comentario