INDICE
Como alumnos de la Escuela
Profesional de Ingeniería Industrial de la Universidad César Vallejo,
presentamos este Informe de la
aplicación de cadenas de Markov, las cuales han sido realizadas en el centro de
informática y Sistemas,
LOS AUTORES
Una sucesión de eventos que se
desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene
algún elemento que depende del azar se denomina proceso aleatorio o proceso
estocástico. Por ejemplo, la sucesión podría ser las condiciones del tiempo en
la ciudad de Trujillo en una serie de días consecutivos: el tiempo cambia día a
día de una manera que en apariencia es algo aleatoria. O bien, la sucesión
podría consistir en los precios de las acciones que cotizan en la bolsa en
donde otra vez interviene cierto grado de aleatoriedad.
Un ejemplo simple de un proceso
estocástico es una sucesión de ensayos de Bernoulli, por ejemplo, una sucesión
de lanzamientos de una moneda. En este caso, el resultado en cualquier etapa es
independiente de todos los resultados previos (esta condición de independencia
es parte de la definición de los ensayos de Bernoulli). Sin embargo, en la
mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió
en etapas anteriores del proceso. Por ejemplo, el tiempo en un día determinado
no es aleatorio por completo sino que es afectado en cierto grado por el tiempo
de días previos. El precio de una acción al cierre de cualquier día depende en
cierta medida del comportamiento de la bolsa en días previos.
El caso más simple de un proceso
estocástico en que los resultados dependen de otros, ocurre cuando el resultado
en cada etapa sólo depende del resultado de la etapa anterior y no de
cualquiera de los resultados previos. Tal proceso se denomina cadena de Markov.
Estas cadenas reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922).Estas
cadenas tiene memoria, recuerdan el último evento y eso condiciona las
posibilidades de los eventos futuros. Esto justamente las distingue de una
serie de eventos independientes como el hecho de tirar una moneda. Este tipo de
proceso presenta una forma de dependencia simple, pero muy útil en muchos
modelos, entre las variables aleatorias que forman un proceso estocástico. Se
utilizan, por ejemplo, para planear necesidades de personal, para analizar el
reemplazo de un equipo, entre otros.
PRESENTACIÓN
El mundo actual, caracterizado por
entornos abiertos altamente competitivos, exige profesionales preparados y
a la vanguardia del avance tecnológico que respondan exitosamente al
mercado laboral, por ello el Centro de Informática y Sistemas de la
Universidad César Vallejo cumple un rol activo en la capacitación y
entrenamiento de los alumnos y la comunidad con servicios educativos modernos
y de calidad.
El CIS complementa la formación de
los estudiantes de pregrado a través del Programa de Acreditación en
Computación, que prepara y certifica a los alumnos en el manejo y dominio
de herramientas informáticas y tecnologías de la información, conforme a
las demandas propias de sus carreras y dentro de las exigencias del mercado
empresarial.
Además, mediante el Programa de
Extensión, entrena a la comunidad universitaria, profesional y empresarial
en el dominio de las últimas herramientas tecnológicas, con una metodología
práctica e instructores certificados a nivel internacional que procuran su
desarrollo profesional y la actualización permanente del conocimiento.
|
.
CADENA DE MARKOV
Se
entiende por proceso estocástico aquel que evoluciona en el tiempo de forma no
determinista al pasar por distinto estados. Las cadenas de markov son un
proceso estocástico discreto que sirve para analizar el comportamiento y el
gobierno de determinados tipos de procesos estocásticos.
Una
cadena de markov por tanto, es un modelo que sirve para representar un sistema
que modifica su estado en transcurso del tiempo. Cada modificación de sistema
se denomina transición. Las transiciones ocurren según ciertas probabilidades
que determinan la probabilidad del siguiente estado en función de aquellos por
los que ha transitado el sistema. Se
estudia la llamada cadena finita de markov, que se caracterizan por que el
conjunto de estados del sistema es finito.
Formalmente,
para definir una cadena de markov finita es preciso determinar los siguientes
elementos:
A) un
conjunto de estados del sistema
B) la
distribución inicial del sistema
C) una
probabilidad de transición de un estado a otro que verifique la condición de
markov.
Los
estados son una abstracción de la situación en que se halla el sistema en un
instante dado; dicha abstracción puede ser cuantitativa o cualitativa; por
ejemplo, un cajero automático pude encontrarse en estado operativo o averiado;
o una persona puede vivir en el campo, en el centro de una ciudad o en el
extranjero.
Así, el
estado de un sistema en una instante T ʗ N es una variable Xt cuyos valores solo pueden pertenecer al
conjunto de estado del sistema, S. El sistema es modelado por la cadena finita,
por tanto, es una variable que cambia de valor en el tiempo Xt ϵ S, cambio al que llamaremos transición.
Por ser
el sistema estocástico, no se conocerá con certeza el estado del sistema en un
instante determinado, si no tan solo la probabilidad asociada a cada uno de los
estados. Esto puede expresarse en términos de probabilidad condicional:
P{
Xt = j | Xt-1 =i, Xt – 2 =st-2, Xt-3 = st-3,…,
X0 = s0 } = Pt { Xt = j | Xt-1 =I }
Donde
i, j, st pertenecen al conjunto S de posibles estados del sistema. De inicio se
considera solo aquella probabilidades constantes en el tiempo o denominadas
también homogéneas en el tiempo. Es decir, donde Pt{ Xt = j | Xt-1 =I }= P{ Xt
= j | Xt-1 =i} Ѵ t ϵ T.
En
las cadenas finitas de markov de primer orden, la expresión habitual de la ley
de probabilidad condicional consiste en una matriz de probabilidades transición
P. dicha matriz es cuadrada con tantas filas y columnas como estado tenga el
sistema, y sus elementos representan la probabilidad de que el estado siguiente
sea el correspondiente a la columna si el estado actual es el correspondiente a
la fila.
Como
el sistema debe evolucionar hasta alguno de los n estado posibles, las
probabilidades de transición deben cumplir la siguiente propiedad.
Además
por definición de probabilidad, cada elemento de la matriz de transición debe
ser no negativo (pij ≥ 0). Cuando las pij, cumple las dos propiedades
indicadas, entonces la matriz P será una matriz estocástica: la suma de los
valores de sus filas será siempre igual a 1 (la suma de los valores de las
columnas no tiene ninguna propiedad especial) y sus elementos serán no
negativos.
Para
su uso posterior, es interesante recordar dos propiedades de estas matrices.
·
Si P y Q son matrices estocásticas, sus productos P*Q
también lo será.
·
Los auto valores de una matriz estocástica tienen
siempre modulo inferior o igual a 1.
La
propiedad markoviana quizá parezca una limitación en la modelización de sistema
reales con cadenas de markov, pero en realidad no lo es, ya que es posible
formular cadenas de orden superior (k>1) y transformarlas en otras de primer
orden equivalentes.
Al
conocer la distribución inicial de la cadena y las probabilidades de
transacción es posible calcular la distribución del proceso en la siguiente
etapa, en este caso por medio de cálculo matricial.
Para
ello basta razonar directamente que será:
X1=PX0
Dónde:
P = (pij) es la matriz de transición,
X0 es
la distribución inicial y
X1 es
la distribución en la primera etapa.
CLASIFICACION DE ESTADOS Y DE CADENA DE MARKOV.
La
cadena de markov se puede clasificar de acuerdo con dos criterios de
clasificación: según los estados que la compongan o según el comportamiento de
la cadena.
CLASFICACION DE ESTADOS. CLASES DE EQUIVALENCIA.
A
partir de esta relación puede definirse otros conceptos que se utilizaran en la
clasificación de los estados y de las cadenas:
·
Los estados i y j se comunican si i es accesible desde j y j lo es desde
i, estos se expresa como i j.
·
Se definirá como un ciclo dentro de una cadena de
markov a cualquier camino en la cadena que comunique al estado i consigo mismo.
El conjuntos de ciclos se caracteriza por el número mínimo de transiciones que
necesitara el sistema el sistema para volver al estado i, si el procesos se
inició en ese estado.
Se
considera por convenio que todo estado se comunica consigo mismo (circuito de
longitud 0), al margen de que exista además otros circuitos de longitud mayor.
Con ello, la relación “estar comunicado” entre estados es reflexiva, simétrica
y transitiva, por lo que se trata de una relación de equivalencia. Por este
motivo se dice que un conjunto de estados comunicados entre sí constituye una
clase de equivalencia. De esta manera es factible agrupar en diversas clases
los estados de una cadena de markov de acuerdo con la clase de equivalencia a
la que pertenezcan. A su vez, puede definirse la propiedad de clase siguiente
paras las clases de equivalencia que se hayan establecido:
a) una clase de equivalencia será recurrente si cuando el proceso llega
a uno de los estados de la clase (en las transiciones siguientes) evoluciona
siempre dentro de los estados de dicha clase.
b) aquellas clases de equivalencia que no sean recurrentes serán
transitorias. Las clases transitorias
son de poco interés en el estudio de la cadena de markov.
Esta clasificación es conjunta pues induce los
dos tipos de estados de una cadena: recurrentes o transitorios. Observe que si
dos estados comunican pueden ser transitorios o recurrentes y que los estados
transitorios son inaccesibles desde los recurrentes. Puesto que el sistema debe
ser capaz de evolucionar de manera indefinida entre un numero finito de estado,
es claro que toda cadena debe tener al menos una clase recurrentes. Si en sus
infinitas transiciones el sistema pasa por todos los estados, entonces habrá
una única clase recurrentes que los incluirá a todos ellos.
Para
una clase recurrente se introduce el concepto de periodo, mismo que puede
definirse como el máximo común divisor de las longitudes de los ciclos que se
encuentran en esa clase. Habra entonces dos tipos de clases recurrentes:
·
Clase cíclica o periódica: aquellas que tenga un
periodo de valor p > 1.
·
Clases a cíclicas o aperiódicas: aquellas que tengan
un periodo de valor p = 1.
Note
que la definición de periodo de una clase recurrente es compatible con la
existencia de ciclos mayores. La existencia de un ciclo longitud 1 implica que
la clase es aperiódica. Un caso particular interesante dentro de las clases
recurrentes a cíclicas es el de los estados absorbentes: se trata de estados
que constituyen por si mismos una sola clase final, puesto que la única
transición posible es ir otra vez al mismo estado. En términos matemáticos
significa que en la fila correspondiente a P habrá solo 0 excepto en la
diagonal principal donde habrá un 1; el significado de esto es un sistema que
se ha degradado, y ya no puede evolucionar más.
Para
analizar de modo grafico las relaciones entre estados es útil recordar que,
según la teoría de grafos, toda matriz cuadrada tiene asociado una red, cuya
representación gráfica se puede elaborar a partir de la matriz de probabilidades
de transición, el diagrama de transición de estados.
Cada
estado de la cadena de la cadena se representa por un vértice del grafo y cada
transición con probabilidad no nula se representa por una relación entre los
vértices que representan los estados anterior y posterior de la misma. De esta manera en el diagrama se representa
todas las situaciones en las que un estado i enlaza con j.
CLASIFICACION DE LAS CADENAS DE MARKOV.
A
partir de la clasificación del estado es posible clasificar las cadenas en función
de la clase de equivalencia que contengan:
a)
Cadena sin estado transitorios: si estas cadenas poseen más de una clase
recurrente significa que hay más de una cadena yuxtapuesta, pero que no se
interrelaciona unas con otras; por lo cual una se podrá estudiar de manera
individual. Sin perder la generalidad considere que tenemos una clase
recurrente, en ese caso la cadena se denomina ergódica. De acuerdo con la
existencia de periodos, las cadenas se pueden clasificar en:
Ø Regulares:
cuando la clase es recurrente y aperiódica.
Ø Periódicas:
cuando la clase es recurrente y cíclica.
b)
Cadenas con estado transitorios: en
estas cadenas el proceso evoluciona hasta que queda atrapado en una clase
recurrente, en las siguientes categorías:
Ø Absorbentes:
cuando todas las clase recurrentes contienen un único elemento denominado
estado absorbente.
Ø Semiregulares:
cuando coexiste más de una clase recurrente.
Ø Poli
cíclica: cuando todas las clases recurrentes son periódicas.
Ø Mixta,
cuando coexisten clases recurrentes periódicas y aperiódicas.
CADENA ERGODICAS.
El
concepto de cadena ergódica tiene relación con el comportamiento de largo plazo
del sistema. En una cadena ergódica todos los estados se dan a largo plazo, es
decir, que en un régimen permanente todos ellos tienen una probabilidad no nula
de aparecer. Se trata de cadenas cuyo comportamiento no varía de forma
cualitativa. En el transcurso del tiempo, es un comportamiento estacionario y
las probabilidades de encontrar el sistema en algunos de los estados a largo
plazo se denomina probabilidades estacionarias. En ellas es lo mismo el largo
plazo que el corto plazo, salvo que se conserva la memoria del estado inicial.
Sea una
cadena markov de dos estados con la matriz de probabilidades de transición dada
por:
P=
Calcule
la potencia novena para aproximar la matriz de probabilidades estacionarias:
P9=
Observe que las probabilidades estables de los diferentes
estados son independientes del estado de origen, razón por la cual de la matriz
de probabilidades estacionarias todas las filas son iguales. Se trata entonces
de una cadena de markov regular, en la que las probabilidades estacionarias no
dependen del estado inicial. Además, ninguna de las probabilidades tiene valor
0. Así es una cadena de Markov ergódica.
CADENA SEMIERGODICA.
En las
cadenas semiergódicas los comportamientos a largo y a corto plazo son
cualitativamente distintos. Hay estado transitorios que a largo plazo
desaparecerán y, por tanto, solo aparecerán mientras el sistema no haya
alcanzado su régimen permanente. Una vez que esto último se ha logrado, el
comportamiento de la cadena no difiere del caso ergódico si se hace abstracción
de los estados que ya no pueden aparecer.
Observe
ahora una cadena de Markov de cuatro estados, de matriz de probabilidades de
transición.
P=
Si se observa la matriz de la transición vigésimo cuarta,
todas las filas tienden a ser iguales y se aprecian bloques de determinadas
filas y columnas, con una diferencia importante respecto de la cadena ergódica:
hay estados cuya probabilidad de estabilidad tiene ser 0 (serán estado no
visitados en un comportamiento a largo plazo). Por tanto, no es una cadena
ergódica. Sin embargo, aún es cierto que todas las filas tienden hacia un mismo
valor, de modo que sigue siendo regular. Las cadenas de Markov regulares con
algunas de las columnas de la matriz que probabilidades estacionarias igual a 0
se llaman semiergódicas. Las cadenas ergódicas pueden considerarse como un caso
particular de las cadenas semiergódicas.
P24 =
CADENA NO ERGODICAS
En las
cadenas no ergódicas el comportamiento a largo plazo depende de la situación
inicial. Al contrario de lo que ocurre en las cadenas ergódicas y
semiergódicas, el comportamiento a largo plazo no está definido
cualitativamente, sino que será distinto según la clase final a la que se
dirigía el sistema. Ello significa que la probabilidad estacionaria de cada
estado depende de la situación inicial, que puede determinar si algunos estados
no se alcanzaran jamás si se parte de un cierto conjunto de estados.
Considere
de nuevo una cadena de Markov de cuatro estados con la siguiente matriz de
transición:
P=
Si observa la matriz de la transición trigésima, vera
que, mientras algunas filas tienen el mismo comportamiento que las de los casos
anteriores, otras tienden a ciertos valores, diferentes de los de las otras
filas. En concreto, el segundo estado es absorbente: ello quiere decir que, al
contrario de lo que sucede con el caso regular.
(TAHA, 2004)Cuando se dispone de clases recurrentes cíclicas se aprecia su carácter
cíclico a partir de una división de sus estados en p subclases, de manera que
la evolución de la cadena dentro de esta clase pasara sucesivamente por un
estado de la subclase 1, luego uno de la subclase 2, y así por el estilo, hasta
cíclicas, entonces, son un caso intermedio entre un sistema estocástico puro en
el que no se puede predecir su evolución más allá de la mera descripción
probabilística y el caso determinista en que la siguiente con exactitud, pero
sí que forma parte de un subconjunto bien determinado.
Todo ello quiere decir que la
interpretación de las probabilidades estacionarias es ligeramente distinta en
el caso acíclico. Si se observa el sistema en un momento cualquiera, la
probabilidad de hallarlo en uno u otro estado es, en efecto, la estacionaria;
sin embargo, ello es sólo consecuencia de no conocer el número de transiciones realizadas. Si se
conociera su módulo p de ciclicidad, las probabilidades serian distintas,
puesto que las potencias de P evolucionan cíclicamente.
Por ejemplo, la cadena de Markov tiene
la siguiente matriz de probabilidades de transición presenta un comportamiento
reincidente después de un número elevado de transiciones:
Estas cadenas son cíclicas. En este caso
particular, se tiene una cadena de periodo p=2-
Observe que la primera columna es
siempre 0, por lo que el primer estado desaparecerá en las probabilidades de
largo plazo; es decir, que la cadena no es ergódica, aunque está claro que
puede haber cadenas cíclicas ergódicas, como se verá en ejemplos posteriores.
Clasificación practica de las cadenas de Markov
Los casos que se han analizado son solo
algunos (lo mas importantes) de los que pueden ocurrir en la relación con la
clasificación de las cadenas de Markov. Con todo lo que se ha expuesto hasta
ahora, si se desea analizar el comportamiento a largo plazo de un proceso
estocástico que cumpla la propiedad markoviana, se necesita:
-
Una metodología para clasificar la cadena como ergódica o
no ergódica por una parte, y como regular, semirregular o cíclica por otra, al
examinar la matriz de probabilidades de transición.
-
Una metodología que permita el cálculo de la matriz de
probabilidades estacionarias.
La clasificación práctica de las cadenas
de Markov se lleva a cabo con dos métodos:
-
Análisis topológico; examinar las propiedades de los
estados de la cadena y establecer clases de equivalencia entre los estados.
-
Análisis espectral; examinar los valores propios de la
matriz de probabilidades de transición de un paso.
Una vez clasificada la cadena, debe
obtenerse información acerca de la forma que presenta la matriz de
probabilidades estacionarias, lo cual facilita su obtención.
Aplicación del análisis
espectral en la clasificación de cadenas
Si se conocen los valores propios de una
matriz de transición es factible observar ciertas propiedades de su cadena de
Markov relacionada con el análisis espectral, con base en la siguiente
propiedad general de las matrices estocásticas: los valores propios de una
matriz estocástica tienen modulo inferior o igual a 1.
Para detectar el número de clases
recurrentes y su periodicidad, el análisis espectral se basa en la acotación de
los autovalores de la matriz de transición y del hecho de que cada clase
recurrente de periodo p genera p valores propios de valor igual a las raíces
p-ésimas de 1. El resto de autovalores serán de módulo inferior a 1. En consecuencia, el número de clases
recurrentes será igual a la multiplicidad 1 como valor propio. De este modo, a
partir del examen de los valores propios de la matriz de probabilidades de
transición, se obtienen las siguientes conclusiones:
·
Una
cadena de Markov regular, tanto ergódica como semiergódica, tendrá un único
valor propio de 1. El resto de valores propios serán de modulo inferior a
1.
·
Una
cadena Markov semirregular tendrá un valor propio 1 múltiple, y el resto de
los valores propios será de modulo inferior a 1. La multiplicidad del valor
propio 1 será igual al número de clases recurrentes de la cadena.
·
Una
cadena de Markov cíclica (o policíclica) tendrá, entre sus valores propios,
uno o varios conjuntos de raíces p-ésimas de 1. Cada uno de esos conjuntos
revelará la presencia de una clase cíclica de periodo p.
|
El análisis espectral no permite hacer
deducciones acerca de las clases transitorias y por ello tampoco informa si se
trata de una cadena ergódica o no, sólo se deduce que si el valor propio +1 es
múltiple, será una cadena no ergódica y, en caso contrario, será ergódica o
semiergódica.
Ejemplo1
Aplique el análisis espectral a una
cadena de Markov con el siguiente conjunto de valores propios
Solución:
Se trata de una cadena de Markov cíclica
con una clase recurrente de periodo 1 y con una clase recurrente de periodo 2.
Dado que hay ocho valores propios, la cadena debe tener precisamente ocho
estados, pero no se sabe cuáles pertenecen a cada una de las dos clases
recurrentes o si hay o no alguno en clases transitorias. Sí se sabe que por
tratarse de una cadena mixta es un caso no ergódico.
Ejemplo 2
Aplique el análisis espectral a una
cadena de Markov con el siguiente conjunto de valores propios
Solución:
En este caso se trata de una cadena de
Markov con dos clases recurrentes, puesto que (como en la cadena anterior) la
multiplicidad de 1 es doble: una de las clases es de periodo 4, mientras que la
otra es de periodo 2 se repetirán alternativamente en las potencias pares e
impares de P, mientras que en la clase de periodo 4 se repetirán cada 4
potencias.
Cadenas absorbentes, matriz
fundamental
Un estado absorbente es aquel que forma
por sí solo una clase recurrente, por tanto, la probabilidad en una etapa de
regresar al mismo estado es 1. Una cadena absorbente será aquella en la que las
únicas clases recurrentes estarán formadas por estados absorbentes.
Cualquier cadena de Markov finita
verifica que, al margen del estado en que se inicie el proceso, la probabilidad
de que tras n etapas se encuentre en una clase recurrente tiende a 1 a medida
que n tiende a infinito.
Dada una cadena absorbente es posible
representar su matriz de transición según la siguiente forma canónica:
Donde 0 será la matriz nula, Q será la
matriz correspondiente a las transiciones entre estados transitorios, R serán
las probabilidades de transición de los estados transitorios a los estados
absorbentes y S será la matriz correspondiente a los estados absorbentes. En
caso de más de un estado absorbente, la matriz S será igual a la matriz
identidad.
Para las cadenas absorbentes se define
la matriz fundamental como
.
Esta matriz resulta importante debido a que representa el número medio de
etapas por las que el proceso transita hasta que es absorbido; ese valor es
infinito.
Ejemplo 3:
Imagine un proceso de producción en el
cual se fabrican piezas a partir de cuatro procesos. La pieza puede ser
defectuosa (con probabilidad 0.2), que deba repetirse el proceso(con
probabilidad 0.1) o que pase al siguiente proceso (con probabilidad 0.7)
Interprete la matriz fundamental.
Solución:
Los estados del proceso serán:
.
Los procesos se representan con los estados
,
,
,
inician con el
y concluyen en
. La matriz de transición correspondiente es:
La matriz fundamental es:
Su interpretación es la siguiente: una
pieza en el proceso
invertirá 1.1 etapa en ser absorbida (acabada
o rechazada); una pieza en el tercer proceso (
),
estará 1.11 etapas en concluir el proceso y 0.86 en el último proceso, y así
sucesivamente. Los ceros indican que una pieza no puede regresar a un proceso
anterior, siempre avanzara hacia adelante en su fabricación.
Algunas aplicaciones más importantes de
la matriz fundamental son:
·
Varianza
del tiempo medio en cada estado antes de la absorción:
·
Número
total de etapas de un estado particular hasta la absorción:
·
Varianza
del número total de etapas para pasar de un estado hasta la absorción:
·
Probabilidad
de que el proceso se inicie en un estado y acabe en otro absorbente:
|
HORARIOS DE ATENCIÓN
DÍAS Y ANOTACIONES DE CLIENTES
JUEVES
VIERNES
LUNES
JUEVES
|
0
|
1
|
3
|
TOTAL
|
|
0
|
II
|
II
|
I
|
5
|
1
|
II
|
0
|
0
|
2
|
3
|
0
|
I
|
0
|
1
|
P
|
0
|
1
|
3
|
|
0
|
0.40
|
0.40
|
0.20
|
|
1
|
1.00
|
0.00
|
0.00
|
|
3
|
0.00
|
1.00
|
0.00
|
|
P2
|
0
|
1
|
3
|
|
0
|
0.56
|
0.36
|
0.08
|
|
1
|
0.40
|
0.40
|
0.20
|
|
3
|
1.00
|
0.00
|
0.00
|
|
P4
|
0
|
1
|
3
|
|
0
|
0.54
|
0.35
|
0.12
|
|
1
|
0.58
|
0.30
|
0.11
|
|
3
|
0.56
|
0.36
|
0.08
|
|
P8
|
0
|
1
|
3
|
|
0
|
0.56
|
0.33
|
0.11
|
|
1
|
0.55
|
0.33
|
0.11
|
|
3
|
0.56
|
0.33
|
0.11
|
|
P16
|
0
|
1
|
3
|
|
0
|
0.56
|
0.33
|
0.11
|
|
1
|
0.56
|
0.33
|
0.11
|
|
3
|
0.56
|
0.33
|
0.11
|
|
La probabilidad de
tener 0 clientes es de 56%
|
||||
La probabilidad de
tener 1 clientes es de 33%
|
||||
La probabilidad de tener
3 clientes es de 11%
|
||||
0
|
1
|
2
|
TOTAL
|
|
0
|
II
|
II
|
0
|
4
|
1
|
0
|
0
|
II
|
2
|
2
|
II
|
0
|
0
|
2
|
P
|
0
|
1
|
2
|
|
0
|
0.50
|
0.50
|
0.00
|
|
1
|
0.00
|
0.00
|
1.00
|
|
2
|
1.00
|
0.00
|
0.00
|
|
P2
|
0
|
1
|
2
|
|
0
|
0.25
|
0.25
|
0.50
|
|
1
|
1.00
|
0.00
|
0.00
|
|
2
|
0.50
|
0.50
|
0.00
|
|
P4
|
0
|
1
|
2
|
|
0
|
0.56
|
0.31
|
0.13
|
|
1
|
0.25
|
0.25
|
0.50
|
|
2
|
0.63
|
0.13
|
0.25
|
|
P8
|
0
|
1
|
2
|
|
0
|
0.47
|
0.27
|
0.26
|
|
1
|
0.52
|
0.20
|
0.28
|
|
2
|
0.54
|
0.26
|
0.20
|
|
P16
|
0
|
1
|
2
|
|
0
|
0.50
|
0.25
|
0.25
|
|
1
|
0.50
|
0.25
|
0.25
|
|
2
|
0.50
|
0.25
|
0.25
|
|
La probabilidad de
tener 0 clientes es de 50%
|
||||
La probabilidad de
tener 1 clientes es de 25%
|
||||
La probabilidad de
tener 2 clientes es de 25%
|
LUNES
P
|
0
|
1
|
||
0
|
0.40
|
0.60
|
||
1
|
0.67
|
0.33
|
||
P2
|
0
|
1
|
||
0
|
0.56
|
0.44
|
||
1
|
0.49
|
0.51
|
||
P4
|
0
|
1
|
||
0
|
0.53
|
0.47
|
||
1
|
0.52
|
0.48
|
||
P8
|
0
|
1
|
||
0
|
0.53
|
0.47
|
||
1
|
0.53
|
0.47
|
||
La probabilidad de
tener 0 clientes es de 53%
|
||||
La probabilidad de
tener 1 clientes es de 47%
|
La probabilidad de
tener 0 clientes el día jueves es de 56%
La probabilidad de
tener 1 clientes el día jueves es de 33%
La probabilidad de
tener 3 clientes el día jueves es de 11%
La probabilidad de
tener 0 clientes el día viernes es de 50%
La probabilidad de
tener 1 clientes el día viernes es de 25%
La probabilidad de
tener 2 clientes el día viernes es de 25%
La probabilidad de
tener 0 clientes el día lunes es de 53%
La probabilidad de
tener 1 clientes el día lunes es de 47%
Bibliografía
BENITEZ, MARCO ANTONIO MONTAFUR. 2009. INVESTIGACIÓN DE
OPERACIONES. MEXICO : PATRIA, S.A. DE C.V, 2009.
TAHA, HAMDY A. 2004. INVESTIGACIÓN DE OPERACIONES.
MÉXICO : PEARSON EDUCIÓN DE MÉXICO S.A. DE C.V., 2004. 970-26-0498-2.
WINSTON, WAYNE L. 2011. INVESTIGACIÓN DE OPERACIONES.
MEXICO : CENGAGE Learning, 2011. 978-970-686-362-1.
ll
No hay comentarios:
Publicar un comentario