From 0546892101be98ca2836b127c7d489ea15c5e7a3 Mon Sep 17 00:00:00 2001 From: Jean Montero Date: Tue, 27 May 2025 23:37:18 -0600 Subject: [PATCH 1/4] =?UTF-8?q?Se=20realiza=20la=20transcripci=C3=B3n=20ha?= =?UTF-8?q?sta=20la=20p=C3=A1gina=205=20del=20documento=20de=20latex;=20se?= =?UTF-8?q?=20realiza=20push=20para=20comprobar=20el=20estado=20de=20la=20?= =?UTF-8?q?transcripci=C3=B3n?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/5_18_1_definicion_markov.md | 73 +++++++++++++++++++++++++++++--- 1 file changed, 68 insertions(+), 5 deletions(-) diff --git a/docs/5_18_1_definicion_markov.md b/docs/5_18_1_definicion_markov.md index ab245d5..127bead 100644 --- a/docs/5_18_1_definicion_markov.md +++ b/docs/5_18_1_definicion_markov.md @@ -1,7 +1,70 @@ -### Presentación +!!! Introducción -[18 - Cadenas de Markov en tiempo contínuo](https://www.overleaf.com/read/wmkypgnzztdn#38decd) + Muchos fenómenos del mundo real pueden ser modelados como una secuencia de **transiciones** de un **estado** a otro, donde cada transición tiene una incertidumbre asociada. -### Secciones -- Ejemplo de cadenas de Markov (1 - 4) -- Deducción a partir de la distribución exponencial (5 - 10) \ No newline at end of file +# Definición de cadenas de Markov + +## Ejemplos de "cadenas de Markov" I + +* Un modelo simplista del tiempo atmosférico en un lugar está dado por la secuencia temporal {X1, X2, X3, ...}, donde Xi tiene los dos únicos valores 0 ("seco") y 1 ("lluvioso"). + +![](18_modelo_simplista_tiempo.svg) + +* Los precios de las acciones de una empresa tienen una incertidumbre respecto a si el precio va a hacer una *transición* hacia un valor mayor o menor. + +!!! note "" + + En ambos casos, las **transiciones** pueden modelarse de manera probabilística y es crucial el conocimiento del estado actual. Las cadenas o procesos de Markov son un modelo de *dependencia*. + +## Ejemplos de "cadenas de Markov" II + +**Otros ejemplos de aplicaciones** +* Predicción de cambios en la demanda de electricidad +* Modelado del movimiento de insectos +* Monitoreo del uso de camillas en hospitales +* Personas que cambian de servicio celular +* Monitoreo de patrones de navegación web para proveer anuncios personalizados + +## La propiedad de Markov + +* Las cadenas de Markov son **procesos estocásticos** que cumplen la *propiedad de Markov*. +* Informalmente, esta propiedad establece que los estados futuros dependen únicamente del estado actual, y no de la secuencia de estados para llegar ahí. De algún modo, “trunca la memoria”. + +!!! note "Propiedad de Markov o de la falta de memoria" + + Formalmente, es una *probabilidad* condicional de la forma + + \begin{equation} + P(Xn = x | X0, ... , Xn-1) = P(Xn = x | Xn-1), ∀n, ∀x + \end{equation} + +## Ejemplo de taxis en diferentes zonas de una ciudad I + +Una ciudad tiene tres diferentes “zonas”, numeradas 1, 2 y 3, y los taxis operan en todas +las zonas. + +![](18_estados_zonas.svg) + +La probabilidad de que el próximo pasajero vaya hacia una zona particular depende de ¿Dónde abordó el taxi? + +# Deducción a partir de la distribución exponencial + +## La distribución exponencial como “tiempo de vida” + +!!! note"" + + La distribución exponencial es la típica caracterización de la probabilidad de los tiempos de espera (o “de vida”). + +Si T es el tiempo de vida de un componente que está exponencialmente distribuido con parámetro α, entonces T tiene densidad + +begin{equation} + f_{T}(t) = + \begin{cases} + 0 & t < 0 \\ + \alpha e^{-\alpha t} & t > 0 + \end{cases} +\end{equation} + +La media de T es el recíproco del parámetro α, E[T ] = 1/α . +* La variable aleatoria T tiene la *propiedad de falta de memoria* +* “No importa la antigüedad del componente, este opera como si fuera nuevo”. From e326cac36fdbf95a51a11609364d329440590c59 Mon Sep 17 00:00:00 2001 From: Jean Montero Date: Wed, 28 May 2025 11:21:18 -0600 Subject: [PATCH 2/4] =?UTF-8?q?Se=20realiza=20la=20finalizaci=C3=B3n=20de?= =?UTF-8?q?=20la=20transpci=C3=B3n=20solicitada,=20adem=C3=A1s=20se=20real?= =?UTF-8?q?iza=20el=20push=20para=20verificar=20si=20se=20tiene=20que=20re?= =?UTF-8?q?alizar=20alg=C3=BAn=20cambio=20a=20causa=20de=20errores=20de=20?= =?UTF-8?q?escritura?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/5_18_1_definicion_markov.md | 81 +++++++++++++++++++++++++++++++- 1 file changed, 79 insertions(+), 2 deletions(-) diff --git a/docs/5_18_1_definicion_markov.md b/docs/5_18_1_definicion_markov.md index 127bead..4ca2fef 100644 --- a/docs/5_18_1_definicion_markov.md +++ b/docs/5_18_1_definicion_markov.md @@ -55,7 +55,7 @@ La probabilidad de que el próximo pasajero vaya hacia una zona particular depen La distribución exponencial es la típica caracterización de la probabilidad de los tiempos de espera (o “de vida”). -Si T es el tiempo de vida de un componente que está exponencialmente distribuido con parámetro α, entonces T tiene densidad +Si *T* es el tiempo de vida de un componente que está exponencialmente distribuido con parámetro α, entonces *T* tiene densidad begin{equation} f_{T}(t) = @@ -65,6 +65,83 @@ begin{equation} \end{cases} \end{equation} -La media de T es el recíproco del parámetro α, E[T ] = 1/α . +La media de *T* es el recíproco del parámetro α, *E*[T ] = 1/α . * La variable aleatoria T tiene la *propiedad de falta de memoria* * “No importa la antigüedad del componente, este opera como si fuera nuevo”. + +## Propiedad de falta de memoria de la distribución exponencial + +La propiedad de falta de memoria, matemáticamente, se escribe[^1] como + +P(T>t+s|T>t) = P(T>s) + +para tiempos *t*, *s* ≥ 0. También se tiene que + +P(T>t) = e^(−αt) + +para *t* ≥ 0 (porque *FT* (t) = 1 − e(−αt) ). + +A partir de estas definiciones, se determinan dos casos específicos. + +[^1]: Por ejemplo, T podría ser “el tiempo de espera de un autobús”, y s = 5 min y t = 30 min. + +## Primer hecho I +### Densidad de la variable mínima de un conjunto de variables aleatorias + +* Supóngase que *T1*, *T2*, . . ., *Tn* son variables aleatorias independientes, cada una +distribuida exponencialmente. Supóngase que *Ti* tiene parámetro *αi*. +* Suponga *N* componentes que se “conectan” (o “inician su operación conjunta”) al tiempo *t* = 0. +* *Ti* es el tiempo de vida del *i*-ésimo componente. +* Sea *M* el mínimo de todos los tiempos *Ti* ’s de los componentes. *M* es el tiempo en que el primer componente falla. +* *M* es una variable aleatoria. + +## Primer hecho II +### Densidad de la variable mínima de un conjunto de variables aleatorias + +* Sea *t* ≥ 0. Entonces *M* = min{*T1*, . . . , *TN*} es más grande que *t* si y solo si **todo** Ti > t. + +\begin{equation} +\begin{aligned} + P(M > t) & = P(\min\{T_{1}, T_{2}, \ldots, T_{N}\} > t) \\ + & = P(T_{1} > t, T_{2} > t, \ldots, T_{N} > t) \\ + & = e^{-\alpha_{1}t}\cdot e^{-\alpha_{2}t} \cdots e^{-\alpha_{N}t} \\ + & = e^{-(\alpha_{1} +\alpha_{2} + \ldots +\alpha_{N})t} +\end{aligned} +\end{equation} + +!!! note"" + + *M* está exponencialmente distribuida con parámetro α1 + α2 + . . . + αN y valor medio 1/(α1 + α2 + . . . + αN ). + +## Segundo hecho I +### Probabilidad de que un componente dado sea el que falle + +Ante la pregunta, + *¿Cuál es la probabilidad de que, cuando el primer fallo suceda, sea el componente + j-ésimo?* + +!!! note"" + + La probabilidad de que entre las *N* variables aleatorias *Ti* el mínimo sea *Tj* está dada por la expresión + + \begin{equation} + P(T_{j} = \min \{T_{1}, T_{2}, \ldots, T_{N}\}) = \frac{\alpha_{j}}{\alpha_{1} + \alpha_{2} + \cdots + \alpha_{N}} + \end{equation} + +## Segundo hecho II +### Probabilidad de que un componente dado sea el que falle + +**Prueba para dos variables aleatorias** +Si *T1* y *T2* son independientes y distribuidos exponencialmente con parámetros +respectivos α y β: *fT1,T2* (*t1*, *t2*) = αe^(−α*t1*) βe^(−β*t2*) , para *t1*, *t2* > 0. Con *t1* y *t2* +correspondientes a *T1* y *T2*: + +\begin{equation} +\begin{aligned} + P(T_{1} = \min\{T_{1}, T_{2}\}) & = P(T_{1} < T_{2}) \\ + & = \iint_{T_1 < T_2} f_{T_{1}, T_{2}}(t_{1},t_{2}) \di{t_1} \di{t_2} \\ + & = \int_{0}^{\infty}\int_{0}^{t_{2}}\alpha e^{-\alpha t_{1}}\beta e^{-\beta t_{2}} \di{t_1} \di{t_2} \\ + & = \int_{0}^{\infty}(1 - e^{-\alpha t_{2}})\beta e^{-\beta t_{2}} \di{t_2} \\ + & = 1 - \frac{\beta}{\alpha + \beta} = \frac{\alpha}{\alpha + \beta} +\end{aligned} +\end{equation} \ No newline at end of file From 4643b61ea351d78a22d00724f7d9faff1db196f5 Mon Sep 17 00:00:00 2001 From: Jean Montero Date: Wed, 28 May 2025 11:26:29 -0600 Subject: [PATCH 3/4] =?UTF-8?q?Se=20cambia=20parte=20del=20c=C3=B3digo=20y?= =?UTF-8?q?a=20que=20en=20las=20ecuaciones=20de=20la=20diapositiva=20se=20?= =?UTF-8?q?tiene=20que=20no=20se=20estaba=20usando=20~\mathrm{d}=20x?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/5_18_1_definicion_markov.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/5_18_1_definicion_markov.md b/docs/5_18_1_definicion_markov.md index 4ca2fef..c98bb9c 100644 --- a/docs/5_18_1_definicion_markov.md +++ b/docs/5_18_1_definicion_markov.md @@ -139,9 +139,9 @@ correspondientes a *T1* y *T2*: \begin{equation} \begin{aligned} P(T_{1} = \min\{T_{1}, T_{2}\}) & = P(T_{1} < T_{2}) \\ - & = \iint_{T_1 < T_2} f_{T_{1}, T_{2}}(t_{1},t_{2}) \di{t_1} \di{t_2} \\ - & = \int_{0}^{\infty}\int_{0}^{t_{2}}\alpha e^{-\alpha t_{1}}\beta e^{-\beta t_{2}} \di{t_1} \di{t_2} \\ - & = \int_{0}^{\infty}(1 - e^{-\alpha t_{2}})\beta e^{-\beta t_{2}} \di{t_2} \\ + & = \iint_{T_1 < T_2} f_{T_{1}, T_{2}}(t_{1},t_{2}) ~\mathrm{d} t_1 ~\mathrm{d} t_2 \\ + & = \int_{0}^{\infty}\int_{0}^{t_{2}}\alpha e^{-\alpha t_{1}}\beta e^{-\beta t_{2}} ~\mathrm{d} t_1 ~\mathrm{d} t_2 \\ + & = \int_{0}^{\infty}(1 - e^{-\alpha t_{2}})\beta e^{-\beta t_{2}} ~\mathrm{d} t_2 \\ & = 1 - \frac{\beta}{\alpha + \beta} = \frac{\alpha}{\alpha + \beta} \end{aligned} \end{equation} \ No newline at end of file From 404270daba8a5c884cd2053c356de80c82705870 Mon Sep 17 00:00:00 2001 From: Jean Montero Date: Thu, 12 Jun 2025 21:02:29 -0600 Subject: [PATCH 4/4] =?UTF-8?q?Se=20realiza=20una=20revisi=C3=B3n=20de=20l?= =?UTF-8?q?os=20cambios=20recomendados=20a=20realizar,=20de=20tal=20modo?= =?UTF-8?q?=20que=20se=20realiza=20una=20correcci=C3=B3n=20de=20los=20mism?= =?UTF-8?q?os=20para=20su=20revisi=C3=B3n?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/5_18_1_definicion_markov.md | 120 +++++++++++++++---------------- 1 file changed, 57 insertions(+), 63 deletions(-) diff --git a/docs/5_18_1_definicion_markov.md b/docs/5_18_1_definicion_markov.md index c98bb9c..e3d79e3 100644 --- a/docs/5_18_1_definicion_markov.md +++ b/docs/5_18_1_definicion_markov.md @@ -1,14 +1,10 @@ -!!! Introducción - - Muchos fenómenos del mundo real pueden ser modelados como una secuencia de **transiciones** de un **estado** a otro, donde cada transición tiene una incertidumbre asociada. - # Definición de cadenas de Markov -## Ejemplos de "cadenas de Markov" I +## Ejemplos de "cadenas de Markov" * Un modelo simplista del tiempo atmosférico en un lugar está dado por la secuencia temporal {X1, X2, X3, ...}, donde Xi tiene los dos únicos valores 0 ("seco") y 1 ("lluvioso"). -![](18_modelo_simplista_tiempo.svg) +![](/docs/images/18_modelo_simplista_tiempo.svg) * Los precios de las acciones de una empresa tienen una incertidumbre respecto a si el precio va a hacer una *transición* hacia un valor mayor o menor. @@ -16,8 +12,6 @@ En ambos casos, las **transiciones** pueden modelarse de manera probabilística y es crucial el conocimiento del estado actual. Las cadenas o procesos de Markov son un modelo de *dependencia*. -## Ejemplos de "cadenas de Markov" II - **Otros ejemplos de aplicaciones** * Predicción de cambios en la demanda de electricidad * Modelado del movimiento de insectos @@ -32,18 +26,19 @@ !!! note "Propiedad de Markov o de la falta de memoria" - Formalmente, es una *probabilidad* condicional de la forma - - \begin{equation} - P(Xn = x | X0, ... , Xn-1) = P(Xn = x | Xn-1), ∀n, ∀x - \end{equation} + Formalmente, es una *probabilidad condicional* de la forma + + \[ + P(X_n = x \mid X_0, \dots, X_{n-1}) = P(X_n = x \mid X_{n-1}), \quad \forall n, \forall x + \] + ## Ejemplo de taxis en diferentes zonas de una ciudad I Una ciudad tiene tres diferentes “zonas”, numeradas 1, 2 y 3, y los taxis operan en todas las zonas. -![](18_estados_zonas.svg) +![](/docs/images/18_estados_zonas.svg) La probabilidad de que el próximo pasajero vaya hacia una zona particular depende de ¿Dónde abordó el taxi? @@ -51,41 +46,45 @@ La probabilidad de que el próximo pasajero vaya hacia una zona particular depen ## La distribución exponencial como “tiempo de vida” -!!! note"" +!!! note "" La distribución exponencial es la típica caracterización de la probabilidad de los tiempos de espera (o “de vida”). Si *T* es el tiempo de vida de un componente que está exponencialmente distribuido con parámetro α, entonces *T* tiene densidad -begin{equation} - f_{T}(t) = - \begin{cases} - 0 & t < 0 \\ - \alpha e^{-\alpha t} & t > 0 - \end{cases} -\end{equation} +\[ +f_{T}(t) = +\begin{cases} + 0 & \text{si } t < 0 \\ + \alpha e^{-\alpha t} & \text{si } t > 0 +\end{cases} +\] -La media de *T* es el recíproco del parámetro α, *E*[T ] = 1/α . +La media de *T* es el recíproco del parámetro $\alpha$, $E[T] = \frac{1}{\alpha}$. * La variable aleatoria T tiene la *propiedad de falta de memoria* * “No importa la antigüedad del componente, este opera como si fuera nuevo”. ## Propiedad de falta de memoria de la distribución exponencial -La propiedad de falta de memoria, matemáticamente, se escribe[^1] como +La propiedad de falta de memoria, matemáticamente, se escribe como -P(T>t+s|T>t) = P(T>s) +\[ +P(T > t + s \mid T > t) = P(T > s) +\] -para tiempos *t*, *s* ≥ 0. También se tiene que +para tiempos \( t, s \geq 0 \). También se tiene que -P(T>t) = e^(−αt) +\[ +P(T > t) = e^{-\alpha t} +\] -para *t* ≥ 0 (porque *FT* (t) = 1 − e(−αt) ). +para \( t \geq 0 \) (porque \( F_T(t) = 1 - e^{-\alpha t} \)). A partir de estas definiciones, se determinan dos casos específicos. [^1]: Por ejemplo, T podría ser “el tiempo de espera de un autobús”, y s = 5 min y t = 30 min. -## Primer hecho I +## Primer hecho ### Densidad de la variable mínima de un conjunto de variables aleatorias * Supóngase que *T1*, *T2*, . . ., *Tn* son variables aleatorias independientes, cada una @@ -95,53 +94,48 @@ distribuida exponencialmente. Supóngase que *Ti* tiene parámetro * * Sea *M* el mínimo de todos los tiempos *Ti* ’s de los componentes. *M* es el tiempo en que el primer componente falla. * *M* es una variable aleatoria. -## Primer hecho II -### Densidad de la variable mínima de un conjunto de variables aleatorias - -* Sea *t* ≥ 0. Entonces *M* = min{*T1*, . . . , *TN*} es más grande que *t* si y solo si **todo** Ti > t. +* Sea *t* ≥ 0. Entonces *M* = min{*T1*, . . . , *TN*} es más grande que *t* si y solo si **todo** \(T_i > t\). -\begin{equation} +\[ \begin{aligned} - P(M > t) & = P(\min\{T_{1}, T_{2}, \ldots, T_{N}\} > t) \\ - & = P(T_{1} > t, T_{2} > t, \ldots, T_{N} > t) \\ - & = e^{-\alpha_{1}t}\cdot e^{-\alpha_{2}t} \cdots e^{-\alpha_{N}t} \\ - & = e^{-(\alpha_{1} +\alpha_{2} + \ldots +\alpha_{N})t} -\end{aligned} -\end{equation} + P(M > t) &= P\left( \min\{T_{1}, T_{2}, \ldots, T_{N}\} > t \right) \\ + &= P(T_{1} > t, T_{2} > t, \ldots, T_{N} > t) \\ + &= e^{-\alpha_{1}t} \cdot e^{-\alpha_{2}t} \cdots e^{-\alpha_{N}t} \\ + &= e^{-(\alpha_{1} + \alpha_{2} + \ldots + \alpha_{N})t} +\end{aligned} +\] -!!! note"" +!!! note "" - *M* está exponencialmente distribuida con parámetro α1 + α2 + . . . + αN y valor medio 1/(α1 + α2 + . . . + αN ). + *M* está exponencialmente distribuida con parámetro \(α_1 + α_2 + . . . + α_N\) y valor medio \(1/(α_1 + α_2 + . . . + α_N\)). -## Segundo hecho I +## Segundo hecho ### Probabilidad de que un componente dado sea el que falle Ante la pregunta, - *¿Cuál es la probabilidad de que, cuando el primer fallo suceda, sea el componente - j-ésimo?* + *¿Cuál es la probabilidad de que, cuando el primer fallo suceda, sea el componente j-ésimo?* -!!! note"" +!!! note "" La probabilidad de que entre las *N* variables aleatorias *Ti* el mínimo sea *Tj* está dada por la expresión - \begin{equation} - P(T_{j} = \min \{T_{1}, T_{2}, \ldots, T_{N}\}) = \frac{\alpha_{j}}{\alpha_{1} + \alpha_{2} + \cdots + \alpha_{N}} - \end{equation} - -## Segundo hecho II -### Probabilidad de que un componente dado sea el que falle + \[ + P\left( T_{j} = \min \{T_{1}, T_{2}, \ldots, T_{N}\} \right) = \frac{\alpha_{j}}{\alpha_{1} + \alpha_{2} + \cdots + \alpha_{N}} + \] **Prueba para dos variables aleatorias** -Si *T1* y *T2* son independientes y distribuidos exponencialmente con parámetros -respectivos α y β: *fT1,T2* (*t1*, *t2*) = αe^(−α*t1*) βe^(−β*t2*) , para *t1*, *t2* > 0. Con *t1* y *t2* -correspondientes a *T1* y *T2*: -\begin{equation} +Si \( T_1 \) y \( T_2 \) son independientes y distribuidos exponencialmente con parámetros respectivos \( \alpha \) y \( \beta \): \(f_{T_1, T_2}(t_1, t_2) = \alpha e^{-\alpha t_1} \beta e^{-\beta t_2}, \quad \text{para } t_1, t_2 > 0. +\) + +Con \( t_1 \) y \( t_2 \) correspondientes a \( T_1 \) y \( T_2 \): + +\[ \begin{aligned} - P(T_{1} = \min\{T_{1}, T_{2}\}) & = P(T_{1} < T_{2}) \\ - & = \iint_{T_1 < T_2} f_{T_{1}, T_{2}}(t_{1},t_{2}) ~\mathrm{d} t_1 ~\mathrm{d} t_2 \\ - & = \int_{0}^{\infty}\int_{0}^{t_{2}}\alpha e^{-\alpha t_{1}}\beta e^{-\beta t_{2}} ~\mathrm{d} t_1 ~\mathrm{d} t_2 \\ - & = \int_{0}^{\infty}(1 - e^{-\alpha t_{2}})\beta e^{-\beta t_{2}} ~\mathrm{d} t_2 \\ - & = 1 - \frac{\beta}{\alpha + \beta} = \frac{\alpha}{\alpha + \beta} -\end{aligned} -\end{equation} \ No newline at end of file +P\left( T_1 = \min\{T_1, T_2\} \right) &= P(T_1 < T_2) \\ +&= \iint_{T_1 < T_2} f_{T_1, T_2}(t_1, t_2) \, dt_1 \, dt_2 \\ +&= \int_{0}^{\infty} \int_{0}^{t_2} \alpha e^{-\alpha t_1} \beta e^{-\beta t_2} \, dt_1 \, dt_2 \\ +&= \int_{0}^{\infty} \left( 1 - e^{-\alpha t_2} \right) \beta e^{-\beta t_2} \, dt_2 \\ +&= 1 - \frac{\beta}{\alpha + \beta} = \frac{\alpha}{\alpha + \beta}. +\end{aligned} +\] \ No newline at end of file