Los seguidores de Manolo

Martingalas

In Probabilidad y Estadística on Domingo 26, abril, 2009 at 12:39 pm

por Pablo Lessa

Este artículo es la continuación de este otro sobre esperanza condicional.

Nuestro objetivo es entender el concepto de martingala.

Ejemplos Básicos

Hay dos ejemplos básicos de martingala que son:  El paseo al azar, y esperanzas condicionales respecto a \sigma-álgebras cada vez más finas.

Para el primer ejemplo:  Tomemos Y_1, Y_2, \ldots independientes idénticamente distribuidas de modo que:

P(Y_n = 1) = P(Y_n = -1) = \frac{1}{2}

y luego definamos

X_n = Y_1 + \cdots + Y_n

Con estas definiciónes el proceso X_n es el clásico paseo al azar simétrico en \mathbb{Z} (empieza en cero y luego elige con igual probabilidad moverse un lugar a la derecha o un lugar a la izquierda).  Este es el ejemplo más básico de martingala en el que uno debe pensar.

El segundo ejemplo es como sigue:

Pongamos que X es una función continua del intervalo [0,1], y X_n la función escalonada que es constante en cada intervalo I_k = [\frac{k}{2^n},\frac{k+1}{2^n}] y vale:

2^n\int_{I_k}X(t)\mathrm{dt}

en I_k (cambiamos X por su valor medio en cada intervalo I_k).

Entonces considerando \Omega = [0,1] y P la medida de lebesgue, se tiene que X_n es una martingala.

En este segundo ejemplo lo que estamos haciendo es tomar esperanza condicional de una variable con respecto a \sigma-álgebras cada vez más finas.  Esto siempre genera una martingala.

Definicion Formal

Definición 1.

Sea \mathcal{F}_0 \subset \mathcal{F}_1 \subset \cdots una sucesión creciente de sub-\sigma-álgebras de los medibles en \Omega.

Una sucesión de variables de esperanza finita X_n es una \mathcal{F}_n-martingala si y solamente si para todo n se tiene que:

  1. X_n es \mathcal{F}_n medible
  2. E(X_n|\mathcal{F}_{n-1}) = X_{n-1}

El tema de las \sigma-álgebras es un poco molesto, y aparece para abarcar el último ejemplo de la sección anterior y algunas otras construcciones.

Noventa porciento de las veces se tiene \mathcal{F}_n es la \sigma-álgebra generada por X_0, X_1, \ldots, X_n. En la definición como está escrita se da la posibilidad de que \mathcal{F}_n sea un poco más grande que eso.

Una cosa para notar es que poniendo Y_n = X_n - X_{n-1} obtenemos la clásica:

X_n = X_0 + Y_1 + \cdots + Y_n

y si bien las Y_n no son independientes, cumplen:

E(Y_n|\mathcal{F}_{n-1}) = 0

Lo cual implica en particular:

E(Y_n|Y_1, \ldots, Y_{n-1}) = 0

O sea que en cierto sentido, una martingala es como un paseo al azar.  La martingala se obtiene sumando variables de esperanza cero que no necesariamente tienen la misma distribución, pero que cumplen cierto grado de “independencia en promedio”.

Submartingala

Sea X_n una martingala.  ¿Que podemos decir de X_n^+ (la parte positiva del proceso),  de |X_n|,  y de X_n^2?

La propiedad del valor absoluto para la esperanza condicional nos dice:

E(|X_n||\mathcal{F}_{n-1}) \ge |E(X_n|\mathcal{F}_{n-1})| = |X_{n-1}|

O sea que en particular la sucesión E(|X_n|) es creciente.

Los procesos que cumplen la desigualdad Y_n \le E(Y_{n+1}|\mathcal{F}_n) se llaman submartingalas.

La desigualdad de Jensen nos dice que si X_n es una martingala, la parte positiva X_n^+ es una submartingala.

Por último si asumimos que X_n^2 tiene esperanza finita para todo n se obtiene que también forma una submartingala.

Esto implica que en una martingala si bien todas las variables tienen la misma esperanza, se espera que la desviación o tamaño medio (en valor absoluto) de las variables va creciendo.  Esta observación resulta en diversos teoremas que reducen el estudio del tamaño o variación media de los primeros n términos de una martingala, al estudio del último término.

Tiempos de Parada

Empecemos con un ejemplo, sea X_n el paseo al azar simétrico en \mathbb{Z}.  Tomemos \tau el mínimo n > 0 tal que X_n = 0 (convengamos que si esto nunca sucede ponemos \tau = +\infty).

Se tiene que \tau es una variable aleatoria (depende de \omega) pero para saber que \tau = n sólamente necesitamos conocer X_0, \ldots, X_n (i.e. no necesitamos conocer el futuro del proceso X_{n+1}, \ldots).  Este es el concepto de tiempo de parada.

Cosas que suelen interesar son:

  • Propiedades del tiempo de parada, como el valor esperado por ejemplo (para responder preguntas como: ¿cuanto tiempo demoramos en volver a cero en promedio?)
  • La variable X_\tau que consiste en mirar X_n exáctamente en el instante \tau (en el ejemplo X_\tau es cero así que no es muy interesante).

Un tiempo de parada es una variable aleatoria \tau con valores naturales que se construye a partir de una martingala X_n y que cumple la siguiente propiedad:

  • Para todo n \ge 0 el evento \{\tau = n\} es \mathcal{F}_n medible.

La construcción más típica para un tiempo de parada es:

\tau = \text{min}\{n \ge 0: X_n \in A\}

donde A \subset \mathbb{R} es algún boreliano.

Dado un tiempo de parada \tau la variable X_\tau se define en la manera obvia:

X_\tau = \sum_n X_n 1_{\{\tau = n\}}

donde 1_A es la variable que vale 1 en el conjunto A \subset \Omega y cero en el complemento.

Paseo al azar en \mathbb{Z}

Para ilustrar los conceptos anteriores voy a incluir una pequeña demostración que hice de un hecho bien conocido sobre el paseo al azar.  También puede ser interesante mirar la demostración del teorema de parada opcional de Doob que bosqueje en este artículo.

Teorema.

Sea X_n un paseo al azar simétrico en \mathbb{Z}.  Entonces X_n = 0 para infinitos n.

Demostración. Tomemos la siguiente sucesión de tiempos de parada:

\tau_0 = 1

\tau_1 = \text{min}\{n: |X_n| = 2\}

\tau_2 = \text{min}\{n: |X_n| = 4\}

\tau_3 = \text{min}\{n: |X_n| = 8\}

y en general

\tau_k = \text{min}\{n: |X_n| = 2^k\}

Se tiene que los tiempos de parada son crecientes, y todos son finitos en un conjunto de probabilidad uno (voy a utilizar, sin demostración,  el hecho de que el paseo al azar es no acotado con probabilidad 1).

La variable X_{\tau_k} vale 2^k o -2^k.  Supongamos que vale 2^k (el otro caso es simétrico).   Se tiene entonces que X_{\tau_k} está en el punto medio del intervalo [0,2^{k+1}].

Tiene probabilidad \frac{1}{2} de salirse de este intervalo por el lado izquierdo o por el lado derecho.  Por lo tanto definiendo:

Z_k = 1_{\{\text{existe } \tau_k < n < \tau_{k+1}: X_n = 0\}}

se tiene que

P(Z_k = 1) = P(Z_k = 0) = \frac{1}{2}

Además el valor de Z_k es independiente de todo lo que pasó antes del tiempo \tau_k.  O sea que las Z_k son independientes (habría que justificar con una cuenta acá, pero no lo voy a hacer).

La situación entonces es que tenemos Z_k variables aleatorias independientes idénticamente distribuidas con probabilidad \frac{1}{2} de valer 1 y cada vez que lo hacen obtenemos un n con X_n = 0.   Como con probabilidad 1 se tiene que Z_k = 1 infinitas veces (de hecho la mitad de las veces por la ley de grandes números) se obtiene el resultado deseado\Box

  1. […] Coloquio Oleis los seguidores de Manolo « Martingalas […]

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: