Concepto y características
Los procesos estocásticos o funciones aleatorias son, dicho de una manera sencilla, variables aleatorias que dependen de un parámetro que se interpreta normalmente como una representación del tiempo o el espacio. Este parámetro se denomina argumento de la función o del proceso, y puede haber varios. En caso de argumento temporal, t, este representará instantes de tiempo; en caso de argumento espacial, s, sus valores harán referencia a localizaciones espaciales. En lo que sigue se utilizará el espacio como argumento, debido a la creciente importancia de los procesos estocásticos espaciales en la actualidad.
Así, si X(s) es un proceso estocástico y "s" (la localización espacial) es el argumento del mismo, para cada valor de "s" se tiene una variable aleatoria o sección del proceso; dichas variables o secciones no tienen por qué ser independientes. Una muestra tal que de cada una de las variables aleatorias se toma un valor es una realización del proceso estocástico.
A modo de ejemplo, si X es la variable aleatoria "precio del metro cuadrado de la vivienda" y "s" representa la ubicación espacial, se tiene que:
- — X(s0) es la variable aleatoria "precio del metro cuadrado de la vivienda en la localización s0".
- — X(s1) es la variable aleatoria "precio del metro cuadrado de la vivienda en la localización s1".
- — y así sucesivamente.
Entonces X(s) es un proceso estocástico o función aleatoria de las localizaciones si, y x(s1), x(s2), ..., x(sn) son realizaciones de dicho proceso.
Las características fundamentales de un proceso estocástico son su esperanza, varianza, función de autocovarianza y función de autocorrelación.
Se define esperanza matemática de un proceso X(s) (también se podría haber utilizado el tiempo como argumento) a una función no aleatoria, μ(s) = E[X(s)], tal que, para cualquier valor del argumento s, coincide con la esperanza matemática de la variable aleatoria correspondiente a dicha localización s. Es decir, si para s = si, μ(si = E (X[s1)] ∀ si ∈ D, siendo D el dominio que comprende todos los posibles valores de s.
Se denomina varianza del proceso X(s), a una función no aleatoria, σ2[X(s)], tal que, para cualquier valor del argumento s, coincide con la varianza de la variable aleatoria correspondiente a dicha localización s. Es decir, si para s = si, σ2 (si) = V[X(si)] ∀ si ∈ D, siendo D el dominio que comprende todos los posibles valores de s. Su raíz cuadrada recibe el nombre de desviación típica del proceso.
Se define función de autocovarianza del proceso estocástico X(s), C(si, sj) = C[X(si), X(sj)], a una función no aleatoria de dos argumentos (si y sj), tal que, para cualquier par de localizaciones si y sj, coincide con la covarianza de las variables aleatorias correspondientes a dichas localizaciones si y sj. Es decir, si para s = si, C (si, sj) = C[X(si), X(sj)] ∀ si, sj ∈ D, siendo D el dominio que comprende todos los posibles valores de si y sj.
La función de autocorrelación del proceso se obtiene sin más que dividir la función de autocovarianza por el producto de las desviaciones típicas de X (si) y X (sj).
Veamos un ejemplo numérico para aclarar los anteriores conceptos: Considérese el proceso estocástico X(s) = s ξ + η, siendo ξ y η independientes, tal que sus funciones de cuantía son las siguientes:
ξ=xi | P(ξ=xi) | | η=yi | P(η=yi) |
0'5 | 1/3 | | 1 | 1/2 |
1 | 1/3 | | 2 | 1/2 |
1'5 | 1/3 | | | |
Se trata de obtener los puntos elementales o realizaciones del proceso, su esperanza, varianza, función de autocovarianza y función de autocorrelación.
La distribución de probabilidad conjunta de ξ y η viene dada por:
η | 2 | 1/6 | 1/6 | 1/6 |
| 1 | 1/6 | 1/6 | 1/6 |
| | 0'5 | 1 | 1'5 |
| ξ |
y los puntos elementales, sucesos, realizaciones o trayectorias del proceso X(s) = s ξ1 + η son:
X(s) = 0,5s + 1
X(s) = 0,5s + 2
X s) = 1s + 1
X(s) = 1s + 2
X(s) = 1,5s + 1
X(s) = 1,5s + 2
todas ellas con probabilidad 1/6.
Por tanto, son funciones de "s" para cada par de valores (xi; yj), es decir, para cada comportamiento elemental de (ξ;η). Si, por ejemplo, "s" son los números de los inmuebles de una calle de Madrid, y X es el precio del metro cuadrado de la vivienda, y se toma una muestra de 10 precios (uno en cada inmueble), se tiene una probabilidad de 1/6 de obtener los precios de cualquiera de las 6 trayectorias.
En la Figura 1, se aprecia que si, por ejemplo, s = 1, se tiene la variable aleatoria X(s1) cuyos valores son los puntos que hay en su vertical, todos ellos con probabilidad 1/6 (la de la correspondiente trayectoria).
Las variables aleatorias correspondientes a s = 1 y s = 2 tienen la siguiente distribución de probabilidad:
Z(s=1) | Prob. | | Z(s=2) | Prob. |
1,5 | 1/6 | | 2 | 1/6 |
2 | 1/6 | | 3 | 2/6 |
2,5 | 2/6 | | 4 | 2/6 |
3 | 1/6 | | 5 | 1/6 |
3,5 | 1/6 | | | |
La esperanza del proceso o función aleatoria es:
E [X(s)] = (0,5 s + 1) ·1/6 + (0,5 s + 2) · 1/6 + (s +1) · 1/6 + (s +2) · 1/6 + (1,5 s +1) · 1/6 + (1,5 s +1) · 1/6 = s + 1,5
Por tanto:
E [X(s=1)] = 2,5
E [X(s=2)] = 3,5
E [X(s=3)] = 4,5
E [X(s=4)] = 5,5
E [X(s=5)] = 6,5
E [X(s=6)] = 7,5
y así sucesivamente. Al no ser constante la esperanza se dice que el proceso tiene deriva o tendencia.
La varianza del proceso estocástico o función aleatoria es:
V [X(s)] = [(0,5 s + 1) - (s + 1,5)]2 · 1/6 + [(0,5 s + 2) - (s + 1,5)]2 · 1/6 + [(s+1) - (s + 1,5)]2 · 1/6 + [(s +2) - (s + 1,5)] 2 · 1/6 + [(1,5 s +1) - (s + 1,5)]2 · 1/6 + [(1,5 s +1) - (s + 1,5)]2 · 1/6 = 1/6 s2 + 0,25
Así, por ejemplo,
V [X (s=1)] = 0,417, V [X (s=2)] = 0,917 y V [X (s=3)] = 1,75.
Igualmente podrían calcularse V [X(s=4)], V [X(s=5)], etc. Si la varianza no es constante se dice que existe heteroscedasticidad.
La función de autocovarianza del proceso se elabora a partir de la tabla:
(ξ;η) | X(si) | X(sj) | Probabilidad |
(0,5;1) | 0,5 si + 1 | 0,5 sj + 1 | 1/6 |
(0,5;2) | 0,5 si + 2 | 0,5 sj + 2 | 1/6 |
(1;1) | si + 1 | sj + 1 | 1/6 |
(1;2) | si + 2 | sj + 2 | 1/6 |
(1,5;1) | 1,5 si + 1 | 1,5 sj + 1 | 1/6 |
(1,5;2) | 1,5 si + 2 | 1,5 sj + 2 | 1/6 |
Entonces:
C(si; sj) = α11 - α10 · α01, siendo α los correspondientes momentos respecto al origen.
α11 = (0,5 si +1) · (0,5 sj +1) · 1/6 + (0,5 si +2) · (0,5 sj +2) · 1/6 + (si +1) · (sj +1)· 1/6 + ( si +2) · ( sj +2) · 1/6 + (1,5 si +1) · (1,5 sj +2) · 1/6 + (1,5 si +2) · (1,5 sj +2) · 1/6 = [7 si · sj + 9 si + 9 sj + 15] · 1/6
α10 = si + 1,5
α01 = sj + 1,5
Por consiguiente:
C(si; sj) = α11 - α10 · α0 = [si · sj + 1,5] · 1/6
Así, por ejemplo:
C [X(s=1); X(s=6)] = [1 · 6 + 1,5 ] · 1/6 = 1,25
C [X(s=1); X(s=2)] = [1 · 2 + 1,5 ] · 1/6 = 0,583
La función de autocorrelación del proceso es
Tipología básica de procesos estocásticos
En lo que sigue continuaremos tomando como argumento el espacio, debido, como ya se avanzó anteriormente, a la importancia que este tiene actualmente en el estudio de numerosas disciplinas. Inicialmente se considerarán los procesos estacionarios, por su relevancia a la hora de realizar inferencias. Posteriormente se tratarán, de manera más somera, algunos otros procesos de amplia utilización.
Proceso estacionario en sentido estricto o estrictamente estacionario
Se dice que el proceso o función aleatoria X = {X(s) : s ∈ D} es estrictamente estacionario si las familias (o el conjunto) de variables aleatorias {X(s1), X(s2), ..., X(sn)} y {X(s1 + h), X(s2 + h), ..., X(sn + h)}, siendo h una determinada distancia, tienen la misma función de distribución conjunta ∀ s1, s2, ..., sn y h > 0.
Dicho de otra manera, la función de distribución conjunta de {X(s1), X(s2), ..., X(sn)} no se ve afectada por la traslación de una cantidad arbitraria h, por lo que las funciones de densidad unidimensionales tampoco dependen de la localización.
Esta condición asegura que, en esencia, el proceso está en equilibrio probabilístico y que, por tanto, el lugar concreto en el que se examine el proceso no es relevante. Si el proceso X(s) es estrictamente estacionario, entonces su distribución de probabilidad es la misma en cada localización. Por tanto, un proceso estocástico es estacionario en sentido estricto si todas las variables aleatorias que lo componen tienen la misma función de distribución de probabilidad. Esta hipótesis se ilustra gráficamente en la Figura 2 en el caso de una realización de tamaño 2.
Proceso estacionario de segundo orden o débilmente estacionario
El proceso estocástico X = {X(s) : s ∈ S} se dice que es estacionario de segundo orden (débilmente estacionario o estacionario en sentido amplio) si posee momentos de segundo orden finitos (es decir, la covarianza existe) y cumple que:
- - El valor esperado existe y es constante y, por tanto, no depende de la localización si: E[X(si)] = μ, ∀i ∈ N
- - Para toda pareja de variables aleatorias, X(si) y X(sj), la covarianza existe y solo depende de la distancia entre las localizaciones si y sj, pero no de ellas en concreto:
∀i, j ∈ N y h > 0
Es importante enfatizar que la función de covarianza C(s,s + h) de un proceso estocástico de segundo orden es solo función de h, por lo que la varianza del proceso existe, es finita y constante V[X(s)] = C(h=0) = σ2.
Nótese que si un proceso es estacionario en sentido estricto, entonces lo es también en sentido amplio. El recíproco, sin embargo, no es cierto en general.
Proceso estocástico intrínsecamente estacionario
Hay procesos estocásticos cuya varianza no existe, si bien sus incrementos tienen varianza finita. Pues bien, el proceso estocástico X = {(s) : s ∈ S}, no estacionario, se dice que es intrínsecamente estacionario si:
- Para todo vector h, los incrementos de primer orden X(s + h) - X(s) tienen esperanza y varianza definidas e independientes de s. Es decir,
E [X(s + h) - X(s) = μ(h)
V [X(s + h) - X(s) = σ2(h)
donde μ(h), la deriva, es necesariamente lineal en h. Es decir, ni la esperanza ni la varianza de los incrementos dependen de la localización s sino solo de la del vector h que une los puntos.
En el caso de que μ(h) fuera distinta de cero, es decir, en caso de que la media del proceso no fuese constante, bastaría hacer el cambio Xt(s + h) - Xt(s) - μ(h) = X(s + h) - X(s) con media nula y la misma varianza, dando lugar a un nuevo proceso que cumplirá:
E[X(s + h) - X(s)] =0
V [X(s + h) - X(s)] = E[(X(s + h) - X(s)]2]
que sólo es función de h. Esta última es la forma habitual de representar la estacionariedad intrínseca.
Procesos estocásticos no estacionarios
Se dice que la función aleatoria X = {X(s) : s ∈ S} es no estacionaria si
E[X(s)] = μ(s)
es decir, si su esperanza no es constante, y, por tanto, la función aleatoria presenta deriva. La media de las variables aleatorias que conforman el proceso varía según la localización . Si además los incrementos de primer orden, X(s + h) - X(s), del proceso estocástico no son estacionarios tampoco son estacionarios se dice que dicha función ni siquiera es intrínsecamente estacionaria.
La Figura 3 muestra las relaciones de inclusión de los distintos tipos de procesos expuestos anteriormente. Una primera clasificación se realiza en función de si la media del proceso es o no constante sobre el dominio considerado, dando lugar a procesos estacionarios o no estacionarios, respectivamente. Posteriormente, entre los estacionarios, los hay con varianza finita (estacionarios de segundo orden y, por tanto, intrínsecamente estacionarios) o con varianza del proceso no acotada (intrínsecamente estacionarios). Por último, entre los estacionarios de segundo orden, que tienen media y varianza constantes, hay algunos, los estacionarios en sentido estricto, que están formados por variables aleatorias que, además de tener los momentos de primer y segundo orden iguales, tienen todas ellas la misma distribución de probabilidad.
Procesos de variables estocásticamente independientes
Son aquellos que verifican que las variables aleatorias involucradas en el proceso son estocásticamente independientes. En otros términos, verifican que la función de distribución conjunta de las mismas coincide con el producto de sus funciones de distribución marginales.
Procesos de variables incorrelacionadas u ortogonales
Son aquellos que verifican que la covarianza entre cualquier par de variables aleatorias involucradas en el proceso es nula.
Evidentemente, un proceso de variables estocásticamente independientes también será ortogonal.
Procesos de Markov
Son aquellos tal que:
F(xn / x1, x2, ..., xn-1 = F(xn / xn-1)
Es decir, verifican que la distribución de probabilidad de la n-ésima variable aleatoria condicionada al acaecimiento ya producido de las anteriores, depende exclusivamente de la inmediatamente anterior, de forma que esta última recoge toda la información de lo ocurrido anteriormente.
Recuerde que...
- • Las características fundamentales de un proceso estocástico son su esperanza, varianza, función de autocovarianza y función de autocorrelación.
- • Procesos estocásticos: estrictamente estacionario, débilmente estacionario, intrínsecamente estacionario, no estacionarios, variables estocásticamente independientes, variables incorrelacionadas u ortogonales y Markov.