Concepto
El concepto de convergencia tiene sentido cuando se dispone de una sucesión de entes, de tal forma que, al ir avanzando en la sucesión, dichos entes se van “pareciendo” cada vez más a un referente, que es el ente al cual convergen. A estos efectos, recuérdese que una sucesión es una aplicación cuyo dominio es el conjunto de los números naturales. En términos coloquiales, una sucesión es un conjunto infinito de entes ordenados que se suceden siguiendo alguna lógica.
En el ámbito estadístico dichos entes son variables aleatorias Xi, i= 1, 2, 3.., y una sucesión de variables aleatorias se denota formalmente por
. Obviamente, la sucesión no tiene por qué ser de variables aleatorias unidimensionales, sino que estas también pueden tener carácter n-dimensional. No obstante, en lo que sigue, nos ceñiremos al caso de variables aleatorias unidimensionales, siendo inmediatamente generalizable al caso n-dimensional. El estudio de la convergencia tiene gran interés, por cuanto permite la posibilidad, entre otras, de aproximar unas variables aleatorias a través de otras de manejo sencillo.
En general, se dice que una sucesión de variables aleatorias
, todas ellas definidas sobre un mismo espacio probabilístico Ω cuyos sucesos elementales vienen representados por w, converge a la variable aleatoria X, también definida sobre dicho espacio probabilístico, si para cualesquiera de los sucesos elementales de Ω la sucesión de números reales
converge también al número real X (w). Esto es,
que se suele expresar de la forma: 
El concepto de convergencia no es único, en el sentido de que se pueden distinguir distintos criterios según los cuales una sucesión de variables aleatorias converge a un determinado referente.
Tipos de convergencia
Convergencia casi segura
Sea una sucesión de variables aleatorias
y sea X una variable aleatoria definida sobre el mismo espacio probabilístico que sus homónimas que conforman la sucesión. Entonces,
converge casi seguro a X, aseveración que se denota por
, si excepto en un subconjunto del espacio universal con probabilidad nula, la sucesión de números reales
converge al número real X (w):
También se puede expresar como: 
A la vista de la expresión anterior, se puede entender fácilmente por qué la convergencia casi segura también es denominada convergencia con probabilidad 1.
En términos menos formales, la convergencia casi segura nos viene a decir que, a partir de un determinado n (digamos m), la probabilidad de que, simultáneamente,
se diferencien de X en más de una cantidad (ε > 0) es nula. O lo que es lo mismo, que a partir de un determinado n (digamos m), la probabilidad de que, simultáneamente, las diferencias aleatorias
sean muy débiles es prácticamente la unidad:

Nótese que en la convergencia casi segura puede haber sucesos w para los que Xn (w) no converja hacia X (w), e incluso hacia ningún otro punto. Ahora bien, dichos sucesos conforman un conjunto de probabilidad nula.
Una vez conocido el concepto de convergencia casi segura, aprovechemos para enunciar lo que se conoce como Ley fuerte de los grandes números: Sea una sucesión de variables aleatorias independientes e igualmente distribuidas con esperanza μ y varianza finita σ2. La sucesión de medias parciales
, donde
, converge casi seguramente a μ.
Aunque la Ley fuerte suele enunciarse así, Kolmogorov demostró que no es necesario imponer condición alguna a las varianzas; es más, ni siquiera tienen por qué existir. Por tanto, la existencia de la esperanza es una condición necesaria y suficiente para que se cumpla la Ley fuerte.
Convergencia en probabilidad
Se trata de un concepto de convergencia menos exigente que el anterior. Se dice que
converge en probabilidad a X, y se denota por 
si para cualquier e >0 se tiene que:
o bien
.
En esencia, las expresiones anteriores indican que si una sucesión de variables aleatorias
converge en probabilidad a X, entonces, a partir de un determinado n, es prácticamente imposible que, conjuntamente,
y
y
.....
Como puede apreciarse, la convergencia casi segura implica la convergencia en probabilidad.
Un resultado útil hace referencia a que si las variables aleatorias integrantes de la sucesión tienen todas ellas la misma esperanza, y su varianza tiende a anularse a medida que aumenta n, entonces convergen en probabilidad a dicha esperanza.
Otro resultado de gran interés es la denominada Ley débil de los grandes números: Sea una sucesión de variables aleatorias independientes e igualmente distribuidas, con esperanza μ y varianza finita σ2 La sucesión de medias parciales
, donde
, converge en probabilidad a μ.
Si las variables fueran binomiales (1;p) se tendría que la anteriormente mencionada sucesión de medias parciales (que no sería otra cosa que la frecuencia relativa) convergería en probabilidad a su esperanza común p. Este resultado se conoce como Teorema de Bernoulli. No solo eso, la convergencia también sería casi segura. En realidad, para que la convergencia sea en probabilidad basta con que las variables aleatorias sean independientes dos a dos; sin embargo, para que la convergencia sea casi segura se exige que las variables sean mutuamente independientes (o, como se suele decir, independientes).
Otros resultados interesantes en el ámbito inferencial bajo las condiciones de que las variables muestrales sean independientes y estén igualmente distribuidas, son los siguientes:
- — Los momentos muestrales respecto del origen convergen en probabilidad a sus respectivos momentos poblacionales.
- — Los momentos muestrales respecto a la media convergen en probabilidad a sus respectivos momentos poblacionales.
En consecuencia, por las propiedades de la convergencia en probabilidad, la media muestral, la varianza muestral, el coeficiente de asimetría muestral, el coeficiente de curtósis muestral, el coeficiente de variación muestral, la covarianza muestral, el coeficiente de correlación muestral, etc., convergen en probabilidad a sus homónimos poblacionales. En realidad, basta con que las variables muestrales sean independientes dos a dos y tengan los mismos momentos, no siendo necesario que tengan la misma distribución de probabilidad, aunque sí que exista el momento de orden doble al que se pretende la convergencia.
La lección que se puede extraer de lo anteriormente expuesto es que, cuando el tamaño de la muestra es grande, las características muestrales toman valores cercanos a los de las características poblacionales, y ello con una elevada probabilidad.
Convergencia en media
Una sucesión de variables aleatorias
converge en media a X, y se denota por
, si para cualquier ε >0 se tiene que:
siempre que dicha esperanza exista.
De forma análoga se define convergencia en media de orden r si:

El caso más importante es el de convergencia en media cuadrática:

Un aspecto importante de la convergencia en media es que si una sucesión de variables aleatorias converge en media de orden r a, entonces también converge a en media de orden menor que r.
Convergencia en distribución
Las nociones de convergencia anteriormente expuestas de convergencia casi segura y convergencia en probabilidad se han establecido teniendo en cuenta los valores que toman las variables aleatorias en todo punto del espacio universal salvo un conjunto de probabilidad nula o débil probabilidad. Sin embargo, se puede dar un paso al frente y considerar conjuntamente todos los puntos, ya que una variable aleatoria viene caracterizada por su distribución de probabilidad, por ejemplo por su función de distribución. Ello da lugar al estudio de la denominada convergencia en distribución.
Lógicamente, si existe la sucesión de variables aleatorias
, también existe la sucesión de funciones de distribución
, así como la de funciones características
.
Pues bien, se dice que converge en distribución a X,
, si,
donde F (x) es la función de distribución de X.
La convergencia en distribución de una sucesión de sumas parciales de variables aleatorias independientes da lugar a las distintas versiones del conocido como Teorema del Límite Central:

- — Versión 1: Variables binomiales
. Teorema de De Moivre. - — Versión 2: Variables binomiales (1,p). Teorema de De Moivre-Laplace.
Como la suma de n binomiales (1,p) es una binomial (n,p), estas dos versiones permiten la sustitución de una variable binomial (n,p) por una normal
siempre que n sea suficientemente elevado.
- — Versión 3: Variables independientes e igualmente distribuidas (no tienen por qué ser binomiales). Versión de Lindenberg y Levy.
- — Versión 4: Variables independientes cualesquiera con una condición. Versión de Lyapunov.
- — Versión de futuro: Prescindir de la hipótesis de independencia.
Recuerde que...
- • El concepto de convergencia no es único, en el sentido de que se pueden distinguir distintos criterios según los cuales una sucesión de variables aleatorias converge a un determinado referente.
- • Existen varios tipos de convergencia aleatoria: convergencia casi segura, convergencia en probabilidad, convergencia en media y convergencia en distribución.