La ley de los números verdaderamente grandes (un adagio estadístico ), atribuida a Persi Diaconis y Frederick Mosteller , establece que con un número suficientemente grande de muestras independientes, es probable que se observe cualquier resultado altamente improbable (es decir, improbable en cualquier muestra individual, pero con una probabilidad constante estrictamente mayor que 0 en cualquier muestra). [1] Debido a que nunca nos parece notable cuando ocurren eventos probables, resaltamos los eventos improbables y los notamos más. La ley se usa a menudo para refutar diferentes afirmaciones pseudocientíficas ; como tal, a veces es criticada por científicos marginales . [2] [3]
La ley se puede reformular como "los grandes números también engañan". Más concretamente, el escéptico Penn Jillette ha dicho: "Las probabilidades de un millón contra uno ocurren ocho veces al día en Nueva York " (población de aproximadamente 8.000.000). [4]
Para dar un ejemplo simplificado de la ley, supongamos que un determinado evento ocurre con una probabilidad de ocurrencia del 0,1% en un solo ensayo. Entonces, la probabilidad de que este llamado evento improbable no ocurra ( improbabilidad) en un solo ensayo es del 99,9% (0,999).
Sin embargo, para una muestra de solo 1000 ensayos independientes, la probabilidad de que el evento no ocurra en ninguno de ellos, ni siquiera una vez (improbabilidad), es solo [5] 0,999 1000 ≈ 0,3677, o 36,77%. Entonces, la probabilidad de que el evento ocurra, al menos una vez, en 1000 ensayos es ( 1 − 0,999 1000 ≈ 0,6323, o ) 63,23%. Esto significa que este "evento improbable" tiene una probabilidad del 63,23% de ocurrir si se realizan 1000 ensayos independientes. Si el número de ensayos se incrementara a 10 000, la probabilidad de que esto ocurra al menos una vez en 10 000 ensayos aumenta a ( 1 − 0,999 10000 ≈ 0,99995, o ) 99,995 %. En otras palabras, un evento altamente improbable, dados suficientes ensayos independientes con un número fijo de extracciones por ensayo, es aún más probable que ocurra.
Para un evento X que ocurre con una probabilidad muy baja de 0,0000001% (en cualquier muestra individual, véase también casi nunca ), considerando 1.000.000.000 como un número "verdaderamente grande" de muestras independientes, se obtiene una probabilidad de ocurrencia de X igual a 1 − 0,999999999 10000000000 ≈ 0,63 = 63% y un número de muestras independientes igual al tamaño de la población humana (en 2021) da una probabilidad del evento X: 1 − 0,999999999 7900000000 ≈ 0,9996 = 99,96%. [6]
Estos cálculos se pueden formalizar en lenguaje matemático como: "la probabilidad de que un evento improbable X ocurra en N ensayos independientes puede llegar a ser arbitrariamente cercana a 1, sin importar cuán pequeña sea la probabilidad del evento X en un solo ensayo, siempre que N sea verdaderamente grande". [7]
Por ejemplo, donde la probabilidad del evento improbable X no es una constante pequeña sino que disminuye en función de N, ver gráfico.
En sistemas de alta disponibilidad , incluso eventos muy improbables deben ser tomados en consideración; en sistemas en serie , incluso cuando la probabilidad de falla de un elemento individual es muy baja después de conectarlos en grandes cantidades, la probabilidad de falla de todo el sistema aumenta (para hacer que las fallas del sistema sean menos probables, se puede usar redundancia ; en tales sistemas paralelos, incluso partes redundantes altamente poco confiables conectadas en grandes cantidades aumentan la probabilidad de no romperse al alto nivel requerido ). [8]
La ley surge en las críticas a la pseudociencia y a veces se la llama efecto Jeane Dixon (ver también Postdicción ). Sostiene que cuantas más predicciones haga un psíquico, mayores serán las probabilidades de que una de ellas "acerte". Por lo tanto, si una se cumple, el psíquico espera que olvidemos la gran mayoría de las que no sucedieron ( sesgo de confirmación ). [9] Los humanos podemos ser susceptibles a esta falacia.
Otra manifestación similar de la ley se puede encontrar en los juegos de azar , donde los jugadores tienden a recordar sus ganancias y olvidar sus pérdidas, [10] incluso si estas últimas superan en número a las primeras (aunque dependiendo de una persona en particular, lo opuesto también puede ser cierto cuando piensan que necesitan un mayor análisis de sus pérdidas para lograr un ajuste fino de su sistema de juego [11] ). Mikal Aasved lo relaciona con el "sesgo de memoria selectiva", que permite a los jugadores distanciarse mentalmente de las consecuencias de su juego [11] al mantener una visión inflada de sus ganancias reales (o pérdidas en el caso opuesto: "sesgo de memoria selectiva en cualquier dirección").