En matemáticas , la integración de Monte Carlo es una técnica de integración numérica que utiliza números aleatorios . Es un método particular de Monte Carlo que calcula numéricamente una integral definida . Mientras que otros algoritmos suelen evaluar el integrando en una cuadrícula regular, [1] Monte Carlo elige aleatoriamente puntos en los que se evalúa el integrando. [2] Este método es particularmente útil para integrales de dimensiones superiores. [3]
Existen diferentes métodos para realizar una integración de Monte Carlo, como el muestreo uniforme , el muestreo estratificado , el muestreo de importancia , el Monte Carlo secuencial (también conocido como filtro de partículas) y los métodos de partículas de campo medio .
En la integración numérica, los métodos como la regla trapezoidal utilizan un enfoque determinista . La integración de Monte Carlo, por otro lado, emplea un enfoque no determinista : cada realización proporciona un resultado diferente. En Monte Carlo, el resultado final es una aproximación del valor correcto con las barras de error respectivas, y es probable que el valor correcto se encuentre dentro de esas barras de error.
El problema que aborda la integración de Monte Carlo es el cálculo de una integral definida multidimensional donde Ω, un subconjunto de , tiene volumen
El enfoque ingenuo de Monte Carlo consiste en muestrear puntos uniformemente en Ω: [4] dadas N muestras uniformes,
Me puedo aproximar por
Esto se debe a que la ley de los grandes números garantiza que
Dada la estimación de I a partir de Q N , las barras de error de Q N se pueden estimar mediante la varianza de la muestra utilizando la estimación imparcial de la varianza .
Lo que conduce a
Dado que la secuencia está limitada debido a que es idénticamente igual a Var(f) , siempre que se suponga que es finita, esta varianza disminuye asintóticamente a cero como 1/ N . La estimación del error de Q N es, por lo tanto , que disminuye como . Este es el error estándar de la media multiplicado por . Este resultado no depende del número de dimensiones de la integral, que es la ventaja prometida de la integración de Monte Carlo frente a la mayoría de los métodos deterministas que dependen exponencialmente de la dimensión. [5] Es importante notar que, a diferencia de los métodos deterministas, la estimación del error no es un límite de error estricto; el muestreo aleatorio puede no descubrir todas las características importantes del integrando que pueden resultar en una subestimación del error.
Si bien el método Monte Carlo ingenuo funciona para ejemplos simples, solo se puede lograr una mejora con respecto a los algoritmos deterministas con algoritmos que utilicen distribuciones de muestreo específicas para el problema. Con una distribución de muestreo adecuada, es posible aprovechar el hecho de que casi todos los integrandos de dimensiones superiores están muy localizados y solo un subespacio pequeño contribuye notablemente a la integral. [6] Una gran parte de la literatura de Monte Carlo se dedica al desarrollo de estrategias para mejorar las estimaciones de error. En particular, el muestreo estratificado (dividir la región en subdominios) y el muestreo de importancia (muestreo de distribuciones no uniformes) son dos ejemplos de tales técnicas.
Un ejemplo paradigmático de una integración de Monte Carlo es la estimación de π. Considere la función y el conjunto Ω = [−1,1] × [−1,1] con V = 4. Observe que
Por lo tanto, una forma básica de calcular el valor de π con la integración de Monte Carlo es elegir N números aleatorios en Ω y calcular
En la figura de la derecha, el error relativo se mide en función de N , lo que confirma el .
Tenga en cuenta que se debe utilizar un verdadero generador de números aleatorios.
#include <stdio.h> #include <stdlib.h> #include <time.h> int main () { // Inicializa el número de conteos a 0, estableciendo el número total en 100000 en el bucle. int throws = 99999 , insideCircle = 0 ; double randX , randY , pi ; srand ( tiempo ( NULL )); // Comprueba cada par aleatorio de x e y si están dentro de un círculo de radio 1. for ( int i = 0 ; i < throws ; i ++ ) { randX = rand () / ( double ) RAND_MAX ; randY = rand () / ( double ) RAND_MAX ; if ( randX * randX + randY * randY < 1 ) { insideCircle ++ ; } } // Calcular pi e imprimir. pi = 4.0 * insideCircle / throws ; printf ( "%lf \n " , pi ); }
Hecho en Python .
Desde numpy, importar al azarlanza = 2000 círculo_interior = 0 i = 0 radio = 1 mientras i < lanza : # Elige X e Y aleatorios centrados alrededor de 0,0 x = aleatorio.uniforme ( -radio , radio ) y = aleatorio.uniforme ( -radio , radio ) # Si el punto está dentro del círculo, aumenta la variable si x ** 2 + y ** 2 < = radio ** 2 : círculo_interior + = 1 i += 1 # Calcular el área e imprimir; debería estar más cerca de Pi con un número creciente de lanzamientos área = ((( 2 * radio ) ** 2 ) * círculo_interior ) / lanzamientos imprimir ( área )
El código siguiente describe un proceso de integración de la función mediante el método de Monte Carlo en Mathematica :
func [ x_ ] := 1 / ( 1 + Sinh [ 2 * x ] * ( Iniciar sesión [ x ]) ^ 2 ); (*Muestra de una distribución normal truncada para acelerar la convergencia*) Distrib [ x_ , promedio_ , var_ ] := PDF [ DistribuciónNormal [ promedio , var ], 1.1 * x - 0.1 ]; n = 10 ; RV = VariableAleatoria [ DistribuciónTruncada [{ 0.8 , 3 }, DistribuciónNormal [ 1 , 0.399 ]], n ]; Int = 1 / n Total [ func [ RV ] / Distrib [ RV , 1 , 0.399 ]] * Integrar [ Distrib [ x , 1 , 0.399 ], { x , 0.8 , 3 }] NIntegrate [ func [ x ], { x , 0.8 , 3 }] (*Comparar con la respuesta real*)
El muestreo estratificado recursivo es una generalización de las cuadraturas adaptativas unidimensionales a las integrales multidimensionales. En cada paso de recursión, la integral y el error se estiman utilizando un algoritmo Monte Carlo simple. Si la estimación del error es mayor que la precisión requerida, el volumen de integración se divide en subvolúmenes y el procedimiento se aplica recursivamente a los subvolúmenes.
La estrategia habitual de "dividir por dos" no funciona para volúmenes multidimensionales, ya que el número de subvolúmenes crece demasiado rápido como para llevar un registro. En lugar de ello, se calcula en qué dimensión una subdivisión debería generar más dividendos y solo se subdivide el volumen en esa dimensión.
El algoritmo de muestreo estratificado concentra los puntos de muestreo en las regiones donde la varianza de la función es mayor, reduciendo así la varianza general y haciendo que el muestreo sea más efectivo, como se muestra en la ilustración.
La popular rutina MISER implementa un algoritmo similar.
El algoritmo MISER se basa en un muestreo estratificado recursivo . Esta técnica tiene como objetivo reducir el error de integración global al concentrar los puntos de integración en las regiones de mayor varianza. [7]
La idea del muestreo estratificado comienza con la observación de que para dos regiones disjuntas a y b con estimaciones de Monte Carlo de las varianzas integrales y y y , la varianza Var( f ) de la estimación combinada está dada por,
Se puede demostrar que esta varianza se minimiza distribuyendo los puntos de tal manera que,
Por lo tanto, la estimación del error más pequeño se obtiene asignando puntos de muestra en proporción a la desviación estándar de la función en cada subregión.
El algoritmo MISER procede dividiendo en dos la región de integración a lo largo de un eje de coordenadas para dar dos subregiones en cada paso. La dirección se elige examinando todas las d bisecciones posibles y seleccionando la que minimice la varianza combinada de las dos subregiones. La varianza en las subregiones se estima mediante un muestreo con una fracción del número total de puntos disponibles para el paso actual. Luego se repite el mismo procedimiento de forma recursiva para cada uno de los dos semiespacios a partir de la mejor bisección. Los puntos de muestra restantes se asignan a las subregiones utilizando la fórmula para N a y N b . Esta asignación recursiva de puntos de integración continúa hasta una profundidad especificada por el usuario donde cada subregión se integra utilizando una estimación de Monte Carlo simple. Luego, estos valores individuales y sus estimaciones de error se combinan hacia arriba para dar un resultado general y una estimación de su error.
Hay una variedad de algoritmos de muestreo de importancia, como
El muestreo por importancia proporciona una herramienta muy importante para realizar la integración de Montecarlo. [3] [8] El principal resultado del muestreo por importancia para este método es que el muestreo uniforme de es un caso particular de una elección más genérica, en la que las muestras se extraen de cualquier distribución . La idea es que se puede elegir para disminuir la varianza de la medición Q N .
Consideremos el siguiente ejemplo, en el que se desea integrar numéricamente una función gaussiana centrada en 0, con σ = 1, desde −1000 hasta 1000. Naturalmente, si las muestras se extraen uniformemente en el intervalo [−1000, 1000], solo una parte muy pequeña de ellas sería significativa para la integral. Esto se puede mejorar eligiendo una distribución diferente de la que se utiliza para las muestras, por ejemplo, muestreando según una distribución gaussiana centrada en 0, con σ = 1. Por supuesto, la elección "correcta" depende en gran medida del integrando.
Formalmente, dado un conjunto de muestras elegidas de una distribución, el estimador para I viene dado por [3]
Intuitivamente, esto dice que si elegimos una muestra particular con el doble de peso que otras muestras, la ponderamos con la mitad de peso que las otras muestras. Este estimador es naturalmente válido para el muestreo uniforme, caso en el que es constante.
El algoritmo Metropolis-Hastings es uno de los algoritmos más utilizados para generar a partir de , [3] proporcionando así una forma eficiente de calcular integrales.
El algoritmo VEGAS aproxima la distribución exacta haciendo una serie de pasadas sobre la región de integración que crea el histograma de la función f . Cada histograma se utiliza para definir una distribución de muestreo para la siguiente pasada. Asintóticamente, este procedimiento converge a la distribución deseada. [9] Para evitar que la cantidad de compartimentos del histograma crezca como K d , la distribución de probabilidad se aproxima mediante una función separable: de modo que la cantidad de compartimentos necesarios sea solo Kd . Esto es equivalente a localizar los picos de la función a partir de las proyecciones del integrando sobre los ejes de coordenadas. La eficiencia de VEGAS depende de la validez de esta suposición. Es más eficiente cuando los picos del integrando están bien localizados. Si un integrando se puede reescribir en una forma que sea aproximadamente separable, esto aumentará la eficiencia de la integración con VEGAS. VEGAS incorpora una serie de características adicionales y combina tanto el muestreo estratificado como el muestreo de importancia. [9]