Métodos numéricos para ecuaciones diferenciales ordinarias

Métodos utilizados para encontrar soluciones numéricas de ecuaciones diferenciales ordinarias
Ilustración de la integración numérica para la ecuación diferencial y " = y , y ( 0 ) = 1. {\displaystyle y'=y,y(0)=1.}
  Azul: método de Euler
  Rojo: Solución exacta: . y = mi a {\textstyle y=e^{t}}
El tamaño del paso es . yo = 1.0 {\displaystyle h=1.0}
La misma ilustración para el método del punto medio converge más rápido que el método de Euler, ya que . yo = 0,25. {\displaystyle h=0,25.} yo 0 {\displaystyle h\to 0}

Los métodos numéricos para ecuaciones diferenciales ordinarias son métodos que se utilizan para encontrar aproximaciones numéricas a las soluciones de ecuaciones diferenciales ordinarias (EDO). Su uso también se conoce como " integración numérica ", aunque este término también puede referirse al cálculo de integrales .

Muchas ecuaciones diferenciales no se pueden resolver con exactitud. Sin embargo, para fines prácticos (por ejemplo, en ingeniería), una aproximación numérica a la solución suele ser suficiente. Los algoritmos estudiados aquí se pueden utilizar para calcular dicha aproximación. Un método alternativo es utilizar técnicas de cálculo para obtener una expansión en serie de la solución.

Las ecuaciones diferenciales ordinarias ocurren en muchas disciplinas científicas, incluidas la física , la química , la biología y la economía . [1] Además, algunos métodos en ecuaciones diferenciales parciales numéricas convierten la ecuación diferencial parcial en una ecuación diferencial ordinaria, que luego debe resolverse.

El problema

Una ecuación diferencial de primer orden es un problema de valor inicial (PVI) de la forma, [2]

y " ( a ) = F ( a , y ( a ) ) , y ( a 0 ) = y 0 , {\displaystyle y'(t)=f(t,y(t)),\qquad y(t_{0})=y_{0},} ( 1 )

donde es una función y la condición inicial es un vector dado. De primer orden significa que solo aparece la primera derivada de y en la ecuación y no hay derivadas superiores. F {\estilo de visualización f} F : [ a 0 , ) × R d R d {\displaystyle f:[t_{0},\infty )\times \mathbb {R} ^{d}\to \mathbb {R} ^{d}} y 0 R d {\displaystyle y_{0}\in \mathbb {R} ^{d}}

Sin perder la generalidad de los sistemas de orden superior, nos limitamos a las ecuaciones diferenciales de primer orden , porque una EDO de orden superior se puede convertir en un sistema más grande de ecuaciones de primer orden introduciendo variables adicionales. Por ejemplo, la ecuación de segundo orden y ′′ = − y se puede reescribir como dos ecuaciones de primer orden: y ′ = z y z ′ = − y .

En esta sección, describimos métodos numéricos para problemas de valores en la frontera y remarcamos que los problemas de valores en la frontera (BVP) requieren un conjunto diferente de herramientas. En un BVP, se definen valores o componentes de la solución y en más de un punto. Debido a esto, se deben utilizar diferentes métodos para resolver BVP. Por ejemplo, el método de disparo (y sus variantes) o métodos globales como diferencias finitas , [3] métodos de Galerkin , [4] o métodos de colocación son apropiados para esa clase de problemas.

El teorema de Picard-Lindelöf establece que existe una solución única, siempre que f sea Lipschitz-continua .

Métodos

Los métodos numéricos para resolver problemas de primer orden a menudo se dividen en dos grandes categorías: [5] métodos lineales de múltiples pasos o métodos de Runge-Kutta . Se puede realizar una división adicional dividiendo los métodos en aquellos que son explícitos y aquellos que son implícitos. Por ejemplo, los métodos lineales de múltiples pasos implícitos incluyen los métodos de Adams-Moulton y los métodos de diferenciación hacia atrás (BDF), mientras que los métodos Runge-Kutta implícitos [6] incluyen el Runge-Kutta diagonalmente implícito (DIRK), [7] [8] el Runge-Kutta diagonalmente implícito simple (SDIRK), [9] y los métodos numéricos de Gauss-Radau [10] (basado en la cuadratura gaussiana [11] ). Los ejemplos explícitos de la familia lineal de múltiples pasos incluyen los métodos de Adams-Bashforth y cualquier método Runge-Kutta con una tabla de Butcher diagonal inferior es explícito . Una regla general general dicta que las ecuaciones diferenciales rígidas requieren el uso de esquemas implícitos, mientras que los problemas no rígidos pueden resolverse de manera más eficiente con esquemas explícitos.

Los llamados métodos lineales generales (GLM) son una generalización de las dos grandes clases de métodos anteriores. [12]

Método de Euler

Desde cualquier punto de una curva, puedes encontrar una aproximación a un punto cercano en la curva moviéndose una distancia corta a lo largo de una línea tangente a la curva.

Comenzando con la ecuación diferencial ( 1 ), reemplazamos la derivada y ′ por la aproximación de diferencias finitas

y " ( a ) y ( a + yo ) y ( a ) yo , {\displaystyle y'(t)\approx {\frac {y(t+h)-y(t)}{h}},} ( 2 )

que al reorganizarlo da como resultado la siguiente fórmula

y ( a + yo ) y ( a ) + yo y " ( a ) {\displaystyle y(t+h)\approx y(t)+hy'(t)}

y usando ( 1 ) se obtiene:

y ( a + yo ) y ( a ) + yo F ( a , y ( a ) ) . {\displaystyle y(t+h)\approx y(t)+hf(t,y(t)).} ( 3 )

Esta fórmula se suele aplicar de la siguiente manera. Elegimos un tamaño de paso h y construimos la secuencia que denotamos por una estimación numérica de la solución exacta . Motivados por ( 3 ), calculamos estas estimaciones mediante el siguiente esquema recursivo a 0 , a 1 = a 0 + yo , a 2 = a 0 + 2 yo , . . . {\displaystyle t_{0},t_{1}=t_{0}+h,t_{2}=t_{0}+2h,...} y norte {\displaystyle y_{n}} y ( a norte ) {\displaystyle y(t_{n})}

y norte + 1 = y norte + yo F ( a norte , y norte ) . {\displaystyle y_{n+1}=y_{n}+hf(t_{n},y_{n}).} ( 4 )

Se trata del método de Euler (o método de Euler directo , en contraposición al método de Euler inverso , que se describirá más adelante). El método recibe su nombre de Leonhard Euler, quien lo describió en 1768.

El método de Euler es un ejemplo de método explícito . Esto significa que el nuevo valor y n +1 se define en términos de cosas que ya se conocen, como y n .

Método de Euler inverso

Si, en lugar de ( 2 ), utilizamos la aproximación

y " ( a ) y ( a ) y ( a yo ) yo , {\displaystyle y'(t)\approx {\frac {y(t)-y(th)}{h}},} ( 5 )

Obtenemos el método de Euler hacia atrás :

y norte + 1 = y norte + yo F ( a norte + 1 , y norte + 1 ) . {\displaystyle y_{n+1}=y_{n}+hf(t_{n+1},y_{n+1}).} ( 6 )

El método de Euler inverso es un método implícito , lo que significa que tenemos que resolver una ecuación para encontrar y n +1 . Para lograrlo, se suele utilizar la iteración de punto fijo o (alguna modificación de) el método de Newton-Raphson .

Resolver esta ecuación lleva más tiempo que los métodos explícitos; este costo debe tenerse en cuenta cuando se selecciona el método a utilizar. La ventaja de los métodos implícitos como ( 6 ) es que suelen ser más estables para resolver una ecuación rígida , lo que significa que se puede utilizar un tamaño de paso h mayor.

Método de integración exponencial de primer orden

Los integradores exponenciales describen una gran clase de integradores que han experimentado un gran desarrollo recientemente. [13] Se remontan al menos a la década de 1960.

En lugar de ( 1 ), asumimos que la ecuación diferencial es cualquiera de las formas

y " ( a ) = A y + norte ( y ) , {\displaystyle y'(t)=-A\,y+{\mathcal {N}}(y),} ( 7 )

o se ha linealizado localmente alrededor de un estado de fondo para producir un término lineal y un término no lineal . A y {\estilo de visualización -Ay} norte ( y ) {\displaystyle {\mathcal {N}}(y)}

Los integradores exponenciales se construyen multiplicando ( 7 ) por , e integrando exactamente el resultado en un intervalo de tiempo : mi A a {\textstyle e^{En}} [ a norte , a norte + 1 = a norte + yo ] {\displaystyle [t_{n},t_{n+1}=t_{n}+h]}

y norte + 1 = mi A yo y norte + 0 yo mi ( yo τ ) A norte ( y ( a norte + τ ) ) d τ . {\displaystyle y_{n+1}=e^{-Ah}y_{n}+\int _{0}^{h}e^{-(h-\tau )A}{\mathcal {N}} \left(y\left(t_{n}+\tau \right)\right)\,d\tau .}

Esta ecuación integral es exacta, pero no define la integral.

El integrador exponencial de primer orden se puede realizar manteniendo constante durante todo el intervalo: norte ( y ( a norte + τ ) ) {\displaystyle {\mathcal {N}}(y(t_{n}+\tau ))}

y norte + 1 = mi A yo y norte + A 1 ( 1 mi A yo ) norte ( y ( a norte ) )   . {\displaystyle y_{n+1}=e^{-Ah}y_{n}+A^{-1}(1-e^{-Ah}){\mathcal {N}}(y(t_{n) }))\ .} ( 8 )

Generalizaciones

El método de Euler no suele ser lo suficientemente preciso. En términos más precisos, solo tiene orden uno (el concepto de orden se explica más adelante). Esto llevó a los matemáticos a buscar métodos de orden superior.

Una posibilidad es utilizar no solo el valor calculado previamente y n para determinar y n +1 , sino hacer que la solución dependa de más valores pasados. Esto produce un denominado método de múltiples pasos . Quizás el más simple sea el método de salto de rana , que es de segundo orden y (a grandes rasgos) se basa en dos valores de tiempo.

Casi todos los métodos prácticos de varios pasos caen dentro de la familia de métodos lineales de varios pasos , que tienen la forma alfa a y norte + a + alfa a 1 y norte + a 1 + + alfa 0 y norte = yo [ β a F ( a norte + a , y norte + a ) + β a 1 F ( a norte + a 1 , y norte + a 1 ) + + β 0 F ( a norte , y norte ) ] . {\displaystyle {\begin{aligned}&{}\alpha _{k}y_{n+k}+\alpha _{k-1}y_{n+k-1}+\cdots +\alpha _{0}y_{n}\\&{}\quad =h\left[\beta _{k}f(t_{n+k},y_{n+k})+\beta _{k-1}f(t_{n+k-1},y_{n+k-1})+\cdots +\beta _{0}f(t_{n},y_{n})\right].\end{aligned}}}

Otra posibilidad es utilizar más puntos en el intervalo . Esto conduce a la familia de métodos de Runge-Kutta , llamada así en honor a Carl Runge y Martin Kutta . Uno de sus métodos de cuarto orden es especialmente popular. [ a norte , a norte + 1 ] {\displaystyle [t_{n},t_{n+1}]}

Funciones avanzadas

Una buena implementación de uno de estos métodos para resolver una EDO implica más que la fórmula de pasos de tiempo.

A menudo resulta ineficiente utilizar el mismo tamaño de paso todo el tiempo, por lo que se han desarrollado métodos de tamaño de paso variable . Por lo general, el tamaño de paso se elige de manera que el error (local) por paso esté por debajo de un cierto nivel de tolerancia. Esto significa que los métodos también deben calcular un indicador de error , una estimación del error local.

Una extensión de esta idea es elegir dinámicamente entre diferentes métodos de diferentes órdenes (esto se llama método de orden variable ). Los métodos basados ​​en la extrapolación de Richardson , [14] como el algoritmo de Bulirsch–Stoer , [15] [16] se utilizan a menudo para construir varios métodos de diferentes órdenes.

Otras características deseables incluyen:

  • salida densa : aproximaciones numéricas baratas para todo el intervalo de integración, y no sólo en los puntos t 0 , t 1 , t 2 , ...
  • Ubicación del evento : encontrar los momentos en los que, por ejemplo, desaparece una función en particular. Esto normalmente requiere el uso de un algoritmo de búsqueda de raíces .
  • Soporte para computación paralela .
  • Cuando se utiliza para integrar con respecto al tiempo, reversibilidad del tiempo.

Métodos alternativos

Muchos métodos no se incluyen en el marco que se analiza aquí. Algunas clases de métodos alternativos son:

  • métodos multiderivados , que utilizan no solo la función f sino también sus derivadas. Esta clase incluye los métodos de Hermite-Obreschkoff y los métodos de Fehlberg , así como métodos como el método de Parker-Sochacki [17] o el método de Bychkov-Scherbakov, que calculan los coeficientes de la serie de Taylor de la solución y de forma recursiva.
  • Métodos para EDO de segundo orden . Dijimos que todas las EDO de orden superior se pueden transformar en EDO de primer orden de la forma (1). Si bien esto es cierto, puede que no sea la mejor manera de proceder. En particular, los métodos de Nyström funcionan directamente con ecuaciones de segundo orden.
  • Los métodos de integración geométrica [18] [19] están diseñados especialmente para clases especiales de EDO (por ejemplo, integradores simplécticos para la solución de ecuaciones hamiltonianas ). Se encargan de que la solución numérica respete la estructura subyacente o la geometría de estas clases.
  • Los métodos de sistemas de estados cuantizados son una familia de métodos de integración de ecuaciones diferenciales ordinarias basados ​​en la idea de cuantización de estados. Son eficientes cuando se simulan sistemas dispersos con discontinuidades frecuentes.

Métodos paralelos en el tiempo

Algunos IVP requieren una integración con una resolución temporal tan alta y/o en intervalos de tiempo tan largos que los métodos clásicos de pasos de tiempo seriales se vuelven computacionalmente inviables para ejecutarse en tiempo real (por ejemplo, los IVP en la predicción numérica del tiempo, el modelado de plasma y la dinámica molecular). Se han desarrollado métodos paralelos en el tiempo (PinT) en respuesta a estos problemas con el fin de reducir los tiempos de ejecución de la simulación mediante el uso de computación paralela .

Los primeros métodos PinT (los primeros propuestos en la década de 1960) [20] fueron inicialmente pasados ​​por alto por los investigadores debido al hecho de que las arquitecturas de computación paralela que requerían aún no estaban ampliamente disponibles. Con más potencia de computación disponible, el interés se renovó a principios de la década de 2000 con el desarrollo de Parareal , un algoritmo PinT flexible y fácil de usar que es adecuado para resolver una amplia variedad de problemas de rendimiento intrínseco. La llegada de la computación a exaescala ha significado que los algoritmos PinT están atrayendo cada vez más la atención de la investigación y se están desarrollando de tal manera que puedan aprovechar las supercomputadoras más poderosas del mundo . Los métodos más populares a partir de 2023 incluyen Parareal, PFASST, ParaDiag y MGRIT. [21]

Análisis

El análisis numérico no es sólo el diseño de métodos numéricos, sino también su análisis. Tres conceptos centrales en este análisis son:

  • convergencia : si el método se aproxima a la solución,
  • orden : qué tan bien se aproxima a la solución, y
  • estabilidad : si se amortiguan los errores. [22]

Convergencia

Se dice que un método numérico es convergente si la solución numérica se aproxima a la solución exacta a medida que el tamaño del paso h tiende a 0. Más precisamente, requerimos que para cada EDO (1) con una función de Lipschitz f y cada t *  > 0,

límite yo 0 + máximo norte = 0 , 1 , , a / yo " y norte , yo y ( a norte ) " = 0. {\displaystyle \lim _{h\to 0^{+}}\max _{n=0,1,\dots ,\lfloor t^{*}/h\rfloor }\left\|y_{n,h}-y(t_{n})\right\|=0.}

Todos los métodos mencionados anteriormente son convergentes.

Coherencia y orden

Supongamos que el método numérico es

y norte + a = O ( a norte + a ; y norte , y norte + 1 , , y norte + a 1 ; yo ) . {\displaystyle y_{n+k}=\Psi (t_{n+k};y_{n},y_{n+1},\puntos ,y_{n+k-1};h).\,}

El error local (de truncamiento) del método es el error cometido en un paso del método. Es decir, es la diferencia entre el resultado que arroja el método, suponiendo que no se cometió ningún error en los pasos anteriores, y la solución exacta:

del norte + a yo = O ( a norte + a ; y ( a norte ) , y ( a norte + 1 ) , , y ( a norte + a 1 ) ; yo ) y ( a norte + a ) . {\displaystyle \delta _{n+k}^{h}=\Psi \left(t_{n+k};y(t_{n}),y(t_{n+1}),\dots ,y(t_{n+k-1});h\right)-y(t_{n+k}).}

Se dice que el método es consistente si

lim h 0 δ n + k h h = 0. {\displaystyle \lim _{h\to 0}{\frac {\delta _{n+k}^{h}}{h}}=0.}

El método tiene orden si p {\displaystyle p}

δ n + k h = O ( h p + 1 ) as  h 0. {\displaystyle \delta _{n+k}^{h}=O(h^{p+1})\quad {\mbox{as }}h\to 0.}

Por lo tanto, un método es consistente si tiene un orden mayor que 0. El método de Euler (hacia adelante) (4) y el método de Euler hacia atrás (6) presentados anteriormente tienen ambos orden 1, por lo que son consistentes. La mayoría de los métodos que se utilizan en la práctica alcanzan un orden superior. La consistencia es una condición necesaria para la convergencia [ cita requerida ] , pero no suficiente; para que un método sea convergente, debe ser consistente y estable a cero.

Un concepto relacionado es el error global (de truncamiento) , el error que se produce en todos los pasos necesarios para alcanzar un tiempo fijo . Explícitamente, el error global en el tiempo es donde . El error global de un método de un paso de orden n es ; en particular, un método de este tipo es convergente. Esta afirmación no es necesariamente cierta para los métodos de varios pasos. t {\displaystyle t} t {\displaystyle t} y N y ( t ) {\displaystyle y_{N}-y(t)} N = ( t t 0 ) / h {\displaystyle N=(t-t_{0})/h} p {\displaystyle p} O ( h p ) {\displaystyle O(h^{p})}

Estabilidad y rigidez

En el caso de algunas ecuaciones diferenciales, la aplicación de métodos estándar (como el método de Euler, los métodos explícitos de Runge-Kutta o los métodos de múltiples pasos (por ejemplo, los métodos de Adams-Bashforth)) muestra inestabilidad en las soluciones, aunque otros métodos pueden producir soluciones estables. Este "comportamiento difícil" en la ecuación (que puede no ser necesariamente complejo en sí mismo) se describe como rigidez y, a menudo, es causado por la presencia de diferentes escalas de tiempo en el problema subyacente. [23] Por ejemplo, una colisión en un sistema mecánico como en un oscilador de impacto ocurre típicamente en una escala de tiempo mucho menor que el tiempo para el movimiento de los objetos; esta discrepancia produce "giros muy bruscos" en las curvas de los parámetros de estado.

Los problemas de rigidez son omnipresentes en la cinética química , la teoría de control , la mecánica de sólidos , la previsión meteorológica , la biología , la física del plasma y la electrónica . Una forma de superar la rigidez es ampliar la noción de ecuación diferencial a la de inclusión diferencial , que permite y modela la no suavidad. [24] [25]

Historia

A continuación se muestra una cronología de algunos desarrollos importantes en este campo. [26] [27]

Soluciones numéricas a problemas de valores límite unidimensionales de segundo orden

Los problemas de valores en la frontera (BVP) se resuelven generalmente numéricamente resolviendo un problema matricial aproximadamente equivalente obtenido discretizando el BVP original. [28] El método más comúnmente utilizado para resolver numéricamente los BVP en una dimensión se denomina método de diferencias finitas . [3] Este método aprovecha las combinaciones lineales de valores puntuales para construir coeficientes de diferencias finitas que describen derivadas de la función. Por ejemplo, la aproximación de diferencia central de segundo orden a la primera derivada viene dada por:

u i + 1 u i 1 2 h = u ( x i ) + O ( h 2 ) , {\displaystyle {\frac {u_{i+1}-u_{i-1}}{2h}}=u'(x_{i})+{\mathcal {O}}(h^{2}),}

y la diferencia central de segundo orden para la segunda derivada viene dada por:

u i + 1 2 u i + u i 1 h 2 = u ( x i ) + O ( h 2 ) . {\displaystyle {\frac {u_{i+1}-2u_{i}+u_{i-1}}{h^{2}}}=u''(x_{i})+{\mathcal {O}}(h^{2}).}

En ambas fórmulas, es la distancia entre los valores x vecinos en el dominio discretizado. Luego se construye un sistema lineal que luego se puede resolver mediante métodos matriciales estándar . Por ejemplo, supongamos que la ecuación a resolver es: h = x i x i 1 {\displaystyle h=x_{i}-x_{i-1}}

d 2 u d x 2 u = 0 , u ( 0 ) = 0 , u ( 1 ) = 1. {\displaystyle {\begin{aligned}&{}{\frac {d^{2}u}{dx^{2}}}-u=0,\\&{}u(0)=0,\\&{}u(1)=1.\end{aligned}}}

El siguiente paso sería discretizar el problema y utilizar aproximaciones derivadas lineales como

u i = u i + 1 2 u i + u i 1 h 2 {\displaystyle u''_{i}={\frac {u_{i+1}-2u_{i}+u_{i-1}}{h^{2}}}}

y resolver el sistema de ecuaciones lineales resultante. Esto daría lugar a ecuaciones como:

u i + 1 2 u i + u i 1 h 2 u i = 0 , i = 1 , 2 , 3 , . . . , n 1 . {\displaystyle {\frac {u_{i+1}-2u_{i}+u_{i-1}}{h^{2}}}-u_{i}=0,\quad \forall i={1,2,3,...,n-1}.}

A primera vista, este sistema de ecuaciones parece tener dificultades asociadas con el hecho de que la ecuación no involucra términos que no se multipliquen por variables, pero de hecho esto es falso. En i = 1 y n − 1 hay un término que involucra los valores de contorno y y, dado que estos dos valores son conocidos, uno puede simplemente sustituirlos en esta ecuación y, como resultado, tener un sistema no homogéneo de ecuaciones lineales que tiene soluciones no triviales. u ( 0 ) = u 0 {\displaystyle u(0)=u_{0}} u ( 1 ) = u n {\displaystyle u(1)=u_{n}}

Véase también

Notas

  1. ^ Chicone, C. (2006). Ecuaciones diferenciales ordinarias con aplicaciones (Vol. 34). Springer Science & Business Media.
  2. ^ Bradie (2006, págs. 533-655)
  3. ^ ab LeVeque, RJ (2007). Métodos de diferencias finitas para ecuaciones diferenciales ordinarias y parciales: problemas de estado estacionario y dependientes del tiempo (Vol. 98). SIAM.
  4. ^ Slimane Adjerid y Mahboub Baccouch (2010) Métodos de Galerkin. Scholarpedia, 5(10):10056.
  5. ^ Griffiths, DF y Higham, DJ (2010). Métodos numéricos para ecuaciones diferenciales ordinarias: problemas de valor inicial. Springer Science & Business Media.
  6. ^ Hairer, Nørsett y Wanner (1993, págs. 204-215) harvtxt error: no target: CITEREFHairerNørsettWanner1993 (help)
  7. ^ Alexander, R. (1977). Métodos de Runge-Kutta implícitos diagonalmente para ecuaciones diferenciales ordinarias rígidas. Revista SIAM sobre análisis numérico, 14(6), 1006-1021.
  8. ^ Cash, JR (1979). Fórmulas de Runge-Kutta implícitas diagonalmente con estimaciones de error. IMA Journal of Applied Mathematics, 24(3), 293-301.
  9. ^ Ferracina, L., y Spijker, MN (2008). Fuerte estabilidad de los métodos Runge-Kutta implícitos en diagonal simple. Matemáticas numéricas aplicadas, 58(11), 1675-1686.
  10. ^ Everhart, E. (1985). Un integrador eficiente que utiliza espaciamientos de Gauss-Radau. En International Astronomical Union Colloquium (Vol. 83, pp. 185–202). Cambridge University Press.
  11. ^ Weisstein, Eric W. "Cuadratura gaussiana". De MathWorld, un recurso web de Wolfram. https://mathworld.wolfram.com/GaussianQuadrature.html
  12. ^ Butcher, JC (1987). El análisis numérico de ecuaciones diferenciales ordinarias: Runge-Kutta y métodos lineales generales. Wiley-Interscience.
  13. ^ Hochbruck (2010, pp. 209–286) Este es un artículo de revisión moderno y extenso sobre integradores exponenciales. harvtxt error: no target: CITEREFHochbruck2010 (help)
  14. ^ Brezinski, C., y Zaglia, MR (2013). Métodos de extrapolación: teoría y práctica. Elsevier.
  15. ^ Monroe, JL (2002). Extrapolación y el algoritmo Bulirsch-Stoer. Physical Review E, 65(6), 066116.
  16. ^ Kirpekar, S. (2003). Implementación del método de extrapolación de Bulirsch Stoer. Departamento de Ingeniería Mecánica, UC Berkeley/California.
  17. ^ Nurminskii, EA y Buryi, AA (2011). Método Parker-Sochacki para resolver sistemas de ecuaciones diferenciales ordinarias utilizando procesadores gráficos. Análisis numérico y aplicaciones, 4(3), 223.
  18. ^ Hairer, E., Lubich, C. y Wanner, G. (2006). Integración numérica geométrica: algoritmos que preservan la estructura para ecuaciones diferenciales ordinarias (Vol. 31). Springer Science & Business Media.
  19. ^ Hairer, E., Lubich, C. y Wanner, G. (2003). Integración numérica geométrica ilustrada por el método de Störmer-Verlet. Acta Numerica, 12, 399-450.
  20. ^ Nievergelt, Jürg (1964). "Métodos paralelos para la integración de ecuaciones diferenciales ordinarias". Comunicaciones de la ACM . 7 (12): 731–733. doi : 10.1145/355588.365137 . S2CID  6361754.
  21. ^ "Parallel-in-Time.org". Parallel-in-Time.org . Consultado el 15 de noviembre de 2023 .
  22. ^ Higham, NJ (2002). Precisión y estabilidad de algoritmos numéricos (Vol. 80). SIAM.
  23. ^ Miranker, A. (2001). Métodos numéricos para ecuaciones rígidas y problemas de perturbación singular: y problemas de perturbación singular (Vol. 5). Springer Science & Business Media.
  24. ^ Markus Kunze; Tassilo Kupper (2001). "Sistemas dinámicos no uniformes: una descripción general". En Bernold Fiedler (ed.). Teoría ergódica, análisis y simulación eficiente de sistemas dinámicos . Springer Science & Business Media. pág. 431. ISBN 978-3-540-41290-8.
  25. ^ Thao Dang (2011). "Pruebas basadas en modelos de sistemas híbridos". En Justyna Zander, Ina Schieferdecker y Pieter J. Mosterman (ed.). Pruebas basadas en modelos para sistemas integrados . CRC Press. pág. 411. ISBN 978-1-4398-1845-9.
  26. ^ Brezinski, C., y Wuytack, L. (2012). Análisis numérico: desarrollos históricos en el siglo XX. Elsevier.
  27. ^ Butcher, JC (1996). Una historia de los métodos de Runge-Kutta. Matemáticas numéricas aplicadas, 20(3), 247-260.
  28. ^ Ascher, UM, Mattheij, RM y Russell, RD (1995). Solución numérica de problemas de valores en la frontera para ecuaciones diferenciales ordinarias. Sociedad de Matemáticas Industriales y Aplicadas.

Referencias

  • Bradie, Brian (2006). Una introducción amistosa al análisis numérico . Upper Saddle River, Nueva Jersey: Pearson Prentice Hall. ISBN 978-0-13-013054-9.
  • JC Butcher , Métodos numéricos para ecuaciones diferenciales ordinarias , ISBN 0-471-96758-0 
  • Ernst Hairer, Syvert Paul Nørsett y Gerhard Wanner, Resolución de ecuaciones diferenciales ordinarias I: problemas no rígidos, segunda edición, Springer Verlag, Berlín, 1993. ISBN 3-540-56670-8 . 
  • Ernst Hairer y Gerhard Wanner, Resolución de ecuaciones diferenciales ordinarias II: Problemas rígidos y diferenciales-algebraicos, segunda edición, Springer Verlag, Berlín, 1996. ISBN 3-540-60452-9 . (Esta monografía de dos volúmenes cubre sistemáticamente todos los aspectos del campo). 
  • Hochbruck, Marlis ; Ostermann, Alexander (mayo de 2010). "Integradores exponenciales". Acta Numerica . 19 : 209–286. Código Bibliográfico :2010AcNum..19..209H. CiteSeerX  10.1.1.187.6794 . doi :10.1017/S0962492910000048. S2CID  4841957.
  • Arieh Iserles, A First Course in the Numerical Analysis of Differential Equations, Cambridge University Press, 1996. ISBN 0-521-55376-8 (tapa dura), ISBN 0-521-55655-4 (tapa blanda). (Libro de texto, dirigido a estudiantes avanzados de pregrado y posgrado en matemáticas, que también analiza ecuaciones diferenciales parciales numéricas ).  
  • John Denholm Lambert, Numerical Methods for Ordinary Differential Systems, John Wiley & Sons, Chichester, 1991. ISBN 0-471-92990-5 . (Libro de texto, ligeramente más exigente que el libro de Iserles). 
  • Joseph W. Rudmin, Aplicación del método Parker-Sochacki a la mecánica celeste Archivado el 16 de mayo de 2016 en el Archivo Web Portugués , 1998.
  • Dominique Tournès, L'intégration approchée des équations différentielles ordinaires (1671-1914) , tesis de doctorado de la universidad de París 7 - Denis Diderot, junio de 1996. Réimp. Villeneuve d'Ascq: Presses universitaires du Septentrion, 1997, 468 p. (Extenso material en línea sobre la historia del análisis numérico de ODE; para material en inglés sobre la historia del análisis numérico de ODE, consulte, por ejemplo, los libros en papel de Chabert y Goldstine citados por él).
  • Pchelintsev, AN (2020). "Un método numérico preciso y un algoritmo para construir soluciones de sistemas caóticos". Revista de dinámica no lineal aplicada . 9 (2): 207–221. arXiv : 2011.10664 . doi :10.5890/JAND.2020.06.004. S2CID  225853788.
  • kv en GitHub ( biblioteca C++ con solucionadores rigurosos de ODE)
  • INTLAB (una biblioteca creada por MATLAB / GNU Octave que incluye solucionadores rigurosos de EDO)
Retrieved from "https://en.wikipedia.org/w/index.php?title=Numerical_methods_for_ordinary_differential_equations&oldid=1228679196"