Este artículo incluye una lista de referencias generales , pero carece de suficientes citas en línea correspondientes . ( Marzo de 2023 ) |
Ecuaciones diferenciales |
---|
Alcance |
Classification |
Solution |
People |
En matemáticas , una ecuación diferencial parcial ( EDP ) es una ecuación que calcula una función entre varias derivadas parciales de una función multivariable .
La función se considera a menudo como una "incógnita" que debe resolverse, de forma similar a cómo se considera a x como un número desconocido que debe resolverse en una ecuación algebraica como x 2 − 3 x + 2 = 0 . Sin embargo, suele ser imposible escribir fórmulas explícitas para las soluciones de ecuaciones diferenciales parciales. En consecuencia, existe una gran cantidad de investigación matemática y científica moderna sobre métodos para aproximar numéricamente las soluciones de ciertas ecuaciones diferenciales parciales utilizando computadoras. Las ecuaciones diferenciales parciales también ocupan un gran sector de la investigación matemática pura , en la que las preguntas habituales son, en términos generales, sobre la identificación de características cualitativas generales de las soluciones de varias ecuaciones diferenciales parciales, como la existencia, la unicidad, la regularidad y la estabilidad. [1] Entre las muchas preguntas abiertas se encuentran la existencia y la suavidad de las soluciones a las ecuaciones de Navier-Stokes , nombradas como uno de los Problemas del Premio del Milenio en 2000.
Las ecuaciones diferenciales parciales son omnipresentes en los campos científicos orientados a las matemáticas, como la física y la ingeniería . Por ejemplo, son fundamentales en la comprensión científica moderna del sonido , el calor , la difusión , la electrostática , la electrodinámica , la termodinámica , la dinámica de fluidos , la elasticidad , la relatividad general y la mecánica cuántica ( ecuación de Schrödinger , ecuación de Pauli , etc.). También surgen de muchas consideraciones puramente matemáticas, como la geometría diferencial y el cálculo de variaciones ; entre otras aplicaciones notables, son la herramienta fundamental en la prueba de la conjetura de Poincaré a partir de la topología geométrica .
Debido en parte a esta variedad de fuentes, existe un amplio espectro de diferentes tipos de ecuaciones diferenciales parciales y se han desarrollado métodos para abordar muchas de las ecuaciones individuales que surgen. Por ello, se suele reconocer que no existe una "teoría general" de las ecuaciones diferenciales parciales y que el conocimiento especializado está dividido en varios subcampos esencialmente distintos. [2]
Las ecuaciones diferenciales ordinarias pueden considerarse una subclase de las ecuaciones diferenciales parciales, correspondientes a funciones de una sola variable. Las ecuaciones diferenciales parciales estocásticas y las ecuaciones no locales son, a partir de 2020, extensiones particularmente estudiadas de la noción de "EDP". Los temas más clásicos, sobre los que todavía hay mucha investigación activa, incluyen ecuaciones diferenciales parciales elípticas y parabólicas , mecánica de fluidos , ecuaciones de Boltzmann y ecuaciones diferenciales parciales dispersivas . [3]
Una función u ( x , y , z ) de tres variables es " armónica " o " una solución de la ecuación de Laplace " si satisface la condición Tales funciones fueron ampliamente estudiadas en el siglo XIX debido a su relevancia para la mecánica clásica , por ejemplo, la distribución de temperatura de equilibrio de un sólido homogéneo es una función armónica. Si se da explícitamente una función, normalmente es cuestión de cálculo sencillo comprobar si es o no armónica. Por ejemplo y son ambas armónicas mientras que no lo es. Puede resultar sorprendente que los dos ejemplos de funciones armónicas tengan una forma tan sorprendentemente diferente. Esto es un reflejo del hecho de que no son , de ninguna manera inmediata, casos especiales de una "fórmula de solución general" de la ecuación de Laplace. Esto contrasta notablemente con el caso de las ecuaciones diferenciales ordinarias (EDO) aproximadamente similares a la ecuación de Laplace, con el objetivo de muchos libros de texto introductorios de encontrar algoritmos que conduzcan a fórmulas de solución generales. Para la ecuación de Laplace, como para un gran número de ecuaciones diferenciales parciales, tales fórmulas de solución no existen.
La naturaleza de esta falla se puede ver más concretamente en el caso de la siguiente EDP: para una función v ( x , y ) de dos variables, considere la ecuación Se puede verificar directamente que cualquier función v de la forma v ( x , y ) = f ( x ) + g ( y ) , para cualesquiera funciones de una sola variable f y g , satisfará esta condición. Esto está mucho más allá de las opciones disponibles en las fórmulas de solución de EDO, que típicamente permiten la libre elección de algunos números. En el estudio de EDP, uno generalmente tiene la libre elección de funciones.
La naturaleza de esta elección varía de una EDP a otra. Para entenderla en cualquier ecuación dada, los teoremas de existencia y unicidad suelen ser principios organizativos importantes. En muchos libros de texto introductorios, el papel de los teoremas de existencia y unicidad para las EDO puede ser algo opaco; la mitad de existencia suele ser innecesaria, ya que se puede comprobar directamente cualquier fórmula de solución propuesta, mientras que la mitad de unicidad suele estar presente solo en segundo plano para garantizar que una fórmula de solución propuesta sea lo más general posible. Por el contrario, para las EDP, los teoremas de existencia y unicidad suelen ser el único medio por el que se puede navegar a través de la plétora de diferentes soluciones disponibles. Por esta razón, también son fundamentales cuando se lleva a cabo una simulación puramente numérica, ya que se debe comprender qué datos debe prescribir el usuario y qué se debe dejar que calcule la computadora.
Para analizar estos teoremas de existencia y unicidad, es necesario precisar el dominio de la "función desconocida". De lo contrario, si se habla sólo en términos como "una función de dos variables", es imposible formular los resultados de manera significativa. Es decir, el dominio de la función desconocida debe considerarse parte de la estructura de la propia EDP.
A continuación se presentan dos ejemplos clásicos de estos teoremas de existencia y unicidad. Aunque las dos EDP en cuestión son tan similares, existe una diferencia llamativa en su comportamiento: para la primera EDP, se tiene la prescripción libre de una sola función, mientras que para la segunda EDP, se tiene la prescripción libre de dos funciones.
Son posibles aún más fenómenos. Por ejemplo, la siguiente ecuación diferencial parcial , que surge de manera natural en el campo de la geometría diferencial , ilustra un ejemplo en el que existe una fórmula de solución simple y completamente explícita, pero con la libre elección de solo tres números y ni siquiera una función.
A diferencia de los ejemplos anteriores, esta EDP no es lineal , debido a las raíces cuadradas y a los cuadrados. Una EDP lineal es aquella que, si es homogénea, la suma de dos soluciones cualesquiera también es una solución, y cualquier múltiplo constante de cualquier solución también es una solución.
Al escribir ecuaciones en derivadas parciales, es común denotar las derivadas parciales mediante subíndices. Por ejemplo: en la situación general en la que u es una función de n variables, entonces u i denota la primera derivada parcial relativa a la entrada i -ésima, u ij denota la segunda derivada parcial relativa a las entradas i -ésima y j -ésima, y así sucesivamente.
La letra griega Δ denota el operador de Laplace ; si u es una función de n variables, entonces En la literatura de física, el operador de Laplace a menudo se denota por ∇ 2 ; en la literatura de matemáticas, ∇ 2 u también puede denotar la matriz hessiana de u .
Una EDP se denomina lineal si es lineal en la incógnita y sus derivadas. Por ejemplo, para una función u de x e y , una EDP lineal de segundo orden tiene la forma donde a i y f son funciones de las variables independientes x e y únicamente. (A menudo, las derivadas parciales mixtas u xy y u yx se igualarán, pero esto no es necesario para la discusión de la linealidad). Si las a i son constantes (independientes de x e y ), entonces la EDP se denomina lineal con coeficientes constantes . Si f es cero en todas partes, entonces la EDP lineal es homogénea ; de lo contrario, es no homogénea . (Esto es independiente de la homogeneización asintótica , que estudia los efectos de las oscilaciones de alta frecuencia en los coeficientes sobre las soluciones de las EDP).
Los tres tipos principales de ecuaciones diferenciales parciales no lineales son las ecuaciones diferenciales parciales semilineales, las ecuaciones diferenciales parciales cuasilineales y las ecuaciones diferenciales parciales completamente no lineales.
Las EDP semilineales más cercanas a las lineales , en las que solo las derivadas de orden superior aparecen como términos lineales, con coeficientes que son funciones de las variables independientes. Las derivadas de orden inferior y la función desconocida pueden aparecer de forma arbitraria. Por ejemplo, una EDP semilineal general de segundo orden en dos variables es
En una EDP cuasilineal , las derivadas de orden superior también aparecen solo como términos lineales, pero con coeficientes que posiblemente sean funciones de las derivadas desconocidas y de orden inferior: muchas de las EDP fundamentales en física son cuasilineales, como las ecuaciones de Einstein de la relatividad general y las ecuaciones de Navier-Stokes que describen el movimiento de fluidos.
Una ecuación diferencial parcial sin propiedades de linealidad se denomina completamente no lineal y posee no linealidades en una o más de las derivadas de orden más alto. Un ejemplo es la ecuación de Monge–Ampère , que surge en geometría diferencial . [4]
La clasificación elíptica/parabólica/hiperbólica proporciona una guía para las condiciones iniciales y de contorno apropiadas y para la suavidad de las soluciones. Suponiendo que u xy = u yx , la EDP lineal general de segundo orden en dos variables independientes tiene la forma donde los coeficientes A , B , C ... pueden depender de x e y . Si A 2 + B 2 + C 2 > 0 sobre una región del plano xy , la EDP es de segundo orden en esa región. Esta forma es análoga a la ecuación para una sección cónica:
Más precisamente, al reemplazar ∂ x por X , y lo mismo para otras variables (formalmente esto se hace mediante una transformada de Fourier ), se convierte una EDP de coeficiente constante en un polinomio del mismo grado, siendo los términos de mayor grado (un polinomio homogéneo , aquí una forma cuadrática ) los más significativos para la clasificación.
De la misma manera que se clasifican las secciones cónicas y las formas cuadráticas en parabólicas, hiperbólicas y elípticas en función del discriminante B 2 − 4 AC , se puede hacer lo mismo para una EDP de segundo orden en un punto dado. Sin embargo, el discriminante en una EDP está dado por B 2 − AC debido a la convención de que el término xy es 2 B en lugar de B ; formalmente, el discriminante (de la forma cuadrática asociada) es (2 B ) 2 − 4 AC = 4( B 2 − AC ) , con el factor 4 eliminado para simplificar.
Si hay n variables independientes x 1 , x 2 , …, x n , una ecuación diferencial parcial lineal general de segundo orden tiene la forma
La clasificación depende de la firma de los valores propios de la matriz de coeficientes a i , j .
La teoría de ecuaciones elípticas, parabólicas e hiperbólicas se ha estudiado durante siglos, en gran medida centrada o basada en los ejemplos estándar de la ecuación de Laplace , la ecuación del calor y la ecuación de onda .
Sin embargo, la clasificación depende únicamente de la linealidad de los términos de segundo orden y, por lo tanto, también es aplicable a ecuaciones en derivadas parciales semilineales y cuasilineales. Los tipos básicos también se extienden a ecuaciones híbridas como la ecuación de Euler-Tricomi , que varía de elíptica a hiperbólica para diferentes regiones del dominio, así como a ecuaciones en derivadas parciales de orden superior, pero dicho conocimiento es más especializado.
La clasificación de ecuaciones diferenciales parciales puede extenderse a sistemas de ecuaciones de primer orden, donde la incógnita u es ahora un vector con m componentes, y las matrices de coeficientes A ν son matrices de m por m para ν = 1, 2, …, n . La ecuación diferencial parcial toma la forma donde las matrices de coeficientes A ν y el vector B pueden depender de x y u . Si una hipersuperficie S se da en la forma implícita donde φ tiene un gradiente distinto de cero, entonces S es una superficie característica para el operador L en un punto dado si la forma característica se anula:
La interpretación geométrica de esta condición es la siguiente: si los datos para u se prescriben en la superficie S , entonces puede ser posible determinar la derivada normal de u en S a partir de la ecuación diferencial. Si los datos en S y la ecuación diferencial determinan la derivada normal de u en S , entonces S no es característico. Si los datos en S y la ecuación diferencial no determinan la derivada normal de u en S , entonces la superficie es característica y la ecuación diferencial restringe los datos en S : la ecuación diferencial es interna a S .
Las EDP lineales pueden reducirse a sistemas de ecuaciones diferenciales ordinarias mediante la importante técnica de separación de variables. Esta técnica se basa en una característica de las soluciones de ecuaciones diferenciales: si se puede encontrar una solución que resuelva la ecuación y satisfaga las condiciones de contorno, entonces es la solución (esto también se aplica a las EDO). Suponemos como respuesta que la dependencia de una solución de los parámetros espacio y tiempo puede escribirse como un producto de términos que dependen cada uno de un único parámetro, y luego vemos si esto puede hacerse para resolver el problema. [7]
En el método de separación de variables, se reduce una EDP a una EDP con menos variables, que es una ecuación diferencial ordinaria si tiene una sola variable; estas a su vez son más fáciles de resolver.
Esto es posible para ecuaciones diferenciales parciales simples, que se denominan ecuaciones diferenciales parciales separables , y el dominio es generalmente un rectángulo (un producto de intervalos). Las ecuaciones diferenciales parciales separables corresponden a matrices diagonales : si se piensa en "el valor de x fijo " como una coordenada, cada coordenada se puede entender por separado.
Esto se generaliza al método de características y también se utiliza en transformadas integrales .
La superficie característica en un espacio n = 2 - dimensional se llama curva característica . [8] En casos especiales, se pueden encontrar curvas características en las que la EDP de primer orden se reduce a una EDO – cambiar las coordenadas en el dominio para enderezar estas curvas permite la separación de variables, y se llama método de características .
De manera más general, al aplicar el método a ecuaciones en derivadas parciales de primer orden en dimensiones superiores, se pueden encontrar superficies características.
Una transformación integral puede transformar la EDP en una EDP más simple, en particular, una EDP separable. Esto corresponde a la diagonalización de un operador.
Un ejemplo importante de esto es el análisis de Fourier , que diagonaliza la ecuación de calor utilizando la base propia de las ondas sinusoidales.
Si el dominio es finito o periódico, es adecuada una suma infinita de soluciones, como una serie de Fourier , pero, en general, se requiere una integral de soluciones, como una integral de Fourier, para dominios infinitos. La solución para una fuente puntual de la ecuación del calor que se muestra arriba es un ejemplo del uso de una integral de Fourier.
A menudo, una ecuación diferencial parcial se puede reducir a una forma más simple con una solución conocida mediante un cambio adecuado de variables . Por ejemplo, la ecuación de Black-Scholes se puede reducir a la ecuación del calor mediante el cambio de variables [9].
Las ecuaciones no homogéneas [ aclaración necesaria ] a menudo se pueden resolver (para ecuaciones en derivadas parciales de coeficiente constante, siempre se pueden resolver) encontrando la solución fundamental (la solución para una fuente puntual) y luego tomando la convolución con las condiciones de contorno para obtener la solución.
Esto es análogo en el procesamiento de señales a comprender un filtro por su respuesta al impulso .
El principio de superposición se aplica a cualquier sistema lineal, incluidos los sistemas lineales de ecuaciones en derivadas parciales. Una visualización común de este concepto es la interacción de dos ondas en fase que se combinan para dar como resultado una mayor amplitud, por ejemplo, sen x + sen x = 2 sen x . El mismo principio se puede observar en ecuaciones en derivadas parciales donde las soluciones pueden ser reales o complejas y aditivas. Si u 1 y u 2 son soluciones de ecuaciones en derivadas parciales lineales en algún espacio funcional R , entonces u = c 1 u 1 + c 2 u 2 con cualquier constante c 1 y c 2 también son una solución de esa ecuación en el mismo espacio funcional.
No existen métodos de aplicación general para resolver ecuaciones en derivadas parciales no lineales. Aun así, a menudo es posible obtener resultados de existencia y unicidad (como el teorema de Cauchy-Kowalevski ), así como pruebas de importantes propiedades cualitativas y cuantitativas de las soluciones (obtener estos resultados es una parte importante del análisis ). Existe una solución computacional para las ecuaciones en derivadas parciales no lineales, el método de pasos divididos , para ecuaciones específicas como la ecuación de Schrödinger no lineal .
Sin embargo, algunas técnicas pueden emplearse para varios tipos de ecuaciones. El principio h es el método más eficaz para resolver ecuaciones indeterminadas . La teoría de Riquier-Janet es un método eficaz para obtener información sobre muchos sistemas analíticos sobredeterminados .
El método de características se puede utilizar en algunos casos muy especiales para resolver ecuaciones diferenciales parciales no lineales. [10]
En algunos casos, una EDP se puede resolver mediante análisis de perturbaciones , en el que la solución se considera una corrección de una ecuación con una solución conocida. Las alternativas son las técnicas de análisis numérico , desde esquemas de diferencias finitas simples hasta los métodos de elementos finitos y multimallas más maduros . Muchos problemas interesantes en ciencia e ingeniería se resuelven de esta manera utilizando computadoras , a veces supercomputadoras de alto rendimiento .
A partir de 1870, los trabajos de Sophus Lie sentaron bases más satisfactorias para la teoría de las ecuaciones diferenciales. Demostró que las teorías de integración de los matemáticos más antiguos pueden, mediante la introducción de lo que ahora se denominan grupos de Lie , remitirse a una fuente común; y que las ecuaciones diferenciales ordinarias que admiten las mismas transformaciones infinitesimales presentan dificultades de integración comparables. También hizo hincapié en el tema de las transformaciones de contacto .
Un enfoque general para resolver EDP utiliza la propiedad de simetría de las ecuaciones diferenciales, las transformaciones infinitesimales continuas de soluciones a soluciones ( teoría de Lie ). La teoría de grupos continuos , las álgebras de Lie y la geometría diferencial se utilizan para comprender la estructura de las ecuaciones diferenciales parciales lineales y no lineales para generar ecuaciones integrables, para encontrar sus pares Lax , operadores de recursión, transformada de Bäcklund y, finalmente, encontrar soluciones analíticas exactas para la EDP.
Se han reconocido los métodos de simetría para estudiar ecuaciones diferenciales que surgen en matemáticas, física, ingeniería y muchas otras disciplinas.
El método de descomposición de Adomian , [11] el método artificial de pequeños parámetros de Lyapunov y su método de perturbación de homotopía son todos casos especiales del método de análisis de homotopía más general . [12] Estos son métodos de expansión en serie y, a excepción del método de Lyapunov, son independientes de pequeños parámetros físicos en comparación con la conocida teoría de perturbación , lo que les da a estos métodos una mayor flexibilidad y generalidad de la solución.
Los tres métodos numéricos más utilizados para resolver EDP son el método de elementos finitos (FEM), los métodos de volumen finito (FVM) y los métodos de diferencias finitas (FDM), así como otro tipo de métodos llamados métodos sin malla , que se realizaron para resolver problemas donde los métodos antes mencionados son limitados. El FEM tiene una posición destacada entre estos métodos y especialmente su versión de orden superior excepcionalmente eficiente hp-FEM . Otras versiones híbridas de FEM y métodos sin malla incluyen el método de elementos finitos generalizados (GFEM), el método de elementos finitos extendidos (XFEM), el método de elementos finitos espectrales (SFEM), el método de elementos finitos sin malla , el método de elementos finitos de Galerkin discontinuo (DGFEM), el método de Galerkin sin elementos (EFGM), el método de Galerkin sin elementos por interpolación (IEFGM), etc.
El método de elementos finitos (FEM) (su aplicación práctica a menudo conocida como análisis de elementos finitos (FEA)) es una técnica numérica para encontrar soluciones aproximadas de ecuaciones diferenciales parciales (EDP) así como de ecuaciones integrales. [13] [14] El enfoque de la solución se basa en eliminar completamente la ecuación diferencial (problemas de estado estacionario), o en convertir la EDP en un sistema aproximado de ecuaciones diferenciales ordinarias, que luego se integran numéricamente utilizando técnicas estándar como el método de Euler, Runge-Kutta, etc.
Los métodos de diferencias finitas son métodos numéricos para aproximar las soluciones de ecuaciones diferenciales utilizando ecuaciones de diferencias finitas para aproximar derivadas.
De manera similar al método de diferencias finitas o al método de elementos finitos, los valores se calculan en lugares discretos de una geometría en malla. El "volumen finito" se refiere al pequeño volumen que rodea cada punto de nodo de una malla. En el método del volumen finito, las integrales de superficie en una ecuación diferencial parcial que contienen un término de divergencia se convierten en integrales de volumen, utilizando el teorema de divergencia . Luego, estos términos se evalúan como flujos en las superficies de cada volumen finito. Debido a que el flujo que ingresa a un volumen dado es idéntico al que sale del volumen adyacente, estos métodos conservan la masa por diseño.
El planteamiento correcto se refiere a un paquete esquemático común de información sobre una EDP. Para decir que una EDP está bien planteada, se debe cumplir con lo siguiente:
Esto es, por la necesidad de ser aplicable a varias EDP diferentes, algo vago. El requisito de "continuidad", en particular, es ambiguo, ya que normalmente hay muchos medios no equivalentes por los cuales puede definirse rigurosamente. Sin embargo, es algo inusual estudiar una EDP sin especificar una forma en la que esté bien planteada.
El método de la energía es un procedimiento matemático que se puede utilizar para verificar el correcto planteamiento de problemas con valores iniciales en la frontera (IBVP). [18] En el siguiente ejemplo, se utiliza el método de la energía para decidir dónde y qué condiciones de frontera se deben imponer de modo que el IBVP resultante esté bien planteado. Considere la EDP hiperbólica unidimensional dada por
donde es una constante y es una función desconocida con condición inicial . Multiplicando por e integrando sobre el dominio se obtiene
Usando lo que se ha usado en la integración por partes para la primera relación, obtenemos
Aquí denota la norma estándar . Para que esté bien planteado, requerimos que la energía de la solución no sea creciente, es decir, que , lo que se logra especificando en si y en si . Esto corresponde a imponer solo condiciones de contorno en la entrada. El bien planteado permite el crecimiento en términos de datos (iniciales y de contorno) y, por lo tanto, es suficiente demostrar que se cumple cuando todos los datos se establecen en cero.
El teorema de Cauchy-Kowalevski para problemas de valores iniciales de Cauchy establece esencialmente que si los términos de una ecuación diferencial parcial están todos compuestos de funciones analíticas y se satisface una determinada condición de transversalidad (el hiperplano o, más generalmente, la hipersuperficie donde se plantean los datos iniciales debe ser no característico con respecto al operador diferencial parcial), entonces, en ciertas regiones, necesariamente existen soluciones que también son funciones analíticas. Este es un resultado fundamental en el estudio de ecuaciones diferenciales parciales analíticas. Sorprendentemente, el teorema no se cumple en el contexto de funciones suaves; un ejemplo descubierto por Hans Lewy en 1957 consiste en una ecuación diferencial parcial lineal cuyos coeficientes son suaves (es decir, tienen derivadas de todos los órdenes) pero no analíticos para los que no existe solución. Por lo tanto, el teorema de Cauchy-Kowalevski está necesariamente limitado en su alcance a las funciones analíticas.
Algunas EDP comunes
Tipos de condiciones de contorno
Varios temas
{{citation}}
: CS1 maint: multiple names: authors list (link).