Ecuaciones diferenciales |
---|
Alcance |
Clasificación |
Solución |
Gente |
En matemáticas , la separación de variables (también conocida como método de Fourier ) es cualquiera de varios métodos para resolver ecuaciones diferenciales ordinarias y parciales , en los que el álgebra permite reescribir una ecuación de modo que cada una de las dos variables aparezca en un lado diferente de la ecuación.
Una ecuación diferencial para lo desconocido será separable si se puede escribir en la forma
donde y son funciones dadas. Esto es quizás más transparente cuando se escribe como:
Entonces ahora, mientras h ( y ) ≠ 0, podemos reorganizar los términos para obtener:
donde las dos variables x e y se han separado. Nótese que dx (y dy ) pueden considerarse, en un nivel simple, como una simple notación conveniente, que proporciona una ayuda mnemotécnica útil para facilitar las manipulaciones. Una definición formal de dx como diferencial (infinitesimal) es algo avanzada.
Aquellos a quienes no les gusta la notación de Leibniz pueden preferir escribir esto como
pero eso no hace que sea tan obvio por qué esto se llama "separación de variables". Integrando ambos lados de la ecuación con respecto a , tenemos
( A1 ) |
o equivalentemente,
debido a la regla de sustitución para integrales .
Si se pueden evaluar las dos integrales, se puede encontrar una solución a la ecuación diferencial. Observe que este proceso nos permite tratar la derivada como una fracción que se puede separar. Esto nos permite resolver ecuaciones diferenciales separables de manera más conveniente, como se demuestra en el siguiente ejemplo.
(Tenga en cuenta que no necesitamos utilizar dos constantes de integración en la ecuación ( A1 ) como en
porque una sola constante es equivalente.)
El crecimiento de la población se modela a menudo mediante la ecuación diferencial "logística"
donde es la población con respecto al tiempo , es la tasa de crecimiento y es la capacidad de sustentación del medio ambiente. La separación de variables ahora conduce a
que se integra fácilmente usando fracciones parciales en el lado izquierdo, obteniéndose
donde A es la constante de integración. Podemos encontrar en términos de en t=0. Observando que obtenemos
De la misma manera que se puede hablar de una EDO de primer orden separable, se puede hablar de una EDO de segundo, tercer o n -ésimo orden separable. Consideremos la EDO de primer orden separable:
La derivada se puede escribir alternativamente de la siguiente manera para subrayar que es un operador que trabaja sobre la función desconocida, y :
Por lo tanto, cuando se separan las variables para ecuaciones de primer orden, en realidad se mueve el denominador dx del operador hacia el lado de la variable x , y se deja d ( y ) en el lado de la variable y . El operador de segunda derivada, por analogía, se descompone de la siguiente manera:
Los operadores de derivada tercera, cuarta y n -ésima se descomponen de la misma manera. Por lo tanto, de manera muy similar a una EDO separable de primer orden, es reducible a la forma
Una EDO de segundo orden separable es reducible a la forma
y una EDO separable de orden n es reducible a
Considere la ecuación diferencial simple no lineal de segundo orden: Esta ecuación es una ecuación solo de y'' e y' , lo que significa que es reducible a la forma general descrita anteriormente y, por lo tanto, es separable. Dado que es una ecuación separable de segundo orden, junte todas las variables x en un lado y todas las variables y' en el otro para obtener: Ahora, integre el lado derecho con respecto a x y el izquierdo con respecto a y' : Esto da que se simplifica a: Este es ahora un problema integral simple que da la respuesta final:
El método de separación de variables también se utiliza para resolver una amplia gama de ecuaciones diferenciales parciales lineales con condiciones de borde e iniciales, como la ecuación del calor , la ecuación de onda , la ecuación de Laplace , la ecuación de Helmholtz y la ecuación biarmónica .
El método analítico de separación de variables para resolver ecuaciones diferenciales parciales también se ha generalizado en un método computacional de descomposición en estructuras invariantes que se puede utilizar para resolver sistemas de ecuaciones diferenciales parciales. [1]
Consideremos la ecuación de calor unidimensional . La ecuación es
( 1 ) |
La variable u denota la temperatura. La condición de contorno es homogénea, es decir
( 2 ) |
Intentemos encontrar una solución que no sea idénticamente cero que satisfaga las condiciones de contorno pero que tenga la siguiente propiedad: u es un producto en el que la dependencia de u sobre x , t está separada, es decir:
( 3 ) |
Sustituyendo u nuevamente en la ecuación ( 1 ) y utilizando la regla del producto ,
( 4 ) |
Como el lado derecho depende solo de x y el lado izquierdo solo de t , ambos lados son iguales a un valor constante − λ . Por lo tanto:
( 5 ) |
y
( 6 ) |
− λ aquí es el valor propio para ambos operadores diferenciales, y T ( t ) y X ( x ) son funciones propias correspondientes .
Ahora demostraremos que no pueden ocurrir soluciones para X ( x ) para valores de λ ≤ 0:
Supongamos que λ < 0. Entonces existen números reales B , C tales que
De ( 2 ) obtenemos
( 7 ) |
y por lo tanto B = 0 = C lo que implica que u es idénticamente 0.
Supongamos que λ = 0. Entonces existen números reales B , C tales que
De ( 7 ) concluimos de la misma manera que en 1 que u es idénticamente 0.
Por lo tanto, debe ser el caso que λ > 0. Entonces existen números reales A , B , C tales que
y
De ( 7 ) obtenemos C = 0 y que para algún entero positivo n ,
Esto resuelve la ecuación de calor en el caso especial de que la dependencia de u tiene la forma especial de ( 3 ).
En general, la suma de soluciones de ( 1 ) que satisfacen las condiciones de contorno ( 2 ) también satisface ( 1 ) y ( 3 ). Por lo tanto, una solución completa puede darse como
donde D n son coeficientes determinados por la condición inicial.
Dada la condición inicial
podemos conseguir
Esta es la expansión de la serie de senos de f ( x ) que se puede analizar mediante el análisis de Fourier. Al multiplicar ambos lados por e integrar sobre [0, L ] se obtiene
Este método requiere que las funciones propias X , aquí , sean ortogonales y completas . En general, esto está garantizado por la teoría de Sturm-Liouville .
Supongamos que la ecuación no es homogénea,
( 8 ) |
con la condición de contorno igual que ( 2 ).
Expande h ( x, t ), u ( x , t ) y f ( x ) en
( 9 ) |
( 10 ) |
( 11 ) |
donde h n ( t ) y b n se pueden calcular por integración, mientras que u n ( t ) debe determinarse.
Sustituimos ( 9 ) y ( 10 ) en ( 8 ) y considerando la ortogonalidad de las funciones seno obtenemos
que son una secuencia de ecuaciones diferenciales lineales que se pueden resolver fácilmente con, por ejemplo, la transformada de Laplace o el factor de integración . Finalmente, podemos obtener
Si la condición de contorno no es homogénea, entonces la expansión de ( 9 ) y ( 10 ) ya no es válida. Hay que encontrar una función v que satisfaga solo la condición de contorno y restarla de u . La función uv satisface entonces la condición de contorno homogénea y se puede resolver con el método anterior.
En el caso de algunas ecuaciones que implican derivadas mixtas, la ecuación no se separa tan fácilmente como la ecuación del calor en el primer ejemplo anterior, pero aun así se puede aplicar la separación de variables. Consideremos la ecuación biarmónica bidimensional
Procediendo de la manera habitual, buscamos soluciones de la forma
y obtenemos la ecuación
Escribiendo esta ecuación en la forma
Tomando la derivada de esta expresión con respecto a se obtiene lo que significa o y, asimismo, tomando la derivada con respecto a se obtiene y, por lo tanto , o , por lo tanto, F ( x ) o G ( y ) deben ser constantes, digamos −λ. Esto implica además que o son constantes. Volviendo a la ecuación para X e Y , tenemos dos casos
y
que pueden resolverse considerando los casos separados para y observando que .
En las coordenadas curvilíneas ortogonales , la separación de variables todavía se puede utilizar, pero en algunos detalles es diferente a la de las coordenadas cartesianas. Por ejemplo, la regularidad o la condición periódica pueden determinar los valores propios en lugar de las condiciones de contorno. Véase, por ejemplo, los armónicos esféricos .
En el caso de muchas ecuaciones en derivadas parciales, como la ecuación de onda, la ecuación de Helmholtz y la ecuación de Schrödinger, la aplicabilidad de la separación de variables es resultado del teorema espectral . En algunos casos, la separación de variables puede no ser posible. La separación de variables puede ser posible en algunos sistemas de coordenadas, pero no en otros [2] , y qué sistemas de coordenadas permiten la separación depende de las propiedades de simetría de la ecuación [3] . A continuación se presenta un esquema de un argumento que demuestra la aplicabilidad del método a ciertas ecuaciones lineales, aunque el método preciso puede diferir en casos individuales (por ejemplo, en la ecuación biarmónica anterior).
Consideremos un problema de valor límite inicial para una función en dos variables:
donde es un operador diferencial con respecto a y es un operador diferencial con respecto a con datos de contorno:
donde es una función conocida.
Buscamos soluciones de la forma . Dividiendo la EDP entre , obtenemos
El lado derecho depende solo de y el lado izquierdo solo de, por lo que ambos deben ser iguales a una constante , lo que da dos ecuaciones diferenciales ordinarias.
que podemos reconocer como problemas de valor propio para los operadores para y . Si es un operador compacto y autoadjunto en el espacio junto con las condiciones de contorno relevantes, entonces por el teorema espectral existe una base para que consiste en funciones propias para . Sea el espectro de y sea una función propia con valor propio . Entonces, para cualquier función que en cada momento sea integrable al cuadrado con respecto a , podemos escribir esta función como una combinación lineal de . En particular, sabemos que la solución se puede escribir como
Para algunas funciones . En la separación de variables, estas funciones se dan por soluciones a
Por lo tanto, el teorema espectral asegura que la separación de variables encontrará (cuando sea posible) todas las soluciones.
Para muchos operadores diferenciales, como , podemos demostrar que son autoadjuntos mediante la integración por partes. Si bien estos operadores pueden no ser compactos, sus inversos (cuando existen) pueden serlo, como en el caso de la ecuación de onda, y estos inversos tienen las mismas funciones propias y valores propios que el operador original (con la posible excepción de cero). [4]
La forma matricial de la separación de variables es la suma de Kronecker .
Como ejemplo, consideramos el Laplaciano discreto 2D en una cuadrícula regular :
donde y son laplacianos discretos unidimensionales en las direcciones x e y , respectivamente, y son las identidades de tamaños apropiados. Consulte el artículo principal Suma de Kronecker de laplacianos discretos para obtener más detalles.
Algunos programas matemáticos son capaces de realizar separación de variables: Xcas [5] entre otros.