Cálculo de variaciones

Cálculo diferencial en espacios funcionales

El cálculo de variaciones (o cálculo variacional ) es un campo del análisis matemático que utiliza variaciones, que son pequeños cambios en funciones y funcionales , para encontrar máximos y mínimos de funcionales: aplicaciones de un conjunto de funciones a los números reales . [a] Los funcionales a menudo se expresan como integrales definidas que involucran funciones y sus derivadas . Las funciones que maximizan o minimizan los funcionales se pueden encontrar utilizando la ecuación de Euler-Lagrange del cálculo de variaciones.

Un ejemplo sencillo de este tipo de problema es encontrar la curva de menor longitud que conecta dos puntos. Si no hay restricciones, la solución es una línea recta entre los puntos. Sin embargo, si la curva está restringida a estar sobre una superficie en el espacio, entonces la solución es menos obvia y posiblemente existan muchas soluciones. Tales soluciones se conocen como geodésicas . Un problema relacionado es el que plantea el principio de Fermat : la luz sigue la trayectoria de menor longitud óptica que conecta dos puntos, que depende del material del medio. Un concepto correspondiente en mecánica es el principio de acción mínima/estacionaria .

Muchos problemas importantes involucran funciones de varias variables. Las soluciones de problemas de valores en la frontera para la ecuación de Laplace satisfacen el principio de Dirichlet . El problema de Plateau requiere encontrar una superficie de área mínima que abarque un contorno dado en el espacio: a menudo se puede encontrar una solución sumergiendo un marco en agua jabonosa. Aunque estos experimentos son relativamente fáciles de realizar, su formulación matemática dista mucho de ser simple: puede haber más de una superficie que se minimiza localmente y pueden tener una topología no trivial .

Historia

El cálculo de variaciones puede decirse que comenzó con el problema de resistencia mínima de Newton en 1687, seguido por el problema de la curva braquistócrona planteado por Johann Bernoulli (1696). [2] Inmediatamente ocupó la atención de Jacob Bernoulli y el Marqués de l'Hôpital , pero Leonhard Euler elaboró ​​el tema por primera vez, a partir de 1733. Lagrange fue influenciado por el trabajo de Euler para contribuir significativamente a la teoría. Después de que Euler viera el trabajo de 1755 de Lagrange, de 19 años, Euler abandonó su propio enfoque parcialmente geométrico a favor del enfoque puramente analítico de Lagrange y renombró el tema como cálculo de variaciones en su conferencia de 1756 Elementa Calculi Variationum . [3] [4] [b]

Legendre (1786) estableció un método, no del todo satisfactorio, para la discriminación de máximos y mínimos. Isaac Newton y Gottfried Leibniz también prestaron cierta atención temprana al tema. [5] Vincenzo Brunacci (1810), Carl Friedrich Gauss (1829), Siméon Poisson (1831), Mikhail Ostrogradsky (1834) y Carl Jacobi (1837) han contribuido a esta discriminación . Una obra general importante es la de Sarrus (1842), que fue condensada y mejorada por Cauchy (1844). Otros tratados y memorias valiosos han sido escritos por Strauch (1849), Jellett (1850), Otto Hesse (1857), Alfred Clebsch (1858) y Lewis Buffett Carll (1885), pero quizás la obra más importante del siglo es la de Weierstrass . Su célebre trabajo sobre la teoría marcó un hito y se puede afirmar que fue el primero en sentar unas bases firmes e incuestionables. Los problemas 20 y 23 de Hilbert , publicados en 1900, alentaron un mayor desarrollo de la misma. [5]

En el siglo XX, David Hilbert , Oskar Bolza , Gilbert Ames Bliss , Emmy Noether , Leonida Tonelli , Henri Lebesgue y Jacques Hadamard , entre otros, hicieron importantes contribuciones. [5] Marston Morse aplicó el cálculo de variaciones en lo que ahora se llama teoría de Morse . [6] Lev Pontryagin , Ralph Rockafellar y FH Clarke desarrollaron nuevas herramientas matemáticas para el cálculo de variaciones en la teoría del control óptimo . [6] La programación dinámica de Richard Bellman es una alternativa al cálculo de variaciones. [7] [8] [9] [c]

Extrema

El cálculo de variaciones se ocupa de los máximos o mínimos (llamados colectivamente extremos ) de los funcionales. Un funcional asigna funciones a escalares , por lo que los funcionales se han descrito como "funciones de funciones". Los funcionales tienen extremos con respecto a los elementos de un espacio de funciones dado definido sobre un dominio dado . Se dice que un funcional tiene un extremo en la función si tiene el mismo signo para todos en un entorno arbitrariamente pequeño de [d] La función se llama función extremal o extremal. [e] El extremo se llama máximo local si en todas partes en un entorno arbitrariamente pequeño de y mínimo local si hay. Para un espacio de funciones de funciones continuas, los extremos de los funcionales correspondientes se llaman extremos fuertes o extremos débiles , dependiendo de si las primeras derivadas de las funciones continuas son respectivamente todas continuas o no. [11] y {\displaystyle y} J [ y ] {\displaystyle J[y]} f {\displaystyle f} Δ J = J [ y ] J [ f ] {\displaystyle \Delta J=J[y]-J[f]} y {\displaystyle y} f . {\displaystyle f.} f {\displaystyle f} J [ f ] {\displaystyle J[f]} Δ J 0 {\displaystyle \Delta J\leq 0} f , {\displaystyle f,} Δ J 0 {\displaystyle \Delta J\geq 0}

Tanto los extremos fuertes como los débiles de las funciones son para un espacio de funciones continuas, pero los extremos fuertes tienen el requisito adicional de que las primeras derivadas de las funciones en el espacio sean continuas. Por lo tanto, un extremo fuerte también es un extremo débil, pero la inversa puede no ser cierta. Encontrar extremos fuertes es más difícil que encontrar extremos débiles. [12] Un ejemplo de una condición necesaria que se utiliza para encontrar extremos débiles es la ecuación de Euler-Lagrange . [13] [f]

Ecuación de Euler-Lagrange

Encontrar los extremos de los funcionales es similar a encontrar los máximos y mínimos de las funciones. Los máximos y mínimos de una función se pueden encontrar encontrando los puntos donde su derivada se anula (es decir, es igual a cero). Los extremos de los funcionales se pueden obtener encontrando funciones para las cuales la derivada funcional es igual a cero. Esto conduce a la solución de la ecuación de Euler-Lagrange asociada . [g]

Considere lo funcional donde J [ y ] = x 1 x 2 L ( x , y ( x ) , y ( x ) ) d x . {\displaystyle J[y]=\int _{x_{1}}^{x_{2}}L\left(x,y(x),y'(x)\right)\,dx\,.}

  • x 1 , x 2 {\displaystyle x_{1},x_{2}} son constantes ,
  • y ( x ) {\displaystyle y(x)} es dos veces continuamente diferenciable,
  • y ( x ) = d y d x , {\displaystyle y'(x)={\frac {dy}{dx}},}
  • L ( x , y ( x ) , y ( x ) ) {\displaystyle L\left(x,y(x),y'(x)\right)} es dos veces continuamente diferenciable con respecto a sus argumentos y x , y , {\displaystyle x,y,} y . {\displaystyle y'.}

Si la función alcanza un mínimo local en y es una función arbitraria que tiene al menos una derivada y se desvanece en los puntos finales y luego, para cualquier número cercano a 0, J [ y ] {\displaystyle J[y]} f , {\displaystyle f,} η ( x ) {\displaystyle \eta (x)} x 1 {\displaystyle x_{1}} x 2 , {\displaystyle x_{2},} ε {\displaystyle \varepsilon } J [ f ] J [ f + ε η ] . {\displaystyle J[f]\leq J[f+\varepsilon \eta ]\,.}

El término se llama variación de la función y se denota por [1] [h] ε η {\displaystyle \varepsilon \eta } f {\displaystyle f} δ f . {\displaystyle \delta f.}

Sustituyendo en la función el resultado es una función de f + ε η {\displaystyle f+\varepsilon \eta } y {\displaystyle y} J [ y ] , {\displaystyle J[y],} ε , {\displaystyle \varepsilon ,}

Φ ( ε ) = J [ f + ε η ] . {\displaystyle \Phi (\varepsilon )=J[f+\varepsilon \eta ]\,.} Dado que el funcional tiene un mínimo para la función tiene un mínimo en y por lo tanto, [i] J [ y ] {\displaystyle J[y]} y = f {\displaystyle y=f} Φ ( ε ) {\displaystyle \Phi (\varepsilon )} ε = 0 {\displaystyle \varepsilon =0} Φ ( 0 ) d Φ d ε | ε = 0 = x 1 x 2 d L d ε | ε = 0 d x = 0 . {\displaystyle \Phi '(0)\equiv \left.{\frac {d\Phi }{d\varepsilon }}\right|_{\varepsilon =0}=\int _{x_{1}}^{x_{2}}\left.{\frac {dL}{d\varepsilon }}\right|_{\varepsilon =0}dx=0\,.}

Al tomar la derivada total de donde y se consideran funciones de en lugar de, se obtiene y porque y L [ x , y , y ] , {\displaystyle L\left[x,y,y'\right],} y = f + ε η {\displaystyle y=f+\varepsilon \eta } y = f + ε η {\displaystyle y'=f'+\varepsilon \eta '} ε {\displaystyle \varepsilon } x , {\displaystyle x,} d L d ε = L y d y d ε + L y d y d ε {\displaystyle {\frac {dL}{d\varepsilon }}={\frac {\partial L}{\partial y}}{\frac {dy}{d\varepsilon }}+{\frac {\partial L}{\partial y'}}{\frac {dy'}{d\varepsilon }}} d y d ε = η {\displaystyle {\frac {dy}{d\varepsilon }}=\eta } d y d ε = η , {\displaystyle {\frac {dy'}{d\varepsilon }}=\eta ',} d L d ε = L y η + L y η . {\displaystyle {\frac {dL}{d\varepsilon }}={\frac {\partial L}{\partial y}}\eta +{\frac {\partial L}{\partial y'}}\eta '.}

Por lo tanto, donde cuando y hemos utilizado la integración por partes en el segundo término. El segundo término en la segunda línea se anula porque en y por definición. Además, como se mencionó anteriormente, el lado izquierdo de la ecuación es cero, por lo que x 1 x 2 d L d ε | ε = 0 d x = x 1 x 2 ( L f η + L f η ) d x = x 1 x 2 L f η d x + L f η | x 1 x 2 x 1 x 2 η d d x L f d x = x 1 x 2 ( L f η η d d x L f ) d x {\displaystyle {\begin{aligned}\int _{x_{1}}^{x_{2}}\left.{\frac {dL}{d\varepsilon }}\right|_{\varepsilon =0}dx&=\int _{x_{1}}^{x_{2}}\left({\frac {\partial L}{\partial f}}\eta +{\frac {\partial L}{\partial f'}}\eta '\right)\,dx\\&=\int _{x_{1}}^{x_{2}}{\frac {\partial L}{\partial f}}\eta \,dx+\left.{\frac {\partial L}{\partial f'}}\eta \right|_{x_{1}}^{x_{2}}-\int _{x_{1}}^{x_{2}}\eta {\frac {d}{dx}}{\frac {\partial L}{\partial f'}}\,dx\\&=\int _{x_{1}}^{x_{2}}\left({\frac {\partial L}{\partial f}}\eta -\eta {\frac {d}{dx}}{\frac {\partial L}{\partial f'}}\right)\,dx\\\end{aligned}}} L [ x , y , y ] L [ x , f , f ] {\displaystyle L\left[x,y,y'\right]\to L\left[x,f,f'\right]} ε = 0 {\displaystyle \varepsilon =0} η = 0 {\displaystyle \eta =0} x 1 {\displaystyle x_{1}} x 2 {\displaystyle x_{2}} x 1 x 2 η ( x ) ( L f d d x L f ) d x = 0 . {\displaystyle \int _{x_{1}}^{x_{2}}\eta (x)\left({\frac {\partial L}{\partial f}}-{\frac {d}{dx}}{\frac {\partial L}{\partial f'}}\right)\,dx=0\,.}

Según el lema fundamental del cálculo de variaciones , la parte del integrando entre paréntesis es cero, es decir, que se denomina ecuación de Euler-Lagrange . El lado izquierdo de esta ecuación se denomina derivada funcional de y se denota L f d d x L f = 0 {\displaystyle {\frac {\partial L}{\partial f}}-{\frac {d}{dx}}{\frac {\partial L}{\partial f'}}=0} J [ f ] {\displaystyle J[f]} δ J / δ f ( x ) . {\displaystyle \delta J/\delta f(x).}

En general, esto da una ecuación diferencial ordinaria de segundo orden que puede resolverse para obtener la función extremal. La ecuación de Euler-Lagrange es una condición necesaria , pero no suficiente , para un extremo. Una condición suficiente para un mínimo se da en la sección Variaciones y condición suficiente para un mínimo. f ( x ) . {\displaystyle f(x).} J [ f ] . {\displaystyle J[f].}

Ejemplo

Para ilustrar este proceso, considere el problema de encontrar la función extremal que es la curva más corta que conecta dos puntos y La longitud del arco de la curva está dada por con Nótese que al suponer que y es una función de x se pierde generalidad; idealmente, ambos deberían ser una función de algún otro parámetro. Este enfoque es bueno únicamente con fines instructivos. y = f ( x ) , {\displaystyle y=f(x),} ( x 1 , y 1 ) {\displaystyle \left(x_{1},y_{1}\right)} ( x 2 , y 2 ) . {\displaystyle \left(x_{2},y_{2}\right).} A [ y ] = x 1 x 2 1 + [ y ( x ) ] 2 d x , {\displaystyle A[y]=\int _{x_{1}}^{x_{2}}{\sqrt {1+[y'(x)]^{2}}}\,dx\,,} y ( x ) = d y d x ,     y 1 = f ( x 1 ) ,     y 2 = f ( x 2 ) . {\displaystyle y'(x)={\frac {dy}{dx}}\,,\ \ y_{1}=f(x_{1})\,,\ \ y_{2}=f(x_{2})\,.}

Ahora se utilizará la ecuación de Euler-Lagrange para encontrar la función extrema que minimiza la funcional con f ( x ) {\displaystyle f(x)} A [ y ] . {\displaystyle A[y].} L f d d x L f = 0 {\displaystyle {\frac {\partial L}{\partial f}}-{\frac {d}{dx}}{\frac {\partial L}{\partial f'}}=0} L = 1 + [ f ( x ) ] 2 . {\displaystyle L={\sqrt {1+[f'(x)]^{2}}}\,.}

Dado que no aparece explícitamente en el primer término de la ecuación de Euler-Lagrange se anula para todos y, por lo tanto, sustituyendo y tomando la derivada, f {\displaystyle f} L , {\displaystyle L,} f ( x ) {\displaystyle f(x)} d d x L f = 0 . {\displaystyle {\frac {d}{dx}}{\frac {\partial L}{\partial f'}}=0\,.} L {\displaystyle L} d d x   f ( x ) 1 + [ f ( x ) ] 2   = 0 . {\displaystyle {\frac {d}{dx}}\ {\frac {f'(x)}{\sqrt {1+[f'(x)]^{2}}}}\ =0\,.}

Por lo tanto, para alguna constante Entonces donde Resolviendo, obtenemos lo que implica que es una constante y por lo tanto que la curva más corta que conecta dos puntos y es y por lo tanto hemos encontrado la función extremal que minimiza la funcional de modo que es un mínimo. La ecuación para una línea recta es En otras palabras, la distancia más corta entre dos puntos es una línea recta. [j] f ( x ) 1 + [ f ( x ) ] 2 = c , {\displaystyle {\frac {f'(x)}{\sqrt {1+[f'(x)]^{2}}}}=c\,,} c . {\displaystyle c.} [ f ( x ) ] 2 1 + [ f ( x ) ] 2 = c 2 , {\displaystyle {\frac {[f'(x)]^{2}}{1+[f'(x)]^{2}}}=c^{2}\,,} 0 c 2 < 1. {\displaystyle 0\leq c^{2}<1.} [ f ( x ) ] 2 = c 2 1 c 2 {\displaystyle [f'(x)]^{2}={\frac {c^{2}}{1-c^{2}}}} f ( x ) = m {\displaystyle f'(x)=m} ( x 1 , y 1 ) {\displaystyle \left(x_{1},y_{1}\right)} ( x 2 , y 2 ) {\displaystyle \left(x_{2},y_{2}\right)} f ( x ) = m x + b with     m = y 2 y 1 x 2 x 1 and b = x 2 y 1 x 1 y 2 x 2 x 1 {\displaystyle f(x)=mx+b\qquad {\text{with}}\ \ m={\frac {y_{2}-y_{1}}{x_{2}-x_{1}}}\quad {\text{and}}\quad b={\frac {x_{2}y_{1}-x_{1}y_{2}}{x_{2}-x_{1}}}} f ( x ) {\displaystyle f(x)} A [ y ] {\displaystyle A[y]} A [ f ] {\displaystyle A[f]} y = f ( x ) . {\displaystyle y=f(x).}

Identidad de Beltrami

En problemas de física puede darse el caso de que el integrando sea una función de y pero no aparezca por separado. En ese caso, la ecuación de Euler-Lagrange se puede simplificar a la identidad de Beltrami [16] donde es una constante. El lado izquierdo es la transformación de Legendre de con respecto a L x = 0 , {\displaystyle {\frac {\partial L}{\partial x}}=0,} f ( x ) {\displaystyle f(x)} f ( x ) {\displaystyle f'(x)} x {\displaystyle x} L f L f = C , {\displaystyle L-f'{\frac {\partial L}{\partial f'}}=C\,,} C {\displaystyle C} L {\displaystyle L} f ( x ) . {\displaystyle f'(x).}

La intuición que se esconde detrás de este resultado es que, si la variable es en realidad el tiempo, entonces la afirmación implica que el lagrangiano es independiente del tiempo. Según el teorema de Noether , existe una cantidad conservada asociada. En este caso, esta cantidad es el hamiltoniano, la transformada de Legendre del lagrangiano, que (a menudo) coincide con la energía del sistema. Esta es (menos) la constante en la identidad de Beltrami. x {\displaystyle x} L x = 0 {\displaystyle {\frac {\partial L}{\partial x}}=0}

Ecuación de Euler-Poisson

Si depende de derivadas superiores de es decir, si entonces debe satisfacer la ecuación de Euler- Poisson , [17] S {\displaystyle S} y ( x ) , {\displaystyle y(x),} S = a b f ( x , y ( x ) , y ( x ) , , y ( n ) ( x ) ) d x , {\displaystyle S=\int _{a}^{b}f(x,y(x),y'(x),\dots ,y^{(n)}(x))dx,} y {\displaystyle y} f y d d x ( f y ) + + ( 1 ) n d n d x n [ f y ( n ) ] = 0. {\displaystyle {\frac {\partial f}{\partial y}}-{\frac {d}{dx}}\left({\frac {\partial f}{\partial y'}}\right)+\dots +(-1)^{n}{\frac {d^{n}}{dx^{n}}}\left[{\frac {\partial f}{\partial y^{(n)}}}\right]=0.}

Teorema de Du Bois-Reymond

Hasta ahora, en la discusión se ha supuesto que las funciones extremales poseen dos derivadas continuas, aunque la existencia de la integral requiere sólo las primeras derivadas de las funciones de prueba. La condición de que la primera variación se anule en un extremal puede considerarse como una forma débil de la ecuación de Euler-Lagrange. El teorema de Du Bois-Reymond afirma que esta forma débil implica la forma fuerte. Si tiene derivadas primera y segunda continuas con respecto a todos sus argumentos, y si tiene entonces dos derivadas continuas, satisface la ecuación de Euler-Lagrange. J {\displaystyle J} L {\displaystyle L} 2 L f 2 0 , {\displaystyle {\frac {\partial ^{2}L}{\partial f'^{2}}}\neq 0,} f {\displaystyle f}

Fenómeno de Lavrentiev

Hilbert fue el primero en proporcionar buenas condiciones para que las ecuaciones de Euler-Lagrange dieran una solución estacionaria. Dentro de un área convexa y un lagrangiano positivo tres veces diferenciable, las soluciones están compuestas por una colección numerable de secciones que o bien recorren el límite o satisfacen las ecuaciones de Euler-Lagrange en el interior.

Sin embargo, Lavrentiev en 1926 demostró que hay circunstancias en las que no existe una solución óptima, pero se puede aproximar arbitrariamente a una mediante un número creciente de secciones. El fenómeno de Lavrentiev identifica una diferencia en el ínfimo de un problema de minimización entre diferentes clases de funciones admisibles. Por ejemplo, el siguiente problema, presentado por Manià en 1934: [18] L [ x ] = 0 1 ( x 3 t ) 2 x 6 , {\displaystyle L[x]=\int _{0}^{1}(x^{3}-t)^{2}x'^{6},} A = { x W 1 , 1 ( 0 , 1 ) : x ( 0 ) = 0 ,   x ( 1 ) = 1 } . {\displaystyle {A}=\{x\in W^{1,1}(0,1):x(0)=0,\ x(1)=1\}.}

Claramente, minimiza lo funcional, pero encontramos que cualquier función da un valor acotado a partir del ínfimo. x ( t ) = t 1 3 {\displaystyle x(t)=t^{\frac {1}{3}}} x W 1 , {\displaystyle x\in W^{1,\infty }}

Los ejemplos (en una dimensión) se manifiestan tradicionalmente en y para pero Ball y Mizel [19] obtuvieron el primer funcional que mostró el fenómeno de Lavrentiev en y para Hay varios resultados que dan criterios bajo los cuales el fenómeno no ocurre - por ejemplo, 'crecimiento estándar', un Lagrangiano sin dependencia de la segunda variable, o una secuencia aproximada que satisface la condición de Cesari (D) - pero los resultados son a menudo particulares y aplicables a una pequeña clase de funcionales. W 1 , 1 {\displaystyle W^{1,1}} W 1 , , {\displaystyle W^{1,\infty },} W 1 , p {\displaystyle W^{1,p}} W 1 , q {\displaystyle W^{1,q}} 1 p < q < . {\displaystyle 1\leq p<q<\infty .}

Conectado con el fenómeno de Lavrentiev está la propiedad de repulsión: cualquier funcional que muestre el fenómeno de Lavrentiev mostrará la propiedad de repulsión débil. [20]

Funciones de varias variables

Por ejemplo, si denota el desplazamiento de una membrana por encima del dominio en el plano, entonces su energía potencial es proporcional a su área superficial: El problema de Plateau consiste en encontrar una función que minimice el área superficial mientras se asumen valores prescritos en el límite de ; las soluciones se denominan superficies mínimas . La ecuación de Euler-Lagrange para este problema no es lineal: Véase Courant (1950) para más detalles. φ ( x , y ) {\displaystyle \varphi (x,y)} D {\displaystyle D} x , y {\displaystyle x,y} U [ φ ] = D 1 + φ φ d x d y . {\displaystyle U[\varphi ]=\iint _{D}{\sqrt {1+\nabla \varphi \cdot \nabla \varphi }}\,dx\,dy.} D {\displaystyle D} φ x x ( 1 + φ y 2 ) + φ y y ( 1 + φ x 2 ) 2 φ x φ y φ x y = 0. {\displaystyle \varphi _{xx}(1+\varphi _{y}^{2})+\varphi _{yy}(1+\varphi _{x}^{2})-2\varphi _{x}\varphi _{y}\varphi _{xy}=0.}

Principio de Dirichlet

A menudo es suficiente considerar sólo pequeños desplazamientos de la membrana, cuya diferencia de energía a partir de la ausencia de desplazamiento se aproxima mediante La funcional se debe minimizar entre todas las funciones de prueba que asumen valores prescritos en el límite de Si es la función minimizadora y es una función suave arbitraria que se desvanece en el límite de entonces la primera variación de debe desvanecerse: Siempre que u tenga dos derivadas, podemos aplicar el teorema de divergencia para obtener donde es el límite de es la longitud de arco a lo largo de y es la derivada normal de en Dado que se desvanece en y la primera variación se desvanece, el resultado es para todas las funciones suaves que se desvanecen en el límite de La prueba para el caso de integrales unidimensionales se puede adaptar a este caso para mostrar que en V [ φ ] = 1 2 D φ φ d x d y . {\displaystyle V[\varphi ]={\frac {1}{2}}\iint _{D}\nabla \varphi \cdot \nabla \varphi \,dx\,dy.} V {\displaystyle V} φ {\displaystyle \varphi } D . {\displaystyle D.} u {\displaystyle u} v {\displaystyle v} D , {\displaystyle D,} V [ u + ε v ] {\displaystyle V[u+\varepsilon v]} d d ε V [ u + ε v ] | ε = 0 = D u v d x d y = 0. {\displaystyle \left.{\frac {d}{d\varepsilon }}V[u+\varepsilon v]\right|_{\varepsilon =0}=\iint _{D}\nabla u\cdot \nabla v\,dx\,dy=0.} D ( v u ) d x d y = D u v + v u d x d y = C v u n d s , {\displaystyle \iint _{D}\nabla \cdot (v\nabla u)\,dx\,dy=\iint _{D}\nabla u\cdot \nabla v+v\nabla \cdot \nabla u\,dx\,dy=\int _{C}v{\frac {\partial u}{\partial n}}\,ds,} C {\displaystyle C} D , {\displaystyle D,} s {\displaystyle s} C {\displaystyle C} u / n {\displaystyle \partial u/\partial n} u {\displaystyle u} C . {\displaystyle C.} v {\displaystyle v} C {\displaystyle C} D v u d x d y = 0 {\displaystyle \iint _{D}v\nabla \cdot \nabla u\,dx\,dy=0} v {\displaystyle v} D . {\displaystyle D.} u = 0 {\displaystyle \nabla \cdot \nabla u=0} D . {\displaystyle D.}

La dificultad con este razonamiento es la suposición de que la función minimizadora debe tener dos derivadas. Riemann argumentó que la existencia de una función minimizadora suave estaba asegurada por la conexión con el problema físico: las membranas efectivamente asumen configuraciones con energía potencial mínima. Riemann llamó a esta idea el principio de Dirichlet en honor a su maestro Peter Gustav Lejeune Dirichlet . Sin embargo, Weierstrass dio un ejemplo de un problema variacional sin solución: minimizar entre todas las funciones que satisfacen y pueden hacerse arbitrariamente pequeñas eligiendo funciones lineales por partes que hagan una transición entre −1 y 1 en un pequeño vecindario del origen. Sin embargo, no hay ninguna función que haga [k] Finalmente se demostró que el principio de Dirichlet es válido, pero requiere una aplicación sofisticada de la teoría de la regularidad para ecuaciones diferenciales parciales elípticas ; ver Jost y Li–Jost (1998). u {\displaystyle u} W [ φ ] = 1 1 ( x φ ) 2 d x {\displaystyle W[\varphi ]=\int _{-1}^{1}(x\varphi ')^{2}\,dx} φ {\displaystyle \varphi } φ ( 1 ) = 1 {\displaystyle \varphi (-1)=-1} φ ( 1 ) = 1. {\displaystyle \varphi (1)=1.} W {\displaystyle W} W = 0. {\displaystyle W=0.}

Generalización a otros problemas de valores en la frontera

Una expresión más general para la energía potencial de una membrana es Esto corresponde a una densidad de fuerza externa en una fuerza externa sobre el límite y fuerzas elásticas con módulo que actúan sobre La función que minimiza la energía potencial sin restricción en sus valores límite se denotará por Siempre que y sean continuos, la teoría de la regularidad implica que la función minimizadora tendrá dos derivadas. Al tomar la primera variación, no es necesario imponer ninguna condición de límite sobre el incremento La primera variación de está dada por Si aplicamos el teorema de la divergencia, el resultado es Si primero establecemos en la integral de límite se desvanece, y concluimos como antes que en Entonces, si permitimos suponer valores de límite arbitrarios, esto implica que debe satisfacer la condición de límite en Esta condición de límite es una consecuencia de la propiedad minimizadora de : no se impone de antemano. Tales condiciones se denominan condiciones de límite naturales . V [ φ ] = D [ 1 2 φ φ + f ( x , y ) φ ] d x d y + C [ 1 2 σ ( s ) φ 2 + g ( s ) φ ] d s . {\displaystyle V[\varphi ]=\iint _{D}\left[{\frac {1}{2}}\nabla \varphi \cdot \nabla \varphi +f(x,y)\varphi \right]\,dx\,dy\,+\int _{C}\left[{\frac {1}{2}}\sigma (s)\varphi ^{2}+g(s)\varphi \right]\,ds.} f ( x , y ) {\displaystyle f(x,y)} D , {\displaystyle D,} g ( s ) {\displaystyle g(s)} C , {\displaystyle C,} σ ( s ) {\displaystyle \sigma (s)} C . {\displaystyle C.} u . {\displaystyle u.} f {\displaystyle f} g {\displaystyle g} u {\displaystyle u} v . {\displaystyle v.} V [ u + ε v ] {\displaystyle V[u+\varepsilon v]} D [ u v + f v ] d x d y + C [ σ u v + g v ] d s = 0. {\displaystyle \iint _{D}\left[\nabla u\cdot \nabla v+fv\right]\,dx\,dy+\int _{C}\left[\sigma uv+gv\right]\,ds=0.} D [ v u + v f ] d x d y + C v [ u n + σ u + g ] d s = 0. {\displaystyle \iint _{D}\left[-v\nabla \cdot \nabla u+vf\right]\,dx\,dy+\int _{C}v\left[{\frac {\partial u}{\partial n}}+\sigma u+g\right]\,ds=0.} v = 0 {\displaystyle v=0} C , {\displaystyle C,} u + f = 0 {\displaystyle -\nabla \cdot \nabla u+f=0} D . {\displaystyle D.} v {\displaystyle v} u {\displaystyle u} u n + σ u + g = 0 , {\displaystyle {\frac {\partial u}{\partial n}}+\sigma u+g=0,} C . {\displaystyle C.} u {\displaystyle u}

El razonamiento anterior no es válido si se anula de forma idéntica en En tal caso, podríamos permitir una función de prueba donde es una constante. Para dicha función de prueba, Mediante la elección apropiada de puede asumir cualquier valor a menos que la cantidad dentro de los corchetes se anule. Por lo tanto, el problema variacional no tiene sentido a menos que Esta condición implica que las fuerzas externas netas sobre el sistema están en equilibrio. Si estas fuerzas están en equilibrio, entonces el problema variacional tiene una solución, pero no es única, ya que se puede agregar una constante arbitraria. Más detalles y ejemplos se encuentran en Courant y Hilbert (1953). σ {\displaystyle \sigma } C . {\displaystyle C.} φ c , {\displaystyle \varphi \equiv c,} c {\displaystyle c} V [ c ] = c [ D f d x d y + C g d s ] . {\displaystyle V[c]=c\left[\iint _{D}f\,dx\,dy+\int _{C}g\,ds\right].} c , {\displaystyle c,} V {\displaystyle V} D f d x d y + C g d s = 0. {\displaystyle \iint _{D}f\,dx\,dy+\int _{C}g\,ds=0.}

Problemas de valores propios

Los problemas de valores propios unidimensionales y multidimensionales pueden formularse como problemas variacionales.


Problemas de Sturm-Liouville

El problema de valores propios de Sturm-Liouville implica una forma cuadrática general donde está restringida a funciones que satisfacen las condiciones de contorno Sea una integral de normalización Se requiere que las funciones y sean positivas en todas partes y acotadas desde cero. El problema variacional primario es minimizar la relación entre todas las que satisfacen las condiciones del punto final, lo que es equivalente a minimizar bajo la restricción que es constante. A continuación se muestra que la ecuación de Euler-Lagrange para la minimización es donde es el cociente Se puede demostrar (véase Gelfand y Fomin 1963) que la minimización tiene dos derivadas y satisface la ecuación de Euler-Lagrange. El asociado se denotará por ; es el valor propio más bajo para esta ecuación y condiciones de contorno. La función minimizadora asociada se denotará por Esta caracterización variacional de los valores propios conduce al método de Rayleigh-Ritz : elegir una aproximación como una combinación lineal de funciones base (por ejemplo, funciones trigonométricas) y realizar una minimización de dimensión finita entre dichas combinaciones lineales. Este método suele ser sorprendentemente preciso. Q [ y ] = x 1 x 2 [ p ( x ) y ( x ) 2 + q ( x ) y ( x ) 2 ] d x , {\displaystyle Q[y]=\int _{x_{1}}^{x_{2}}\left[p(x)y'(x)^{2}+q(x)y(x)^{2}\right]\,dx,} y {\displaystyle y} y ( x 1 ) = 0 , y ( x 2 ) = 0. {\displaystyle y(x_{1})=0,\quad y(x_{2})=0.} R {\displaystyle R} R [ y ] = x 1 x 2 r ( x ) y ( x ) 2 d x . {\displaystyle R[y]=\int _{x_{1}}^{x_{2}}r(x)y(x)^{2}\,dx.} p ( x ) {\displaystyle p(x)} r ( x ) {\displaystyle r(x)} Q / R {\displaystyle Q/R} y {\displaystyle y} Q [ y ] {\displaystyle Q[y]} R [ y ] {\displaystyle R[y]} u {\displaystyle u} ( p u ) + q u λ r u = 0 , {\displaystyle -(pu')'+qu-\lambda ru=0,} λ {\displaystyle \lambda } λ = Q [ u ] R [ u ] . {\displaystyle \lambda ={\frac {Q[u]}{R[u]}}.} u {\displaystyle u} λ {\displaystyle \lambda } λ 1 {\displaystyle \lambda _{1}} u 1 ( x ) . {\displaystyle u_{1}(x).} u {\displaystyle u}

El siguiente valor propio y función propia más pequeño se puede obtener minimizando bajo la restricción adicional. Este procedimiento se puede extender para obtener la secuencia completa de valores propios y funciones propias para el problema. Q {\displaystyle Q} x 1 x 2 r ( x ) u 1 ( x ) y ( x ) d x = 0. {\displaystyle \int _{x_{1}}^{x_{2}}r(x)u_{1}(x)y(x)\,dx=0.}

El problema variacional también se aplica a condiciones de contorno más generales. En lugar de requerir que se anulen en los puntos finales, no podemos imponer ninguna condición en los puntos finales y establecer donde y son arbitrarios. Si establecemos , la primera variación para la razón es donde λ está dada por la razón como anteriormente. Después de la integración por partes, Si primero requerimos que se anulen en los puntos finales, la primera variación se anulará para todos los tales solo si Si satisface esta condición, entonces la primera variación se anulará para arbitrarios solo si Estas últimas condiciones son las condiciones de contorno naturales para este problema, ya que no se imponen a las funciones de prueba para la minimización, sino que son una consecuencia de la minimización. y {\displaystyle y} Q [ y ] = x 1 x 2 [ p ( x ) y ( x ) 2 + q ( x ) y ( x ) 2 ] d x + a 1 y ( x 1 ) 2 + a 2 y ( x 2 ) 2 , {\displaystyle Q[y]=\int _{x_{1}}^{x_{2}}\left[p(x)y'(x)^{2}+q(x)y(x)^{2}\right]\,dx+a_{1}y(x_{1})^{2}+a_{2}y(x_{2})^{2},} a 1 {\displaystyle a_{1}} a 2 {\displaystyle a_{2}} y = u + ε v {\displaystyle y=u+\varepsilon v} Q / R {\displaystyle Q/R} V 1 = 2 R [ u ] ( x 1 x 2 [ p ( x ) u ( x ) v ( x ) + q ( x ) u ( x ) v ( x ) λ r ( x ) u ( x ) v ( x ) ] d x + a 1 u ( x 1 ) v ( x 1 ) + a 2 u ( x 2 ) v ( x 2 ) ) , {\displaystyle V_{1}={\frac {2}{R[u]}}\left(\int _{x_{1}}^{x_{2}}\left[p(x)u'(x)v'(x)+q(x)u(x)v(x)-\lambda r(x)u(x)v(x)\right]\,dx+a_{1}u(x_{1})v(x_{1})+a_{2}u(x_{2})v(x_{2})\right),} Q [ u ] / R [ u ] {\displaystyle Q[u]/R[u]} R [ u ] 2 V 1 = x 1 x 2 v ( x ) [ ( p u ) + q u λ r u ] d x + v ( x 1 ) [ p ( x 1 ) u ( x 1 ) + a 1 u ( x 1 ) ] + v ( x 2 ) [ p ( x 2 ) u ( x 2 ) + a 2 u ( x 2 ) ] . {\displaystyle {\frac {R[u]}{2}}V_{1}=\int _{x_{1}}^{x_{2}}v(x)\left[-(pu')'+qu-\lambda ru\right]\,dx+v(x_{1})[-p(x_{1})u'(x_{1})+a_{1}u(x_{1})]+v(x_{2})[p(x_{2})u'(x_{2})+a_{2}u(x_{2})].} v {\displaystyle v} v {\displaystyle v} ( p u ) + q u λ r u = 0 for x 1 < x < x 2 . {\displaystyle -(pu')'+qu-\lambda ru=0\quad {\hbox{for}}\quad x_{1}<x<x_{2}.} u {\displaystyle u} v {\displaystyle v} p ( x 1 ) u ( x 1 ) + a 1 u ( x 1 ) = 0 , and p ( x 2 ) u ( x 2 ) + a 2 u ( x 2 ) = 0. {\displaystyle -p(x_{1})u'(x_{1})+a_{1}u(x_{1})=0,\quad {\hbox{and}}\quad p(x_{2})u'(x_{2})+a_{2}u(x_{2})=0.}

Problemas de valores propios en varias dimensiones

Los problemas de valores propios en dimensiones superiores se definen en analogía con el caso unidimensional. Por ejemplo, dado un dominio con frontera en tres dimensiones podemos definir y Sea la función que minimiza el cociente sin ninguna condición prescrita en la frontera La ecuación de Euler-Lagrange satisfecha por es donde La minimización también debe satisfacer la condición de frontera natural en la frontera Este resultado depende de la teoría de regularidad para ecuaciones diferenciales parciales elípticas; véase Jost y Li-Jost (1998) para más detalles. Muchas extensiones, incluyendo resultados de completitud, propiedades asintóticas de los valores propios y resultados relativos a los nodos de las funciones propias se encuentran en Courant y Hilbert (1953). D {\displaystyle D} B {\displaystyle B} Q [ φ ] = D p ( X ) φ φ + q ( X ) φ 2 d x d y d z + B σ ( S ) φ 2 d S , {\displaystyle Q[\varphi ]=\iiint _{D}p(X)\nabla \varphi \cdot \nabla \varphi +q(X)\varphi ^{2}\,dx\,dy\,dz+\iint _{B}\sigma (S)\varphi ^{2}\,dS,} R [ φ ] = D r ( X ) φ ( X ) 2 d x d y d z . {\displaystyle R[\varphi ]=\iiint _{D}r(X)\varphi (X)^{2}\,dx\,dy\,dz.} u {\displaystyle u} Q [ φ ] / R [ φ ] , {\displaystyle Q[\varphi ]/R[\varphi ],} B . {\displaystyle B.} u {\displaystyle u} ( p ( X ) u ) + q ( x ) u λ r ( x ) u = 0 , {\displaystyle -\nabla \cdot (p(X)\nabla u)+q(x)u-\lambda r(x)u=0,} λ = Q [ u ] R [ u ] . {\displaystyle \lambda ={\frac {Q[u]}{R[u]}}.} u {\displaystyle u} p ( S ) u n + σ ( S ) u = 0 , {\displaystyle p(S){\frac {\partial u}{\partial n}}+\sigma (S)u=0,} B . {\displaystyle B.}

Aplicaciones

Óptica

El principio de Fermat establece que la luz sigue un camino que (localmente) minimiza la longitud óptica entre sus puntos finales. Si se elige la coordenada como parámetro a lo largo del camino, y a lo largo del camino, entonces la longitud óptica viene dada por donde el índice de refracción depende del material. Si probamos entonces la primera variación de (la derivada de con respecto a ε) es x {\displaystyle x} y = f ( x ) {\displaystyle y=f(x)} A [ f ] = x 0 x 1 n ( x , f ( x ) ) 1 + f ( x ) 2 d x , {\displaystyle A[f]=\int _{x_{0}}^{x_{1}}n(x,f(x)){\sqrt {1+f'(x)^{2}}}dx,} n ( x , y ) {\displaystyle n(x,y)} f ( x ) = f 0 ( x ) + ε f 1 ( x ) {\displaystyle f(x)=f_{0}(x)+\varepsilon f_{1}(x)} A {\displaystyle A} A {\displaystyle A} δ A [ f 0 , f 1 ] = x 0 x 1 [ n ( x , f 0 ) f 0 ( x ) f 1 ( x ) 1 + f 0 ( x ) 2 + n y ( x , f 0 ) f 1 1 + f 0 ( x ) 2 ] d x . {\displaystyle \delta A[f_{0},f_{1}]=\int _{x_{0}}^{x_{1}}\left[{\frac {n(x,f_{0})f_{0}'(x)f_{1}'(x)}{\sqrt {1+f_{0}'(x)^{2}}}}+n_{y}(x,f_{0})f_{1}{\sqrt {1+f_{0}'(x)^{2}}}\right]dx.}

Después de la integración por partes del primer término entre paréntesis, obtenemos la ecuación de Euler-Lagrange d d x [ n ( x , f 0 ) f 0 1 + f 0 2 ] + n y ( x , f 0 ) 1 + f 0 ( x ) 2 = 0. {\displaystyle -{\frac {d}{dx}}\left[{\frac {n(x,f_{0})f_{0}'}{\sqrt {1+f_{0}'^{2}}}}\right]+n_{y}(x,f_{0}){\sqrt {1+f_{0}'(x)^{2}}}=0.}

Los rayos de luz pueden determinarse integrando esta ecuación. Este formalismo se utiliza en el contexto de la óptica lagrangiana y la óptica hamiltoniana .

Ley de Snell

Existe una discontinuidad del índice de refracción cuando la luz entra o sale de una lente. Sea donde y son constantes. Entonces la ecuación de Euler-Lagrange se cumple como antes en la región donde o y de hecho el camino es una línea recta allí, ya que el índice de refracción es constante. En el debe ser continuo, pero puede ser discontinuo. Después de la integración por partes en las regiones separadas y utilizando las ecuaciones de Euler-Lagrange, la primera variación toma la forma n ( x , y ) = { n ( ) if x < 0 , n ( + ) if x > 0 , {\displaystyle n(x,y)={\begin{cases}n_{(-)}&{\text{if}}\quad x<0,\\n_{(+)}&{\text{if}}\quad x>0,\end{cases}}} n ( ) {\displaystyle n_{(-)}} n ( + ) {\displaystyle n_{(+)}} x < 0 {\displaystyle x<0} x > 0 , {\displaystyle x>0,} x = 0 , {\displaystyle x=0,} f {\displaystyle f} f {\displaystyle f'} δ A [ f 0 , f 1 ] = f 1 ( 0 ) [ n ( ) f 0 ( 0 ) 1 + f 0 ( 0 ) 2 n ( + ) f 0 ( 0 + ) 1 + f 0 ( 0 + ) 2 ] . {\displaystyle \delta A[f_{0},f_{1}]=f_{1}(0)\left[n_{(-)}{\frac {f_{0}'(0^{-})}{\sqrt {1+f_{0}'(0^{-})^{2}}}}-n_{(+)}{\frac {f_{0}'(0^{+})}{\sqrt {1+f_{0}'(0^{+})^{2}}}}\right].}

El factor multiplicador es el seno del ángulo del rayo incidente con el eje, y el factor multiplicador es el seno del ángulo del rayo refractado con el eje. La ley de Snell para la refracción requiere que estos términos sean iguales. Como demuestra este cálculo, la ley de Snell es equivalente a la desaparición de la primera variación de la longitud del camino óptico. n ( ) {\displaystyle n_{(-)}} x {\displaystyle x} n ( + ) {\displaystyle n_{(+)}} x {\displaystyle x}

El principio de Fermat en tres dimensiones

Es conveniente utilizar la notación vectorial: sea un parámetro, sea la representación paramétrica de una curva y sea su vector tangente. La longitud óptica de la curva está dada por X = ( x 1 , x 2 , x 3 ) , {\displaystyle X=(x_{1},x_{2},x_{3}),} t {\displaystyle t} X ( t ) {\displaystyle X(t)} C , {\displaystyle C,} X ˙ ( t ) {\displaystyle {\dot {X}}(t)} A [ C ] = t 0 t 1 n ( X ) X ˙ X ˙ d t . {\displaystyle A[C]=\int _{t_{0}}^{t_{1}}n(X){\sqrt {{\dot {X}}\cdot {\dot {X}}}}\,dt.}

Nótese que esta integral es invariante con respecto a los cambios en la representación paramétrica de Las ecuaciones de Euler-Lagrange para una curva minimizada tienen la forma simétrica donde C . {\displaystyle C.} d d t P = X ˙ X ˙ n , {\displaystyle {\frac {d}{dt}}P={\sqrt {{\dot {X}}\cdot {\dot {X}}}}\,\nabla n,} P = n ( X ) X ˙ X ˙ X ˙ . {\displaystyle P={\frac {n(X){\dot {X}}}{\sqrt {{\dot {X}}\cdot {\dot {X}}}}}.}

De la definición se desprende que satisface P {\displaystyle P} P P = n ( X ) 2 . {\displaystyle P\cdot P=n(X)^{2}.}

Por lo tanto, la integral también puede escribirse como A [ C ] = t 0 t 1 P X ˙ d t . {\displaystyle A[C]=\int _{t_{0}}^{t_{1}}P\cdot {\dot {X}}\,dt.}

Esta forma sugiere que si podemos encontrar una función cuyo gradiente esté dado por entonces la integral está dada por la diferencia de en los puntos extremos del intervalo de integración. Por lo tanto, el problema de estudiar las curvas que hacen que la integral sea estacionaria se puede relacionar con el estudio de las superficies de nivel de Para encontrar dicha función, recurrimos a la ecuación de onda, que gobierna la propagación de la luz. Este formalismo se utiliza en el contexto de la óptica lagrangiana y la óptica hamiltoniana . ψ {\displaystyle \psi } P , {\displaystyle P,} A {\displaystyle A} ψ {\displaystyle \psi } ψ . {\displaystyle \psi .}

Conexión con la ecuación de onda

La ecuación de onda para un medio no homogéneo es donde es la velocidad, que generalmente depende de Los frentes de onda de la luz son superficies características de esta ecuación diferencial parcial: satisfacen u t t = c 2 u , {\displaystyle u_{tt}=c^{2}\nabla \cdot \nabla u,} c {\displaystyle c} X . {\displaystyle X.} φ t 2 = c ( X ) 2 φ φ . {\displaystyle \varphi _{t}^{2}=c(X)^{2}\,\nabla \varphi \cdot \nabla \varphi .}

Podemos buscar soluciones en forma φ ( t , X ) = t ψ ( X ) . {\displaystyle \varphi (t,X)=t-\psi (X).}

En ese caso, satisface donde Según la teoría de ecuaciones diferenciales parciales de primer orden , si entonces satisface a lo largo de un sistema de curvas ( los rayos de luz ) que están dadas por ψ {\displaystyle \psi } ψ ψ = n 2 , {\displaystyle \nabla \psi \cdot \nabla \psi =n^{2},} n = 1 / c . {\displaystyle n=1/c.} P = ψ , {\displaystyle P=\nabla \psi ,} P {\displaystyle P} d P d s = n n , {\displaystyle {\frac {dP}{ds}}=n\,\nabla n,} d X d s = P . {\displaystyle {\frac {dX}{ds}}=P.}

Estas ecuaciones para la solución de una ecuación diferencial parcial de primer orden son idénticas a las ecuaciones de Euler-Lagrange si hacemos la identificación d s d t = X ˙ X ˙ n . {\displaystyle {\frac {ds}{dt}}={\frac {\sqrt {{\dot {X}}\cdot {\dot {X}}}}{n}}.}

Concluimos que la función es el valor de la integral minimizadora en función del punto extremo superior. Es decir, cuando se construye una familia de curvas minimizadoras, los valores de la longitud óptica satisfacen la ecuación característica correspondiente a la ecuación de onda. Por lo tanto, resolver la ecuación diferencial parcial de primer orden asociada es equivalente a encontrar familias de soluciones del problema variacional. Este es el contenido esencial de la teoría de Hamilton-Jacobi , que se aplica a problemas variacionales más generales. ψ {\displaystyle \psi } A {\displaystyle A}

Mecánica

En mecánica clásica, la acción se define como la integral temporal del lagrangiano, El lagrangiano es la diferencia de energías, donde es la energía cinética de un sistema mecánico y su energía potencial . El principio de Hamilton (o principio de acción) establece que el movimiento de un sistema mecánico holonómico conservativo (restricciones integrables) es tal que la integral de acción es estacionaria con respecto a las variaciones en la trayectoria Las ecuaciones de Euler-Lagrange para este sistema se conocen como ecuaciones de Lagrange: y son equivalentes a las ecuaciones de movimiento de Newton (para tales sistemas). S , {\displaystyle S,} L . {\displaystyle L.} L = T U , {\displaystyle L=T-U,} T {\displaystyle T} U {\displaystyle U} S = t 0 t 1 L ( x , x ˙ , t ) d t {\displaystyle S=\int _{t_{0}}^{t_{1}}L(x,{\dot {x}},t)\,dt} x ( t ) . {\displaystyle x(t).} d d t L x ˙ = L x , {\displaystyle {\frac {d}{dt}}{\frac {\partial L}{\partial {\dot {x}}}}={\frac {\partial L}{\partial x}},}

Los momentos conjugados se definen por Por ejemplo, si entonces la mecánica hamiltoniana resulta si los momentos conjugados se introducen en lugar de por una transformación de Legendre del lagrangiano en el hamiltoniano definido por El hamiltoniano es la energía total del sistema: La analogía con el principio de Fermat sugiere que las soluciones de las ecuaciones de Lagrange (las trayectorias de las partículas) pueden describirse en términos de superficies de nivel de alguna función de Esta función es una solución de la ecuación de Hamilton-Jacobi : P {\displaystyle P} p = L x ˙ . {\displaystyle p={\frac {\partial L}{\partial {\dot {x}}}}.} T = 1 2 m x ˙ 2 , {\displaystyle T={\frac {1}{2}}m{\dot {x}}^{2},} p = m x ˙ . {\displaystyle p=m{\dot {x}}.} x ˙ {\displaystyle {\dot {x}}} L {\displaystyle L} H {\displaystyle H} H ( x , p , t ) = p x ˙ L ( x , x ˙ , t ) . {\displaystyle H(x,p,t)=p\,{\dot {x}}-L(x,{\dot {x}},t).} H = T + U . {\displaystyle H=T+U.} X . {\displaystyle X.} ψ t + H ( x , ψ x , t ) = 0. {\displaystyle {\frac {\partial \psi }{\partial t}}+H\left(x,{\frac {\partial \psi }{\partial x}},t\right)=0.}

Otras aplicaciones

Otras aplicaciones del cálculo de variaciones incluyen las siguientes:

Variaciones y condición suficiente para un mínimo

El cálculo de variaciones se ocupa de las variaciones de los funcionales, que son pequeños cambios en el valor del funcional debido a pequeños cambios en la función que es su argumento. La primera variación [l] se define como la parte lineal del cambio en el funcional, y la segunda variación [m] se define como la parte cuadrática. [22]

Por ejemplo, si es un funcional con la función como su argumento, y hay un pequeño cambio en su argumento de a donde es una función en el mismo espacio de funciones que entonces el cambio correspondiente en el funcional es [n] J [ y ] {\displaystyle J[y]} y = y ( x ) {\displaystyle y=y(x)} y {\displaystyle y} y + h , {\displaystyle y+h,} h = h ( x ) {\displaystyle h=h(x)} y , {\displaystyle y,} Δ J [ h ] = J [ y + h ] J [ y ] . {\displaystyle \Delta J[h]=J[y+h]-J[y].}

Se dice que el funcional es diferenciable si donde es un funcional lineal, [o] es la norma de [p] y como El funcional lineal es la primera variación de y se denota por, [26] J [ y ] {\displaystyle J[y]} Δ J [ h ] = φ [ h ] + ε h , {\displaystyle \Delta J[h]=\varphi [h]+\varepsilon \|h\|,} φ [ h ] {\displaystyle \varphi [h]} h {\displaystyle \|h\|} h , {\displaystyle h,} ε 0 {\displaystyle \varepsilon \to 0} h 0. {\displaystyle \|h\|\to 0.} φ [ h ] {\displaystyle \varphi [h]} J [ y ] {\displaystyle J[y]} δ J [ h ] = φ [ h ] . {\displaystyle \delta J[h]=\varphi [h].}

Se dice que el funcional es dos veces diferenciable si donde es un funcional lineal (la primera variación), es un funcional cuadrático, [q] y como El funcional cuadrático es la segunda variación de y se denota por, [28] J [ y ] {\displaystyle J[y]} Δ J [ h ] = φ 1 [ h ] + φ 2 [ h ] + ε h 2 , {\displaystyle \Delta J[h]=\varphi _{1}[h]+\varphi _{2}[h]+\varepsilon \|h\|^{2},} φ 1 [ h ] {\displaystyle \varphi _{1}[h]} φ 2 [ h ] {\displaystyle \varphi _{2}[h]} ε 0 {\displaystyle \varepsilon \to 0} h 0. {\displaystyle \|h\|\to 0.} φ 2 [ h ] {\displaystyle \varphi _{2}[h]} J [ y ] {\displaystyle J[y]} δ 2 J [ h ] = φ 2 [ h ] . {\displaystyle \delta ^{2}J[h]=\varphi _{2}[h].}

Se dice que la segunda variación es fuertemente positiva si para todos y para alguna constante . [29] δ 2 J [ h ] {\displaystyle \delta ^{2}J[h]} δ 2 J [ h ] k h 2 , {\displaystyle \delta ^{2}J[h]\geq k\|h\|^{2},} h {\displaystyle h} k > 0 {\displaystyle k>0}

Utilizando las definiciones anteriores, especialmente las definiciones de primera variación, segunda variación y fuertemente positiva, se puede enunciar la siguiente condición suficiente para un mínimo de una funcional.

Condición suficiente para un mínimo:

La funcional tiene un mínimo en si su primera variación en y su segunda variación es fuertemente positiva en [30] [r] [s] J [ y ] {\displaystyle J[y]} y = y ^ {\displaystyle y={\hat {y}}} δ J [ h ] = 0 {\displaystyle \delta J[h]=0} y = y ^ {\displaystyle y={\hat {y}}} δ 2 J [ h ] {\displaystyle \delta ^{2}J[h]} y = y ^ . {\displaystyle y={\hat {y}}.}

Véase también

Notas

  1. ^ Mientras que el cálculo elemental trata de cambios infinitesimalmente pequeños en los valores de las funciones sin cambios en la función misma, el cálculo de variaciones trata de cambios infinitesimalmente pequeños en la función misma, que se denominan variaciones. [1]
  2. ^ "Euler esperó hasta que Lagrange hubiera publicado sobre el tema en 1762... antes de enviar su conferencia... a imprimir, para no robarle a Lagrange su gloria. De hecho, fue sólo el método de Lagrange al que Euler llamó Cálculo de variaciones". [3]
  3. ^ Véase Harold J. Kushner (2004) : con respecto a la programación dinámica, "El cálculo de variaciones tenía ideas relacionadas (por ejemplo, el trabajo de Caratheodory, la ecuación de Hamilton-Jacobi). Esto llevó a conflictos con la comunidad del cálculo de variaciones".
  4. ^ El vecindario de es la parte del espacio funcional dado donde, sobre todo el dominio de las funciones, hay un número positivo que especifica el tamaño del vecindario. [10] f {\displaystyle f} | y f | < h {\displaystyle |y-f|<h} h {\displaystyle h}
  5. ^ Nótese la diferencia entre los términos extremal y extremo. Un extremal es una función que convierte a una funcional en un extremo.
  6. ^ Para una condición suficiente, consulte la sección Variaciones y condición suficiente para un mínimo.
  7. ^ La siguiente derivación de la ecuación de Euler-Lagrange corresponde a la derivación de las páginas 184-185 de Courant & Hilbert (1953). [14]
  8. ^ Nótese que y se evalúan con los mismos valores de lo cual no es válido de manera más general en el cálculo variacional con restricciones no holonómicas. η ( x ) {\displaystyle \eta (x)} f ( x ) {\displaystyle f(x)} x , {\displaystyle x,}
  9. ^ El producto se denomina primera variación del funcional y se denota por Algunas referencias definen la primera variación de manera diferente omitiendo el factor. ε Φ ( 0 ) {\displaystyle \varepsilon \Phi '(0)} J {\displaystyle J} δ J . {\displaystyle \delta J.} ε {\displaystyle \varepsilon }
  10. Como nota histórica, este es un axioma de Arquímedes . Véase, por ejemplo, Kelland (1843). [15]
  11. ^ Turnbull explica la controversia resultante sobre la validez del principio de Dirichlet. [21]
  12. ^ La primera variación también se llama variación, diferencial o primer diferencial.
  13. ^ La segunda variación también se llama segundo diferencial.
  14. ^ Nótese que y las variaciones a continuación dependen tanto de como El argumento se ha omitido para simplificar la notación. Por ejemplo, podría haberse escrito [23] Δ J [ h ] {\displaystyle \Delta J[h]} y {\displaystyle y} h . {\displaystyle h.} y {\displaystyle y} Δ J [ h ] {\displaystyle \Delta J[h]} Δ J [ y ; h ] . {\displaystyle \Delta J[y;h].}
  15. ^ Se dice que un funcional es lineal si   y   donde son funciones y es un número real. [24] φ [ h ] {\displaystyle \varphi [h]} φ [ α h ] = α φ [ h ] {\displaystyle \varphi [\alpha h]=\alpha \varphi [h]} φ [ h + h 2 ] = φ [ h ] + φ [ h 2 ] , {\displaystyle \varphi \left[h+h_{2}\right]=\varphi [h]+\varphi \left[h_{2}\right],} h , h 2 {\displaystyle h,h_{2}} α {\displaystyle \alpha }
  16. ^ Para una función que está definida para donde y son números reales, la norma de es su valor absoluto máximo, es decir [25] h = h ( x ) {\displaystyle h=h(x)} a x b , {\displaystyle a\leq x\leq b,} a {\displaystyle a} b {\displaystyle b} h {\displaystyle h} h = max a x b | h ( x ) | . {\displaystyle \|h\|=\displaystyle \max _{a\leq x\leq b}|h(x)|.}
  17. ^ Se dice que una función es cuadrática si es una función bilineal con dos funciones argumento que son iguales. Una función bilineal es una función que depende de dos funciones argumento y es lineal cuando cada función argumento a su vez es fija mientras que la otra función argumento es variable. [27]
  18. ^ Para otras condiciones suficientes, véase Gelfand & Fomin 2000,
    • Capítulo  5: “La segunda variante. Condiciones suficientes para un extremo débil” – Las condiciones suficientes para un mínimo débil están dadas por el teorema de la página  116.
    • Capítulo  6: “Campos. Condiciones suficientes para un extremo fuerte” – Las condiciones suficientes para un mínimo fuerte están dadas por el teorema de la página  148.
  19. ^ Se puede notar la similitud con la condición suficiente para un mínimo de una función, donde la primera derivada es cero y la segunda derivada es positiva.

Referencias

  1. ^ Véase Courant y Hilbert 1953, pág. 184
  2. ^ Gelfand, IM ; Fomin, SV (2000). Silverman, Richard A. (ed.). Cálculo de variaciones (edición reimpresa sin abreviar). Mineola, Nueva York: Dover Publications. p. 3. ISBN 978-0486414485.
  3. ^ ab Thiele, Rüdiger (2007). "Euler y el cálculo de variaciones". En Bradley, Robert E.; Sandifer, C. Edward (eds.). Leonhard Euler: vida, obra y legado . Elsevier. pág. 249. ISBN 9780080471297.
  4. ^ Goldstine, Herman H. (2012). Una historia del cálculo de variaciones desde el siglo XVII hasta el siglo XIX. Springer Science & Business Media. pág. 110. ISBN 9781461381068.
  5. ^ abc van Brunt, Bruce (2004). El cálculo de variaciones . Springer. ISBN 978-0-387-40247-5.
  6. ^ ab Ferguson, James (2004). "Breve estudio de la historia del cálculo de variaciones y sus aplicaciones". arXiv : math/0402357 .
  7. ^ Dimitri Bertsekas . Programación dinámica y control óptimo. Athena Scientific, 2005.
  8. ^ Bellman, Richard E. (1954). "Programación dinámica y un nuevo formalismo en el cálculo de variaciones". Proc. Natl. Sci . 40 (4): 231–235. Bibcode :1954PNAS...40..231B. doi : 10.1073/pnas.40.4.231 . PMC 527981 . PMID  16589462. 
  9. ^ "Premio Richard E. Bellman al Patrimonio de Control". American Automatic Control Council . 2004. Archivado desde el original el 2018-10-01 . Consultado el 28 de julio de 2013 .
  10. ^ Courant, R ; Hilbert, D (1953). Métodos de física matemática . Vol. I (Primera edición en inglés). Nueva York: Interscience Publishers, Inc. p. 169. ISBN 978-0471504474.
  11. ^ Gelfand y Fomin 2000, págs. 12-13
  12. ^ Gelfand y Fomin 2000, pág. 13
  13. ^ Gelfand y Fomin 2000, págs. 14-15
  14. ^ Courant, R. ; Hilbert, D. (1953). Métodos de física matemática . Vol. I (Primera edición en inglés). Nueva York: Interscience Publishers, Inc. ISBN 978-0471504474.
  15. ^ Kelland, Philip (1843). Lecciones sobre los principios de las matemáticas demostrativas. p. 58 – vía Google Books.
  16. ^ Weisstein, Eric W. "Ecuación diferencial de Euler-Lagrange". mathworld.wolfram.com . Wolframio. Ec. (5).
  17. ^ Kot, Mark (2014). "Capítulo 4: Generalizaciones básicas". Un primer curso de cálculo de variaciones . Sociedad Matemática Estadounidense. ISBN 978-1-4704-1495-5.
  18. ^ Manià, Bernard (1934). "Sopra un ejemplo de Lavrentieff". Bollenttino dell'Unione Matematica Italiana . 13 : 147-153.
  19. ^ Ball y Mizel (1985). "Problemas variacionales unidimensionales cuyos minimizadores no satisfacen la ecuación de Euler-Lagrange". Archivo de Mecánica racional y análisis . 90 (4): 325–388. Bibcode :1985ArRMA..90..325B. doi :10.1007/BF00276295. S2CID  55005550.
  20. ^ Ferriero, Alessandro (2007). "La propiedad de repulsión débil". Revista de Mathématiques Pures et Appliquées . 88 (4): 378–388. doi :10.1016/j.matpur.2007.06.002.
  21. ^ Turnbull. "Biografía de Riemann". Reino Unido: U. St. Andrew.
  22. ^ Gelfand y Fomin 2000, págs. 11-12, 99
  23. ^ Gelfand y Fomin 2000, pág. 12, nota al pie 6
  24. ^ Gelfand y Fomin 2000, pág. 8
  25. ^ Gelfand y Fomin 2000, pág. 6
  26. ^ Gelfand y Fomin 2000, págs. 11-12
  27. ^ Gelfand y Fomin 2000, págs. 97-98
  28. ^ Gelfand y Fomin 2000, pág. 99
  29. ^ Gelfand y Fomin 2000, pág. 100
  30. ^ Gelfand y Fomin 2000, pág. 100, Teorema 2

Lectura adicional

  • Benesova, B. y Kruzik, M.: "Semicontinuidad inferior débil de funcionales integrales y aplicaciones". SIAM Review 59(4) (2017), 703–766.
  • Bolza, O. : Lectures on the Calculus of Variations. Chelsea Publishing Company, 1904, disponible en la biblioteca Digital Mathematics. Segunda edición republicada en 1961, edición de bolsillo en 2005, ISBN 978-1-4181-8201-4 . 
  • Cassel, Kevin W.: Métodos variacionales con aplicaciones en ciencia e ingeniería, Cambridge University Press, 2013.
  • Clegg, JC: Cálculo de variaciones, Interscience Publishers Inc., 1968.
  • Courant, R. : Principio de Dirichlet, mapeo conforme y superficies mínimas. Interscience, 1950.
  • Dacorogna, Bernard : "Introducción" Introducción al cálculo de variaciones , 3.ª edición. 2014, World Scientific Publishing, ISBN 978-1-78326-551-0 . 
  • Elsgolc, LE: Cálculo de variaciones, Pergamon Press Ltd., 1962.
  • Forsyth, AR: Cálculo de variaciones, Dover, 1960.
  • Fox, Charles: Introducción al cálculo de variaciones, Dover Publ., 1987.
  • Giaquinta, Mariano; Hildebrandt, Stefan: Cálculo de variaciones I y II, Springer-Verlag, ISBN 978-3-662-03278-7 e ISBN 978-3-662-06201-2  
  • Jost, J. y X. Li-Jost: Cálculo de variaciones. Cambridge University Press, 1998.
  • Lebedev, LP y Cloud, MJ: El cálculo de variaciones y análisis funcional con control óptimo y aplicaciones en mecánica, World Scientific, 2003, páginas 1–98.
  • Logan, J. David: Matemáticas aplicadas, 3.ª edición. Wiley-Interscience, 2006
  • Pike, Ralph W. "Capítulo 8: Cálculo de variaciones". Optimización para sistemas de ingeniería. Universidad Estatal de Luisiana . Archivado desde el original el 5 de julio de 2007.
  • Roubicek, T.: "Cálculo de variaciones". Cap.17 en: Herramientas matemáticas para físicos . (Ed. M. Grinfeld) J. Wiley, Weinheim, 2014, ISBN 978-3-527-41188-7 , pp. 551–588. 
  • Sagan, Hans: Introducción al cálculo de variaciones, Dover, 1992.
  • Weinstock, Robert: Cálculo de variaciones con aplicaciones a la física y la ingeniería, Dover, 1974 (reimpresión de la edición de 1952).
  • Cálculo variacional. Enciclopedia de Matemáticas .
  • cálculo de variaciones. PlanetMath .
  • Cálculo de variaciones. MathWorld .
  • Cálculo de variaciones. Problemas de ejemplo.
  • Matemáticas - Cálculo de variaciones y ecuaciones integrales. Clases en YouTube .
  • Artículos seleccionados sobre campos geodésicos. Parte I, Parte II.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Calculus_of_variations&oldid=1246113589"