Regla integral de Leibniz

Diferenciación bajo la fórmula del signo integral

En cálculo , la regla integral de Leibniz para la diferenciación bajo el signo integral, llamada así en honor a Gottfried Wilhelm Leibniz , establece que para una integral de la forma donde y los integrandos son funciones dependientes de la derivada de esta integral se puede expresar como donde la derivada parcial indica que dentro de la integral, solo se considera la variación de con al tomar la derivada. [1] a ( x ) b ( x ) f ( x , t ) d t , {\displaystyle \int _{a(x)}^{b(x)}f(x,t)\,dt,} < a ( x ) , b ( x ) < {\displaystyle -\infty <a(x),b(x)<\infty } x , {\displaystyle x,} d d x ( a ( x ) b ( x ) f ( x , t ) d t ) = f ( x , b ( x ) ) d d x b ( x ) f ( x , a ( x ) ) d d x a ( x ) + a ( x ) b ( x ) x f ( x , t ) d t {\displaystyle {\begin{aligned}&{\frac {d}{dx}}\left(\int _{a(x)}^{b(x)}f(x,t)\,dt\right)\\&=f{\big (}x,b(x){\big )}\cdot {\frac {d}{dx}}b(x)-f{\big (}x,a(x){\big )}\cdot {\frac {d}{dx}}a(x)+\int _{a(x)}^{b(x)}{\frac {\partial }{\partial x}}f(x,t)\,dt\end{aligned}}} x {\displaystyle {\tfrac {\partial }{\partial x}}} f ( x , t ) {\displaystyle f(x,t)} x {\displaystyle x}

En el caso especial donde las funciones y son constantes y con valores que no dependen de esto se simplifica a: a ( x ) {\displaystyle a(x)} b ( x ) {\displaystyle b(x)} a ( x ) = a {\displaystyle a(x)=a} b ( x ) = b {\displaystyle b(x)=b} x , {\displaystyle x,} d d x ( a b f ( x , t ) d t ) = a b x f ( x , t ) d t . {\displaystyle {\frac {d}{dx}}\left(\int _{a}^{b}f(x,t)\,dt\right)=\int _{a}^{b}{\frac {\partial }{\partial x}}f(x,t)\,dt.}

Si es constante y , que es otra situación común (por ejemplo, en la prueba de la fórmula de integración repetida de Cauchy ), la regla integral de Leibniz se convierte en: a ( x ) = a {\displaystyle a(x)=a} b ( x ) = x {\displaystyle b(x)=x} d d x ( a x f ( x , t ) d t ) = f ( x , x ) + a x x f ( x , t ) d t , {\displaystyle {\frac {d}{dx}}\left(\int _{a}^{x}f(x,t)\,dt\right)=f{\big (}x,x{\big )}+\int _{a}^{x}{\frac {\partial }{\partial x}}f(x,t)\,dt,}

Este importante resultado puede, bajo ciertas condiciones, usarse para intercambiar los operadores diferenciales integrales y parciales , y es particularmente útil en la diferenciación de transformadas integrales . Un ejemplo de esto es la función generadora de momentos en la teoría de la probabilidad , una variación de la transformada de Laplace , que puede diferenciarse para generar los momentos de una variable aleatoria . Si la regla integral de Leibniz se aplica o no es esencialmente una cuestión sobre el intercambio de límites .

Forma general: diferenciación bajo el signo integral

Teorema  —  Sea una función tal que tanto y su derivada parcial son continuas en y en alguna región del plano , incluyendo Supóngase también que las funciones y son ambas continuas y ambas tienen derivadas continuas para Entonces, para f ( x , t ) {\displaystyle f(x,t)} f ( x , t ) {\displaystyle f(x,t)} f x ( x , t ) {\displaystyle f_{x}(x,t)} t {\displaystyle t} x {\displaystyle x} x t {\displaystyle xt} a ( x ) t b ( x ) , {\displaystyle a(x)\leq t\leq b(x),} x 0 x x 1 . {\displaystyle x_{0}\leq x\leq x_{1}.} a ( x ) {\displaystyle a(x)} b ( x ) {\displaystyle b(x)} x 0 x x 1 . {\displaystyle x_{0}\leq x\leq x_{1}.} x 0 x x 1 , {\displaystyle x_{0}\leq x\leq x_{1},} d d x ( a ( x ) b ( x ) f ( x , t ) d t ) = f ( x , b ( x ) ) d d x b ( x ) f ( x , a ( x ) ) d d x a ( x ) + a ( x ) b ( x ) x f ( x , t ) d t . {\displaystyle {\frac {d}{dx}}\left(\int _{a(x)}^{b(x)}f(x,t)\,dt\right)=f{\big (}x,b(x){\big )}\cdot {\frac {d}{dx}}b(x)-f{\big (}x,a(x){\big )}\cdot {\frac {d}{dx}}a(x)+\int _{a(x)}^{b(x)}{\frac {\partial }{\partial x}}f(x,t)\,dt.}

El lado derecho también puede escribirse utilizando la notación de Lagrange como: f ( x , b ( x ) ) b ( x ) f ( x , a ( x ) ) a ( x ) + a ( x ) b ( x ) f x ( x , t ) d t . {\textstyle f(x,b(x))\,b^{\prime }(x)-f(x,a(x))\,a^{\prime }(x)+\displaystyle \int _{a(x)}^{b(x)}f_{x}(x,t)\,dt.}

Las versiones más fuertes del teorema solo requieren que la derivada parcial exista casi en todas partes , y no que sea continua. [2] Esta fórmula es la forma general de la regla integral de Leibniz y se puede derivar utilizando el teorema fundamental del cálculo . El (primer) teorema fundamental del cálculo es solo el caso particular de la fórmula anterior donde es constante y no depende de a ( x ) = a R {\displaystyle a(x)=a\in \mathbb {R} } b ( x ) = x , {\displaystyle b(x)=x,} f ( x , t ) = f ( t ) {\displaystyle f(x,t)=f(t)} x . {\displaystyle x.}

Si se toman como constantes tanto los límites superior como inferior, la fórmula adopta la forma de una ecuación de operador : donde es la derivada parcial con respecto a y es el operador integral con respecto a en un intervalo fijo . Es decir, está relacionada con la simetría de las derivadas segundas , pero involucra integrales además de derivadas. Este caso también se conoce como la regla integral de Leibniz. I t x = x I t {\displaystyle {\mathcal {I}}_{t}\partial _{x}=\partial _{x}{\mathcal {I}}_{t}} x {\displaystyle \partial _{x}} x {\displaystyle x} I t {\displaystyle {\mathcal {I}}_{t}} t {\displaystyle t}

Los siguientes tres teoremas básicos sobre el intercambio de límites son esencialmente equivalentes:

  • el intercambio de una derivada y una integral (diferenciación bajo el signo integral; es decir, regla integral de Leibniz);
  • el cambio de orden de las derivadas parciales;
  • el cambio de orden de integración (integración bajo el signo integral; es decir, teorema de Fubini ).

Caso tridimensional dependiente del tiempo

Figura 1: Un campo vectorial F ( r , t ) definido en el espacio, y una superficie Σ limitada por la curva ∂Σ que se mueve con velocidad v sobre la cual se integra el campo.

Una regla integral de Leibniz para una superficie bidimensional que se mueve en un espacio tridimensional es [3] [4]

d d t Σ ( t ) F ( r , t ) d A = Σ ( t ) ( F t ( r , t ) + [ F ( r , t ) ] v ) d A Σ ( t ) [ v × F ( r , t ) ] d s , {\displaystyle {\frac {d}{dt}}\iint _{\Sigma (t)}\mathbf {F} (\mathbf {r} ,t)\cdot d\mathbf {A} =\iint _{\Sigma (t)}\left(\mathbf {F} _{t}(\mathbf {r} ,t)+\left[\nabla \cdot \mathbf {F} (\mathbf {r} ,t)\right]\mathbf {v} \right)\cdot d\mathbf {A} -\oint _{\partial \Sigma (t)}\left[\mathbf {v} \times \mathbf {F} (\mathbf {r} ,t)\right]\cdot d\mathbf {s} ,}

dónde:

  • F ( r , t ) es un campo vectorial en la posición espacial r en el tiempo t ,
  • Σ es una superficie limitada por la curva cerrada ∂Σ ,
  • d A es un elemento vectorial de la superficie Σ ,
  • d s es un elemento vectorial de la curva ∂Σ ,
  • v es la velocidad de movimiento de la región Σ ,
  • ∇⋅ es la divergencia vectorial ,
  • × es el producto vectorial ,
  • Las integrales dobles son integrales de superficie sobre la superficie Σ , y la integral de línea es sobre la curva límite ∂Σ .

Dimensiones superiores

La regla integral de Leibniz se puede extender a integrales multidimensionales. En dos y tres dimensiones, esta regla es más conocida en el campo de la dinámica de fluidos como el teorema de transporte de Reynolds : d d t D ( t ) F ( x , t ) d V = D ( t ) t F ( x , t ) d V + D ( t ) F ( x , t ) v b d Σ , {\displaystyle {\frac {d}{dt}}\int _{D(t)}F(\mathbf {x} ,t)\,dV=\int _{D(t)}{\frac {\partial }{\partial t}}F(\mathbf {x} ,t)\,dV+\int _{\partial D(t)}F(\mathbf {x} ,t)\mathbf {v} _{b}\cdot d\mathbf {\Sigma } ,}

donde es una función escalar, D ( t ) y D ( t ) denotan una región conectada que varía en el tiempo de R 3 y su límite, respectivamente, es la velocidad euleriana del límite (ver coordenadas lagrangianas y eulerianas ) y d Σ = n dS es el componente normal unitario del elemento de superficie . F ( x , t ) {\displaystyle F(\mathbf {x} ,t)} v b {\displaystyle \mathbf {v} _{b}}

El enunciado general de la regla integral de Leibniz requiere conceptos de geometría diferencial , específicamente formas diferenciales , derivadas exteriores , productos de cuña y productos interiores . Con esas herramientas, la regla integral de Leibniz en n dimensiones es [4] donde Ω( t ) es un dominio de integración variable en el tiempo, ω es una p -forma, es el campo vectorial de la velocidad, denota el producto interior con , d x ω es la derivada exterior de ω con respecto a las variables espaciales solamente y es la derivada temporal de ω . d d t Ω ( t ) ω = Ω ( t ) i v ( d x ω ) + Ω ( t ) i v ω + Ω ( t ) ω ˙ , {\displaystyle {\frac {d}{dt}}\int _{\Omega (t)}\omega =\int _{\Omega (t)}i_{\mathbf {v} }(d_{x}\omega )+\int _{\partial \Omega (t)}i_{\mathbf {v} }\omega +\int _{\Omega (t)}{\dot {\omega }},} v = x t {\displaystyle \mathbf {v} ={\frac {\partial \mathbf {x} }{\partial t}}} i v {\displaystyle i_{\mathbf {v} }} v {\displaystyle \mathbf {v} } ω ˙ {\displaystyle {\dot {\omega }}}

La fórmula anterior se puede deducir directamente del hecho de que la derivada de Lie interactúa bien con la integración de formas diferenciales para la variedad espaciotemporal , donde la derivada exterior del espaciotiempo de es y la superficie tiene un campo de velocidad del espaciotiempo . Como solo tiene componentes espaciales, la derivada de Lie se puede simplificar utilizando la fórmula mágica de Cartan , que, después de integrar sobre y utilizar el teorema de Stokes generalizado en el segundo término, se reduce a los tres términos deseados. d d t Ω ( t ) ω = Ω ( t ) L Ψ ω , {\displaystyle {\frac {d}{dt}}\int _{\Omega (t)}\omega =\int _{\Omega (t)}{\mathcal {L}}_{\Psi }\omega ,} M = R × R 3 {\displaystyle M=\mathbb {R} \times \mathbb {R} ^{3}} ω {\displaystyle \omega } d ω = d t ω ˙ + d x ω {\displaystyle d\omega =dt\wedge {\dot {\omega }}+d_{x}\omega } Ω ( t ) {\displaystyle \Omega (t)} Ψ = t + v {\displaystyle \Psi ={\frac {\partial }{\partial t}}+\mathbf {v} } ω {\displaystyle \omega } L Ψ ω = L v ω + L t ω = i v d ω + d i v ω + i t d ω = i v d x ω + d i v ω + ω ˙ {\displaystyle {\mathcal {L}}_{\Psi }\omega ={\mathcal {L}}_{\mathbf {v} }\omega +{\mathcal {L}}_{\frac {\partial }{\partial t}}\omega =i_{\mathbf {v} }d\omega +di_{\mathbf {v} }\omega +i_{\frac {\partial }{\partial t}}d\omega =i_{\mathbf {v} }d_{x}\omega +di_{\mathbf {v} }\omega +{\dot {\omega }}} Ω ( t ) {\displaystyle \Omega (t)}

Declaración de la teoría de la medida

Sea un subconjunto abierto de , y un espacio de medida . Supongamos que cumple las siguientes condiciones: [5] [6] [2] X {\displaystyle X} R {\displaystyle \mathbf {R} } Ω {\displaystyle \Omega } f : X × Ω R {\displaystyle f\colon X\times \Omega \to \mathbf {R} }

  1. f ( x , ω ) {\displaystyle f(x,\omega )} es una función integrable de Lebesgue de para cada . ω {\displaystyle \omega } x X {\displaystyle x\in X}
  2. Para casi todos , la derivada parcial existe para todos . ω Ω {\displaystyle \omega \in \Omega } f x {\displaystyle f_{x}} x X {\displaystyle x\in X}
  3. Existe una función integrable tal que para todo y casi todo . θ : Ω R {\displaystyle \theta \colon \Omega \to \mathbf {R} } | f x ( x , ω ) | θ ( ω ) {\displaystyle |f_{x}(x,\omega )|\leq \theta (\omega )} x X {\displaystyle x\in X} ω Ω {\displaystyle \omega \in \Omega }

Entonces, para todos , x X {\displaystyle x\in X} d d x Ω f ( x , ω ) d ω = Ω f x ( x , ω ) d ω . {\displaystyle {\frac {d}{dx}}\int _{\Omega }f(x,\omega )\,d\omega =\int _{\Omega }f_{x}(x,\omega )\,d\omega .}

La prueba se basa en el teorema de convergencia dominada y el teorema del valor medio (detalles a continuación).

Pruebas

Prueba de forma básica

Primero demostramos el caso de límites de integración constantes a y b .

Utilizamos el teorema de Fubini para cambiar el orden de integración. Para cada x y h , tales que h > 0 y tanto x como x + h están dentro de [ x 0 , x 1 ] , tenemos: x x + h a b f x ( x , t ) d t d x = a b x x + h f x ( x , t ) d x d t = a b ( f ( x + h , t ) f ( x , t ) ) d t = a b f ( x + h , t ) d t a b f ( x , t ) d t {\displaystyle {\begin{aligned}\int _{x}^{x+h}\int _{a}^{b}f_{x}(x,t)\,dt\,dx&=\int _{a}^{b}\int _{x}^{x+h}f_{x}(x,t)\,dx\,dt\\[2ex]&=\int _{a}^{b}\left(f(x+h,t)-f(x,t)\right)\,dt\\[2ex]&=\int _{a}^{b}f(x+h,t)\,dt-\int _{a}^{b}f(x,t)\,dt\end{aligned}}}

Nótese que las integrales en cuestión están bien definidas ya que es continua en el rectángulo cerrado y, por lo tanto, también uniformemente continua allí; por lo tanto, sus integrales por dt o dx son continuas en la otra variable y también integrables por ella (esencialmente, esto se debe a que para funciones uniformemente continuas, uno puede pasar el límite a través del signo de integración, como se explica a continuación). f x ( x , t ) {\displaystyle f_{x}(x,t)} [ x 0 , x 1 ] × [ a , b ] {\displaystyle [x_{0},x_{1}]\times [a,b]}

Por lo tanto: a b f ( x + h , t ) d t a b f ( x , t ) d t h = 1 h x x + h a b f x ( x , t ) d t d x = F ( x + h ) F ( x ) h {\displaystyle {\begin{aligned}{\frac {\int _{a}^{b}f(x+h,t)\,dt-\int _{a}^{b}f(x,t)\,dt}{h}}&={\frac {1}{h}}\int _{x}^{x+h}\int _{a}^{b}f_{x}(x,t)\,dt\,dx\\[2ex]&={\frac {F(x+h)-F(x)}{h}}\end{aligned}}}

Donde hemos definido: (podemos reemplazar x 0 aquí por cualquier otro punto entre x 0 y x ) F ( u ) := x 0 u a b f x ( x , t ) d t d x {\displaystyle F(u):=\int _{x_{0}}^{u}\int _{a}^{b}f_{x}(x,t)\,dt\,dx}

F es diferenciable con derivada , por lo que podemos tomar el límite donde h tiende a cero. Para el lado izquierdo, este límite es: a b f x ( x , t ) d t {\textstyle \int _{a}^{b}f_{x}(x,t)\,dt} d d x a b f ( x , t ) d t {\displaystyle {\frac {d}{dx}}\int _{a}^{b}f(x,t)\,dt}

Para el lado derecho, obtenemos: Y así demostramos el resultado deseado: F ( x ) = a b f x ( x , t ) d t {\displaystyle F'(x)=\int _{a}^{b}f_{x}(x,t)\,dt} d d x a b f ( x , t ) d t = a b f x ( x , t ) d t {\displaystyle {\frac {d}{dx}}\int _{a}^{b}f(x,t)\,dt=\int _{a}^{b}f_{x}(x,t)\,dt}

Otra prueba que utiliza el teorema de convergencia acotada

Si las integrales en cuestión son integrales de Lebesgue , podemos utilizar el teorema de convergencia acotada (válido para estas integrales, pero no para las integrales de Riemann ) para demostrar que el límite puede pasar por el signo de la integral.

Obsérvese que esta prueba es más débil en el sentido de que sólo muestra que f x ( x , t ) es integrable según Lebesgue, pero no que es integrable según Riemann. En la prueba anterior (más fuerte), si f ( x , t ) es integrable según Riemann, entonces también lo es f x ( x , t ) (y, por lo tanto, obviamente también es integrable según Lebesgue).

Dejar

u ( x ) = a b f ( x , t ) d t . {\displaystyle u(x)=\int _{a}^{b}f(x,t)\,dt.} ( 1 )

Por la definición de la derivada,

u ( x ) = lim h 0 u ( x + h ) u ( x ) h . {\displaystyle u'(x)=\lim _{h\to 0}{\frac {u(x+h)-u(x)}{h}}.} ( 2 )

Sustituya la ecuación ( 1 ) en la ecuación ( 2 ). La diferencia de dos integrales es igual a la integral de la diferencia y 1/ h es una constante, por lo que u ( x ) = lim h 0 a b f ( x + h , t ) d t a b f ( x , t ) d t h = lim h 0 a b ( f ( x + h , t ) f ( x , t ) ) d t h = lim h 0 a b f ( x + h , t ) f ( x , t ) h d t . {\displaystyle {\begin{aligned}u'(x)&=\lim _{h\to 0}{\frac {\int _{a}^{b}f(x+h,t)\,dt-\int _{a}^{b}f(x,t)\,dt}{h}}\\&=\lim _{h\to 0}{\frac {\int _{a}^{b}\left(f(x+h,t)-f(x,t)\right)\,dt}{h}}\\&=\lim _{h\to 0}\int _{a}^{b}{\frac {f(x+h,t)-f(x,t)}{h}}\,dt.\end{aligned}}}

Ahora demostramos que el límite puede pasar por el signo integral.

Afirmamos que el paso del límite bajo el signo integral es válido por el teorema de convergencia acotada (un corolario del teorema de convergencia dominada ). Para cada δ > 0, considérese el cociente de diferencias Para t fijo, el teorema del valor medio implica que existe z en el intervalo [ x , x + δ ] tal que La continuidad de f x ( x , t ) y la compacidad del dominio juntas implican que f x ( x , t ) está acotado. La aplicación anterior del teorema del valor medio da por tanto un límite uniforme (independiente de ) en . Los cocientes de diferencias convergen puntualmente a la derivada parcial f x suponiendo que la derivada parcial existe. f δ ( x , t ) = f ( x + δ , t ) f ( x , t ) δ . {\displaystyle f_{\delta }(x,t)={\frac {f(x+\delta ,t)-f(x,t)}{\delta }}.} f δ ( x , t ) = f x ( z , t ) . {\displaystyle f_{\delta }(x,t)=f_{x}(z,t).} t {\displaystyle t} f δ ( x , t ) {\displaystyle f_{\delta }(x,t)}

El argumento anterior muestra que para cada secuencia { δ n } → 0, la secuencia está uniformemente acotada y converge puntualmente a f x . El teorema de convergencia acotada establece que si una secuencia de funciones en un conjunto de medida finita está uniformemente acotada y converge puntualmente, entonces el paso del límite por debajo de la integral es válido. En particular, el límite y la integral pueden intercambiarse para cada secuencia { δ n } → 0. Por lo tanto, el límite cuando δ → 0 puede pasarse por el signo de la integral. { f δ n ( x , t ) } {\displaystyle \{f_{\delta _{n}}(x,t)\}}

Si en cambio sólo sabemos que existe una función integrable tal que , entonces y el teorema de convergencia dominada nos permite mover el límite dentro de la integral. θ : Ω R {\displaystyle \theta \colon \Omega \to \mathbf {R} } | f x ( x , ω ) | θ ( ω ) {\displaystyle |f_{x}(x,\omega )|\leq \theta (\omega )} | f δ ( x , t ) | = | f x ( z , t ) | θ ( ω ) {\displaystyle |f_{\delta }(x,t)|=|f_{x}(z,t)|\leq \theta (\omega )}

Formulario de límites variables

Para una función continua de valor real g de una variable real , y funciones diferenciables de valor real y de una variable real, f 1 {\displaystyle f_{1}} f 2 {\displaystyle f_{2}} d d x ( f 1 ( x ) f 2 ( x ) g ( t ) d t ) = g ( f 2 ( x ) ) f 2 ( x ) g ( f 1 ( x ) ) f 1 ( x ) . {\displaystyle {\frac {d}{dx}}\left(\int _{f_{1}(x)}^{f_{2}(x)}g(t)\,dt\right)=g\left(f_{2}(x)\right){f_{2}'(x)}-g\left(f_{1}(x)\right){f_{1}'(x)}.}

Esto se desprende de la regla de la cadena y del primer teorema fundamental del cálculo . Defina y (el límite inferior solo tiene que ser un número en el dominio de ) G ( x ) = f 1 ( x ) f 2 ( x ) g ( t ) d t , {\displaystyle G(x)=\int _{f_{1}(x)}^{f_{2}(x)}g(t)\,dt,} Γ ( x ) = 0 x g ( t ) d t . {\displaystyle \Gamma (x)=\int _{0}^{x}g(t)\,dt.} g {\displaystyle g}

Entonces, se puede escribir como una composición : . La regla de la cadena implica que Por el primer teorema fundamental del cálculo , . Por lo tanto, sustituyendo este resultado anterior, obtenemos la ecuación deseada: G ( x ) {\displaystyle G(x)} G ( x ) = ( Γ f 2 ) ( x ) ( Γ f 1 ) ( x ) {\displaystyle G(x)=(\Gamma \circ f_{2})(x)-(\Gamma \circ f_{1})(x)} G ( x ) = Γ ( f 2 ( x ) ) f 2 ( x ) Γ ( f 1 ( x ) ) f 1 ( x ) . {\displaystyle G'(x)=\Gamma '\left(f_{2}(x)\right)f_{2}'(x)-\Gamma '\left(f_{1}(x)\right)f_{1}'(x).} Γ ( x ) = g ( x ) {\displaystyle \Gamma '(x)=g(x)} G ( x ) = g ( f 2 ( x ) ) f 2 ( x ) g ( f 1 ( x ) ) f 1 ( x ) . {\displaystyle G'(x)=g\left(f_{2}(x)\right){f_{2}'(x)}-g\left(f_{1}(x)\right){f_{1}'(x)}.}

Nota: Esta forma puede ser particularmente útil si la expresión a diferenciar tiene la forma: Debido a que no depende de los límites de integración, se puede sacar de debajo del signo integral, y la forma anterior se puede usar con la regla del producto , es decir, f 1 ( x ) f 2 ( x ) h ( x ) g ( t ) d t {\displaystyle \int _{f_{1}(x)}^{f_{2}(x)}h(x)\,g(t)\,dt} h ( x ) {\displaystyle h(x)} d d x ( f 1 ( x ) f 2 ( x ) h ( x ) g ( t ) d t ) = d d x ( h ( x ) f 1 ( x ) f 2 ( x ) g ( t ) d t ) = h ( x ) f 1 ( x ) f 2 ( x ) g ( t ) d t + h ( x ) d d x ( f 1 ( x ) f 2 ( x ) g ( t ) d t ) {\displaystyle {\begin{aligned}{\frac {d}{dx}}\left(\int _{f_{1}(x)}^{f_{2}(x)}h(x)g(t)\,dt\right)&={\frac {d}{dx}}\left(h(x)\int _{f_{1}(x)}^{f_{2}(x)}g(t)\,dt\right)\\&=h'(x)\int _{f_{1}(x)}^{f_{2}(x)}g(t)\,dt+h(x){\frac {d}{dx}}\left(\int _{f_{1}(x)}^{f_{2}(x)}g(t)\,dt\right)\end{aligned}}}

Forma general con límites variables

Conjunto donde a y b son funciones de α que presentan incrementos Δ a y Δ b , respectivamente, cuando α se incrementa en Δ α . Entonces, φ ( α ) = a b f ( x , α ) d x , {\displaystyle \varphi (\alpha )=\int _{a}^{b}f(x,\alpha )\,dx,} Δ φ = φ ( α + Δ α ) φ ( α ) = a + Δ a b + Δ b f ( x , α + Δ α ) d x a b f ( x , α ) d x = a + Δ a a f ( x , α + Δ α ) d x + a b f ( x , α + Δ α ) d x + b b + Δ b f ( x , α + Δ α ) d x a b f ( x , α ) d x = a a + Δ a f ( x , α + Δ α ) d x + a b [ f ( x , α + Δ α ) f ( x , α ) ] d x + b b + Δ b f ( x , α + Δ α ) d x . {\displaystyle {\begin{aligned}\Delta \varphi &=\varphi (\alpha +\Delta \alpha )-\varphi (\alpha )\\[4pt]&=\int _{a+\Delta a}^{b+\Delta b}f(x,\alpha +\Delta \alpha )\,dx-\int _{a}^{b}f(x,\alpha )\,dx\\[4pt]&=\int _{a+\Delta a}^{a}f(x,\alpha +\Delta \alpha )\,dx+\int _{a}^{b}f(x,\alpha +\Delta \alpha )\,dx+\int _{b}^{b+\Delta b}f(x,\alpha +\Delta \alpha )\,dx-\int _{a}^{b}f(x,\alpha )\,dx\\[4pt]&=-\int _{a}^{a+\Delta a}f(x,\alpha +\Delta \alpha )\,dx+\int _{a}^{b}[f(x,\alpha +\Delta \alpha )-f(x,\alpha )]\,dx+\int _{b}^{b+\Delta b}f(x,\alpha +\Delta \alpha )\,dx.\end{aligned}}}

Una forma del teorema del valor medio , , donde a < ξ < b , se puede aplicar a la primera y última integral de la fórmula para Δ φ anterior, lo que da como resultado a b f ( x ) d x = ( b a ) f ( ξ ) {\textstyle \int _{a}^{b}f(x)\,dx=(b-a)f(\xi )} Δ φ = Δ a f ( ξ 1 , α + Δ α ) + a b [ f ( x , α + Δ α ) f ( x , α ) ] d x + Δ b f ( ξ 2 , α + Δ α ) . {\displaystyle \Delta \varphi =-\Delta af(\xi _{1},\alpha +\Delta \alpha )+\int _{a}^{b}[f(x,\alpha +\Delta \alpha )-f(x,\alpha )]\,dx+\Delta bf(\xi _{2},\alpha +\Delta \alpha ).}

Dividamos por Δ α y sea Δ α → 0. Nótese que ξ 1a y ξ 2b . Podemos pasar el límite por el signo integral: nuevamente por el teorema de convergencia acotada. Esto produce la forma general de la regla integral de Leibniz, lim Δ α 0 a b f ( x , α + Δ α ) f ( x , α ) Δ α d x = a b α f ( x , α ) d x , {\displaystyle \lim _{\Delta \alpha \to 0}\int _{a}^{b}{\frac {f(x,\alpha +\Delta \alpha )-f(x,\alpha )}{\Delta \alpha }}\,dx=\int _{a}^{b}{\frac {\partial }{\partial \alpha }}f(x,\alpha )\,dx,} d φ d α = a b α f ( x , α ) d x + f ( b , α ) d b d α f ( a , α ) d a d α . {\displaystyle {\frac {d\varphi }{d\alpha }}=\int _{a}^{b}{\frac {\partial }{\partial \alpha }}f(x,\alpha )\,dx+f(b,\alpha ){\frac {db}{d\alpha }}-f(a,\alpha ){\frac {da}{d\alpha }}.}

Demostración alternativa de la forma general con límites variables, utilizando la regla de la cadena

La forma general de la regla integral de Leibniz con límites variables se puede derivar como consecuencia de la forma básica de la regla integral de Leibniz, la regla de la cadena multivariable y el primer teorema fundamental del cálculo . Supóngase que está definida en un rectángulo en el plano, para y . Además, supóngase que y la derivada parcial son ambas funciones continuas en este rectángulo. Supóngase que son funciones diferenciables con valores reales definidas en , con valores en (es decir, para cada ). Ahora, establezcamos y f {\displaystyle f} x t {\displaystyle x-t} x [ x 1 , x 2 ] {\displaystyle x\in [x_{1},x_{2}]} t [ t 1 , t 2 ] {\displaystyle t\in [t_{1},t_{2}]} f {\displaystyle f} f x {\textstyle {\frac {\partial f}{\partial x}}} a , b {\displaystyle a,b} [ x 1 , x 2 ] {\displaystyle [x_{1},x_{2}]} [ t 1 , t 2 ] {\displaystyle [t_{1},t_{2}]} x [ x 1 , x 2 ] , a ( x ) , b ( x ) [ t 1 , t 2 ] {\displaystyle x\in [x_{1},x_{2}],a(x),b(x)\in [t_{1},t_{2}]} F ( x , y ) = t 1 y f ( x , t ) d t , for   x [ x 1 , x 2 ]   and   y [ t 1 , t 2 ] {\displaystyle F(x,y)=\int _{t_{1}}^{y}f(x,t)\,dt,\qquad {\text{for}}~x\in [x_{1},x_{2}]~{\text{and}}~y\in [t_{1},t_{2}]} G ( x ) = a ( x ) b ( x ) f ( x , t ) d t , for   x [ x 1 , x 2 ] {\displaystyle G(x)=\int _{a(x)}^{b(x)}f(x,t)\,dt,\quad {\text{for}}~x\in [x_{1},x_{2}]}

Entonces, por propiedades de las integrales definidas , podemos escribir G ( x ) = t 1 b ( x ) f ( x , t ) d t t 1 a ( x ) f ( x , t ) d t = F ( x , b ( x ) ) F ( x , a ( x ) ) {\displaystyle G(x)=\int _{t_{1}}^{b(x)}f(x,t)\,dt-\int _{t_{1}}^{a(x)}f(x,t)\,dt=F(x,b(x))-F(x,a(x))}

Puesto que todas las funciones son diferenciables (véase la observación al final de la demostración), por la regla de la cadena multivariable , se deduce que es diferenciable, y su derivada está dada por la fórmula: Ahora, note que para cada , y para cada , tenemos que , porque al tomar la derivada parcial con respecto a de , mantenemos fijo en la expresión ; por lo tanto, se aplica la forma básica de la Regla Integral de Leibniz con límites de integración constantes. Luego, por el primer teorema fundamental del cálculo , tenemos que ; porque al tomar la derivada parcial con respecto a de , la primera variable es fija, por lo que el teorema fundamental puede efectivamente aplicarse. F , a , b {\displaystyle F,a,b} G {\displaystyle G} G ( x ) = ( F x ( x , b ( x ) ) + F y ( x , b ( x ) ) b ( x ) ) ( F x ( x , a ( x ) ) + F y ( x , a ( x ) ) a ( x ) ) {\displaystyle G'(x)=\left({\frac {\partial F}{\partial x}}(x,b(x))+{\frac {\partial F}{\partial y}}(x,b(x))b'(x)\right)-\left({\frac {\partial F}{\partial x}}(x,a(x))+{\frac {\partial F}{\partial y}}(x,a(x))a'(x)\right)} x [ x 1 , x 2 ] {\displaystyle x\in [x_{1},x_{2}]} y [ t 1 , t 2 ] {\displaystyle y\in [t_{1},t_{2}]} F x ( x , y ) = t 1 y f x ( x , t ) d t {\textstyle {\frac {\partial F}{\partial x}}(x,y)=\int _{t_{1}}^{y}{\frac {\partial f}{\partial x}}(x,t)\,dt} x {\displaystyle x} F {\displaystyle F} y {\displaystyle y} t 1 y f ( x , t ) d t {\textstyle \int _{t_{1}}^{y}f(x,t)\,dt} F y ( x , y ) = f ( x , y ) {\textstyle {\frac {\partial F}{\partial y}}(x,y)=f(x,y)} y {\displaystyle y} F {\displaystyle F} x {\displaystyle x}

Sustituyendo estos resultados en la ecuación anterior obtenemos: como se desea. G ( x ) {\displaystyle G'(x)} G ( x ) = ( t 1 b ( x ) f x ( x , t ) d t + f ( x , b ( x ) ) b ( x ) ) ( t 1 a ( x ) f x ( x , t ) d t + f ( x , a ( x ) ) a ( x ) ) = f ( x , b ( x ) ) b ( x ) f ( x , a ( x ) ) a ( x ) + a ( x ) b ( x ) f x ( x , t ) d t , {\displaystyle {\begin{aligned}G'(x)&=\left(\int _{t_{1}}^{b(x)}{\frac {\partial f}{\partial x}}(x,t)\,dt+f(x,b(x))b'(x)\right)-\left(\int _{t_{1}}^{a(x)}{\dfrac {\partial f}{\partial x}}(x,t)\,dt+f(x,a(x))a'(x)\right)\\[2pt]&=f(x,b(x))b'(x)-f(x,a(x))a'(x)+\int _{a(x)}^{b(x)}{\frac {\partial f}{\partial x}}(x,t)\,dt,\end{aligned}}}

Hay un punto técnico en la prueba anterior que vale la pena señalar: aplicar la regla de la cadena a requiere que ya sea diferenciable . Aquí es donde usamos nuestras suposiciones sobre . Como se mencionó anteriormente, las derivadas parciales de están dadas por las fórmulas y . Como es continua, su integral también es una función continua, [7] y como también es continua, estos dos resultados muestran que ambas derivadas parciales de son continuas. Dado que la continuidad de las derivadas parciales implica la diferenciabilidad de la función, [8] es de hecho diferenciable. G {\displaystyle G} F {\displaystyle F} f {\displaystyle f} F {\displaystyle F} F x ( x , y ) = t 1 y f x ( x , t ) d t {\textstyle {\frac {\partial F}{\partial x}}(x,y)=\int _{t_{1}}^{y}{\frac {\partial f}{\partial x}}(x,t)\,dt} F y ( x , y ) = f ( x , y ) {\textstyle {\frac {\partial F}{\partial y}}(x,y)=f(x,y)} f x {\textstyle {\dfrac {\partial f}{\partial x}}} f {\displaystyle f} F {\displaystyle F} F {\displaystyle F}

Forma tridimensional dependiente del tiempo

En el instante t la superficie Σ en la Figura 1 contiene un conjunto de puntos dispuestos alrededor de un centroide . La función puede escribirse como con independiente del tiempo. Las variables se desplazan a un nuevo marco de referencia unido a la superficie en movimiento, con origen en . Para una superficie que se traslada rígidamente, los límites de integración son entonces independientes del tiempo, por lo que: donde los límites de integración que confinan la integral a la región Σ ya no dependen del tiempo, por lo que la diferenciación pasa por la integración para actuar solo sobre el integrando: con la velocidad de movimiento de la superficie definida por C ( t ) {\displaystyle \mathbf {C} (t)} F ( r , t ) {\displaystyle \mathbf {F} (\mathbf {r} ,t)} F ( C ( t ) + r C ( t ) , t ) = F ( C ( t ) + I , t ) , {\displaystyle \mathbf {F} (\mathbf {C} (t)+\mathbf {r} -\mathbf {C} (t),t)=\mathbf {F} (\mathbf {C} (t)+\mathbf {I} ,t),} I {\displaystyle \mathbf {I} } C ( t ) {\displaystyle \mathbf {C} (t)} d d t ( Σ ( t ) d A r F ( r , t ) ) = Σ d A I d d t F ( C ( t ) + I , t ) , {\displaystyle {\frac {d}{dt}}\left(\iint _{\Sigma (t)}d\mathbf {A} _{\mathbf {r} }\cdot \mathbf {F} (\mathbf {r} ,t)\right)=\iint _{\Sigma }d\mathbf {A} _{\mathbf {I} }\cdot {\frac {d}{dt}}\mathbf {F} (\mathbf {C} (t)+\mathbf {I} ,t),} d d t F ( C ( t ) + I , t ) = F t ( C ( t ) + I , t ) + v F ( C ( t ) + I , t ) = F t ( r , t ) + v F ( r , t ) , {\displaystyle {\frac {d}{dt}}\mathbf {F} (\mathbf {C} (t)+\mathbf {I} ,t)=\mathbf {F} _{t}(\mathbf {C} (t)+\mathbf {I} ,t)+\mathbf {v\cdot \nabla F} (\mathbf {C} (t)+\mathbf {I} ,t)=\mathbf {F} _{t}(\mathbf {r} ,t)+\mathbf {v} \cdot \nabla \mathbf {F} (\mathbf {r} ,t),} v = d d t C ( t ) . {\displaystyle \mathbf {v} ={\frac {d}{dt}}\mathbf {C} (t).}

Esta ecuación expresa la derivada material del campo, es decir, la derivada con respecto a un sistema de coordenadas unido a la superficie en movimiento. Una vez hallada la derivada, las variables pueden volver al marco de referencia original. Observamos que (véase el artículo sobre el rotacional ) y que el teorema de Stokes iguala la integral de superficie del rotacional sobre Σ con una integral de línea sobre ∂Σ : × ( v × F ) = ( F + F ) v ( v + v ) F , {\displaystyle \nabla \times \left(\mathbf {v} \times \mathbf {F} \right)=(\nabla \cdot \mathbf {F} +\mathbf {F} \cdot \nabla )\mathbf {v} -(\nabla \cdot \mathbf {v} +\mathbf {v} \cdot \nabla )\mathbf {F} ,} d d t ( Σ ( t ) F ( r , t ) d A ) = Σ ( t ) ( F t ( r , t ) + ( F ) v + ( F ) v ( v ) F ) d A Σ ( t ) ( v × F ) d s . {\displaystyle {\frac {d}{dt}}\left(\iint _{\Sigma (t)}\mathbf {F} (\mathbf {r} ,t)\cdot d\mathbf {A} \right)=\iint _{\Sigma (t)}{\big (}\mathbf {F} _{t}(\mathbf {r} ,t)+\left(\mathbf {F\cdot \nabla } \right)\mathbf {v} +\left(\nabla \cdot \mathbf {F} \right)\mathbf {v} -(\nabla \cdot \mathbf {v} )\mathbf {F} {\big )}\cdot d\mathbf {A} -\oint _{\partial \Sigma (t)}\left(\mathbf {v} \times \mathbf {F} \right)\cdot d\mathbf {s} .}

El signo de la integral de línea se basa en la regla de la mano derecha para la elección de la dirección del elemento de línea d s . Para establecer este signo, por ejemplo, supongamos que el campo F apunta en la dirección z positiva , y la superficie Σ es una porción del plano xy con perímetro ∂Σ. Adoptamos la normal a Σ para que esté en la dirección z positiva . El recorrido positivo de ∂Σ es entonces en sentido antihorario (regla de la mano derecha con el pulgar a lo largo del eje z ). Entonces, la integral en el lado izquierdo determina un flujo positivo de F a través de Σ. Supongamos que Σ se traslada en la dirección x positiva a la velocidad v . Un elemento del límite de Σ paralelo al eje y , digamos d s , barre un área v t × d s en el tiempo t . Si integramos alrededor del límite ∂Σ en sentido antihorario, v t × d s apunta en la dirección z negativa en el lado izquierdo de ∂Σ (donde d s apunta hacia abajo), y en la dirección z positiva en el lado derecho de ∂Σ (donde d s apunta hacia arriba), lo que tiene sentido porque Σ se mueve hacia la derecha, agregando área a la derecha y perdiéndola a la izquierda. Sobre esa base, el flujo de F aumenta a la derecha de ∂Σ y disminuye a la izquierda. Sin embargo, el producto escalar v × Fd s = − F × vd s = − Fv × d s . En consecuencia, el signo de la integral de línea se toma como negativo.

Si v es una constante, cuál es el resultado citado. Esta prueba no considera la posibilidad de que la superficie se deforme al moverse. d d t Σ ( t ) F ( r , t ) d A = Σ ( t ) ( F t ( r , t ) + ( F ) v ) d A Σ ( t ) ( v × F ) d s , {\displaystyle {\frac {d}{dt}}\iint _{\Sigma (t)}\mathbf {F} (\mathbf {r} ,t)\cdot d\mathbf {A} =\iint _{\Sigma (t)}{\big (}\mathbf {F} _{t}(\mathbf {r} ,t)+\left(\nabla \cdot \mathbf {F} \right)\mathbf {v} {\big )}\cdot d\mathbf {A} -\oint _{\partial \Sigma (t)}\left(\mathbf {v} \times \mathbf {F} \right)\cdot \,d\mathbf {s} ,}

Derivación alternativa

Lema. Uno tiene: b ( a b f ( x ) d x ) = f ( b ) , a ( a b f ( x ) d x ) = f ( a ) . {\displaystyle {\frac {\partial }{\partial b}}\left(\int _{a}^{b}f(x)\,dx\right)=f(b),\qquad {\frac {\partial }{\partial a}}\left(\int _{a}^{b}f(x)\,dx\right)=-f(a).}

Demostración. A partir de la demostración del teorema fundamental del cálculo ,

b ( a b f ( x ) d x ) = lim Δ b 0 1 Δ b ( a b + Δ b f ( x ) d x a b f ( x ) d x ) = lim Δ b 0 1 Δ b ( a b f ( x ) d x + b b + Δ b f ( x ) d x a b f ( x ) d x ) = lim Δ b 0 1 Δ b b b + Δ b f ( x ) d x = lim Δ b 0 1 Δ b [ f ( b ) Δ b + O ( Δ b 2 ) ] = f ( b ) , {\displaystyle {\begin{aligned}{\frac {\partial }{\partial b}}\left(\int _{a}^{b}f(x)\,dx\right)&=\lim _{\Delta b\to 0}{\frac {1}{\Delta b}}\left(\int _{a}^{b+\Delta b}f(x)\,dx-\int _{a}^{b}f(x)\,dx\right)\\[1ex]&=\lim _{\Delta b\to 0}{\frac {1}{\Delta b}}\left(\int _{a}^{b}f(x)\,dx+\int _{b}^{b+\Delta b}f(x)\,dx-\int _{a}^{b}f(x)\,dx\right)\\[1ex]&=\lim _{\Delta b\to 0}{\frac {1}{\Delta b}}\int _{b}^{b+\Delta b}f(x)\,dx\\[1ex]&=\lim _{\Delta b\to 0}{\frac {1}{\Delta b}}\left[f(b)\Delta b+O\left(\Delta b^{2}\right)\right]\\[1ex]&=f(b),\end{aligned}}} y a ( a b f ( x ) d x ) = lim Δ a 0 1 Δ a [ a + Δ a b f ( x ) d x a b f ( x ) d x ] = lim Δ a 0 1 Δ a a + Δ a a f ( x ) d x = lim Δ a 0 1 Δ a [ f ( a ) Δ a + O ( Δ a 2 ) ] = f ( a ) . {\displaystyle {\begin{aligned}{\frac {\partial }{\partial a}}\left(\int _{a}^{b}f(x)\,dx\right)&=\lim _{\Delta a\to 0}{\frac {1}{\Delta a}}\left[\int _{a+\Delta a}^{b}f(x)\,dx-\int _{a}^{b}f(x)\,dx\right]\\[6pt]&=\lim _{\Delta a\to 0}{\frac {1}{\Delta a}}\int _{a+\Delta a}^{a}f(x)\,dx\\[6pt]&=\lim _{\Delta a\to 0}{\frac {1}{\Delta a}}\left[-f(a)\Delta a+O\left(\Delta a^{2}\right)\right]\\[6pt]&=-f(a).\end{aligned}}}

Supóngase que a y b son constantes, y que f ( x ) implica un parámetro α que es constante en la integración pero puede variar para formar integrales diferentes. Supóngase que f ( x , α ) es una función continua de x y α en el conjunto compacto {( x , α ) : α 0αα 1 y axb }, y que la derivada parcial f α ( x , α ) existe y es continua. Si se define: entonces se puede diferenciar con respecto a α diferenciando bajo el signo integral, es decir, φ ( α ) = a b f ( x , α ) d x , {\displaystyle \varphi (\alpha )=\int _{a}^{b}f(x,\alpha )\,dx,} φ {\displaystyle \varphi } d φ d α = a b α f ( x , α ) d x . {\displaystyle {\frac {d\varphi }{d\alpha }}=\int _{a}^{b}{\frac {\partial }{\partial \alpha }}f(x,\alpha )\,dx.}

Por el teorema de Heine-Cantor es uniformemente continua en ese conjunto. En otras palabras, para cualquier ε > 0 existe Δ α tal que para todos los valores de x en [ a , b ], | f ( x , α + Δ α ) f ( x , α ) | < ε . {\displaystyle |f(x,\alpha +\Delta \alpha )-f(x,\alpha )|<\varepsilon .}

Por otro lado, Δ φ = φ ( α + Δ α ) φ ( α ) = a b f ( x , α + Δ α ) d x a b f ( x , α ) d x = a b ( f ( x , α + Δ α ) f ( x , α ) ) d x ε ( b a ) . {\displaystyle {\begin{aligned}\Delta \varphi &=\varphi (\alpha +\Delta \alpha )-\varphi (\alpha )\\[6pt]&=\int _{a}^{b}f(x,\alpha +\Delta \alpha )\,dx-\int _{a}^{b}f(x,\alpha )\,dx\\[6pt]&=\int _{a}^{b}\left(f(x,\alpha +\Delta \alpha )-f(x,\alpha )\right)\,dx\\[6pt]&\leq \varepsilon (b-a).\end{aligned}}}

Por lo tanto, φ ( α ) es una función continua.

De manera similar, si existe y es continua, entonces para todo ε > 0 existe Δ α tal que: α f ( x , α ) {\displaystyle {\frac {\partial }{\partial \alpha }}f(x,\alpha )} x [ a , b ] , | f ( x , α + Δ α ) f ( x , α ) Δ α f α | < ε . {\displaystyle \forall x\in [a,b],\quad \left|{\frac {f(x,\alpha +\Delta \alpha )-f(x,\alpha )}{\Delta \alpha }}-{\frac {\partial f}{\partial \alpha }}\right|<\varepsilon .}

Por lo tanto, donde Δ φ Δ α = a b f ( x , α + Δ α ) f ( x , α ) Δ α d x = a b f ( x , α ) α d x + R , {\displaystyle {\frac {\Delta \varphi }{\Delta \alpha }}=\int _{a}^{b}{\frac {f(x,\alpha +\Delta \alpha )-f(x,\alpha )}{\Delta \alpha }}\,dx=\int _{a}^{b}{\frac {\partial f(x,\alpha )}{\partial \alpha }}\,dx+R,} | R | < a b ε d x = ε ( b a ) . {\displaystyle |R|<\int _{a}^{b}\varepsilon \,dx=\varepsilon (b-a).}

Ahora, ε → 0 como Δ α → 0, entonces lim Δ α 0 Δ φ Δ α = d φ d α = a b α f ( x , α ) d x . {\displaystyle \lim _{{\Delta \alpha }\to 0}{\frac {\Delta \varphi }{\Delta \alpha }}={\frac {d\varphi }{d\alpha }}=\int _{a}^{b}{\frac {\partial }{\partial \alpha }}f(x,\alpha )\,dx.}

Ésta es la fórmula que nos propusimos demostrar.

Ahora, supongamos que a y b son funciones de α que toman incrementos Δ a y Δ b , respectivamente, cuando α se incrementa en Δ α . Entonces, a b f ( x , α ) d x = φ ( α ) , {\displaystyle \int _{a}^{b}f(x,\alpha )\,dx=\varphi (\alpha ),} Δ φ = φ ( α + Δ α ) φ ( α ) = a + Δ a b + Δ b f ( x , α + Δ α ) d x a b f ( x , α ) d x = a + Δ a a f ( x , α + Δ α ) d x + a b f ( x , α + Δ α ) d x + b b + Δ b f ( x , α + Δ α ) d x a b f ( x , α ) d x = a a + Δ a f ( x , α + Δ α ) d x + a b [ f ( x , α + Δ α ) f ( x , α ) ] d x + b b + Δ b f ( x , α + Δ α ) d x . {\displaystyle {\begin{aligned}\Delta \varphi &=\varphi (\alpha +\Delta \alpha )-\varphi (\alpha )\\[6pt]&=\int _{a+\Delta a}^{b+\Delta b}f(x,\alpha +\Delta \alpha )\,dx-\int _{a}^{b}f(x,\alpha )\,dx\\[6pt]&=\int _{a+\Delta a}^{a}f(x,\alpha +\Delta \alpha )\,dx+\int _{a}^{b}f(x,\alpha +\Delta \alpha )\,dx+\int _{b}^{b+\Delta b}f(x,\alpha +\Delta \alpha )\,dx-\int _{a}^{b}f(x,\alpha )\,dx\\[6pt]&=-\int _{a}^{a+\Delta a}f(x,\alpha +\Delta \alpha )\,dx+\int _{a}^{b}[f(x,\alpha +\Delta \alpha )-f(x,\alpha )]\,dx+\int _{b}^{b+\Delta b}f(x,\alpha +\Delta \alpha )\,dx.\end{aligned}}}

Una forma del teorema del valor medio , donde a < ξ < b , se puede aplicar a la primera y última integral de la fórmula para Δ φ anterior, lo que da como resultado a b f ( x ) d x = ( b a ) f ( ξ ) , {\textstyle \int _{a}^{b}f(x)\,dx=(b-a)f(\xi ),} Δ φ = Δ a f ( ξ 1 , α + Δ α ) + a b [ f ( x , α + Δ α ) f ( x , α ) ] d x + Δ b f ( ξ 2 , α + Δ α ) . {\displaystyle \Delta \varphi =-\Delta a\,f(\xi _{1},\alpha +\Delta \alpha )+\int _{a}^{b}[f(x,\alpha +\Delta \alpha )-f(x,\alpha )]\,dx+\Delta b\,f(\xi _{2},\alpha +\Delta \alpha ).}

Dividiendo por Δ α , dejando Δ α → 0, notando ξ 1a y ξ 2b y usando la derivación anterior para los rendimientos d φ d α = a b α f ( x , α ) d x {\displaystyle {\frac {d\varphi }{d\alpha }}=\int _{a}^{b}{\frac {\partial }{\partial \alpha }}f(x,\alpha )\,dx} d φ d α = a b α f ( x , α ) d x + f ( b , α ) b α f ( a , α ) a α . {\displaystyle {\frac {d\varphi }{d\alpha }}=\int _{a}^{b}{\frac {\partial }{\partial \alpha }}f(x,\alpha )\,dx+f(b,\alpha ){\frac {\partial b}{\partial \alpha }}-f(a,\alpha ){\frac {\partial a}{\partial \alpha }}.}

Ésta es la forma general de la regla integral de Leibniz.

Ejemplos

Ejemplo 1: Límites fijos

Considere la función φ ( α ) = 0 1 α x 2 + α 2 d x . {\displaystyle \varphi (\alpha )=\int _{0}^{1}{\frac {\alpha }{x^{2}+\alpha ^{2}}}\,dx.}

La función bajo el signo integral no es continua en el punto ( x , α ) = (0, 0), y la función φ ( α ) tiene una discontinuidad en α = 0 porque φ ( α ) se acerca a ± π /2 cuando α → 0 ± .

Si diferenciamos φ ( α ) con respecto a α bajo el signo integral, obtenemos para α ≠0. Esto se puede integrar (con respecto a α ) para encontrar d d α φ ( α ) = 0 1 α ( α x 2 + α 2 ) d x = 0 1 x 2 α 2 ( x 2 + α 2 ) 2 d x = x x 2 + α 2 | 0 1 = 1 1 + α 2 , {\displaystyle {\frac {d}{d\alpha }}\varphi (\alpha )=\int _{0}^{1}{\frac {\partial }{\partial \alpha }}\left({\frac {\alpha }{x^{2}+\alpha ^{2}}}\right)\,dx=\int _{0}^{1}{\frac {x^{2}-\alpha ^{2}}{(x^{2}+\alpha ^{2})^{2}}}dx=\left.-{\frac {x}{x^{2}+\alpha ^{2}}}\right|_{0}^{1}=-{\frac {1}{1+\alpha ^{2}}},} φ ( α ) = { 0 , α = 0 , arctan ( α ) + π 2 , α 0. {\displaystyle \varphi (\alpha )={\begin{cases}0,&\alpha =0,\\-\arctan({\alpha })+{\frac {\pi }{2}},&\alpha \neq 0.\end{cases}}}

Ejemplo 2: Límites de variables

Un ejemplo con límites variables: d d x sin x cos x cosh t 2 d t = cosh ( cos 2 x ) d d x ( cos x ) cosh ( sin 2 x ) d d x ( sin x ) + sin x cos x x ( cosh t 2 ) d t = cosh ( cos 2 x ) ( sin x ) cosh ( sin 2 x ) ( cos x ) + 0 = cosh ( cos 2 x ) sin x cosh ( sin 2 x ) cos x . {\displaystyle {\begin{aligned}{\frac {d}{dx}}\int _{\sin x}^{\cos x}\cosh t^{2}\,dt&=\cosh \left(\cos ^{2}x\right){\frac {d}{dx}}(\cos x)-\cosh \left(\sin ^{2}x\right){\frac {d}{dx}}(\sin x)+\int _{\sin x}^{\cos x}{\frac {\partial }{\partial x}}(\cosh t^{2})\,dt\\[6pt]&=\cosh(\cos ^{2}x)(-\sin x)-\cosh(\sin ^{2}x)(\cos x)+0\\[6pt]&=-\cosh(\cos ^{2}x)\sin x-\cosh(\sin ^{2}x)\cos x.\end{aligned}}}

Aplicaciones

Evaluación de integrales definidas

La fórmula puede ser útil para evaluar ciertas integrales definidas. Cuando se utiliza en este contexto, la regla integral de Leibniz para derivar bajo el signo integral también se conoce como el truco de Feynman para la integración. d d x ( a ( x ) b ( x ) f ( x , t ) d t ) = f ( x , b ( x ) ) d d x b ( x ) f ( x , a ( x ) ) d d x a ( x ) + a ( x ) b ( x ) x f ( x , t ) d t {\displaystyle {\frac {d}{dx}}\left(\int _{a(x)}^{b(x)}f(x,t)\,dt\right)=f{\big (}x,b(x){\big )}\cdot {\frac {d}{dx}}b(x)-f{\big (}x,a(x){\big )}\cdot {\frac {d}{dx}}a(x)+\int _{a(x)}^{b(x)}{\frac {\partial }{\partial x}}f(x,t)\,dt}

Ejemplo 3

Considerar φ ( α ) = 0 π ln ( 1 2 α cos ( x ) + α 2 ) d x , | α | 1. {\displaystyle \varphi (\alpha )=\int _{0}^{\pi }\ln \left(1-2\alpha \cos(x)+\alpha ^{2}\right)\,dx,\qquad |\alpha |\neq 1.}

Ahora, d d α φ ( α ) = 0 π 2 cos ( x ) + 2 α 1 2 α cos ( x ) + α 2 d x = 1 α 0 π ( 1 1 α 2 1 2 α cos ( x ) + α 2 ) d x = π α 2 α { arctan ( 1 + α 1 α tan ( x 2 ) ) } | 0 π . {\displaystyle {\begin{aligned}{\frac {d}{d\alpha }}\varphi (\alpha )&=\int _{0}^{\pi }{\frac {-2\cos(x)+2\alpha }{1-2\alpha \cos(x)+\alpha ^{2}}}dx\\[6pt]&={\frac {1}{\alpha }}\int _{0}^{\pi }\left(1-{\frac {1-\alpha ^{2}}{1-2\alpha \cos(x)+\alpha ^{2}}}\right)dx\\[6pt]&=\left.{\frac {\pi }{\alpha }}-{\frac {2}{\alpha }}\left\{\arctan \left({\frac {1+\alpha }{1-\alpha }}\tan \left({\frac {x}{2}}\right)\right)\right\}\right|_{0}^{\pi }.\end{aligned}}}

Como varía de a , tenemos x {\displaystyle x} 0 {\displaystyle 0} π {\displaystyle \pi } { 1 + α 1 α tan ( x 2 ) 0 , | α | < 1 , 1 + α 1 α tan ( x 2 ) 0 , | α | > 1. {\displaystyle {\begin{cases}{\frac {1+\alpha }{1-\alpha }}\tan \left({\frac {x}{2}}\right)\geq 0,&|\alpha |<1,\\{\frac {1+\alpha }{1-\alpha }}\tan \left({\frac {x}{2}}\right)\leq 0,&|\alpha |>1.\end{cases}}}

Por eso, arctan ( 1 + α 1 α tan ( x 2 ) ) | 0 π = { π 2 , | α | < 1 , π 2 , | α | > 1. {\displaystyle \left.\arctan \left({\frac {1+\alpha }{1-\alpha }}\tan \left({\frac {x}{2}}\right)\right)\right|_{0}^{\pi }={\begin{cases}{\frac {\pi }{2}},&|\alpha |<1,\\-{\frac {\pi }{2}},&|\alpha |>1.\end{cases}}}

Por lo tanto,

d d α φ ( α ) = { 0 , | α | < 1 , 2 π α , | α | > 1. {\displaystyle {\frac {d}{d\alpha }}\varphi (\alpha )={\begin{cases}0,&|\alpha |<1,\\{\frac {2\pi }{\alpha }},&|\alpha |>1.\end{cases}}}

Integrando ambos lados con respecto a , obtenemos: α {\displaystyle \alpha } φ ( α ) = { C 1 , | α | < 1 , 2 π ln | α | + C 2 , | α | > 1. {\displaystyle \varphi (\alpha )={\begin{cases}C_{1},&|\alpha |<1,\\2\pi \ln |\alpha |+C_{2},&|\alpha |>1.\end{cases}}}

C 1 = 0 {\displaystyle C_{1}=0} De la evaluación se deduce : φ ( 0 ) {\displaystyle \varphi (0)} φ ( 0 ) = 0 π ln ( 1 ) d x = 0 π 0 d x = 0. {\displaystyle \varphi (0)=\int _{0}^{\pi }\ln(1)\,dx=\int _{0}^{\pi }0\,dx=0.}

Para determinarlo de la misma manera, deberíamos sustituir un valor mayor que 1 en . Esto es un tanto incómodo. En cambio, sustituimos , donde . Entonces, C 2 {\displaystyle C_{2}} α {\displaystyle \alpha } φ ( α ) {\displaystyle \varphi (\alpha )} α = 1 β {\textstyle \alpha ={\frac {1}{\beta }}} | β | < 1 {\displaystyle |\beta |<1} φ ( α ) = 0 π ( ln ( 1 2 β cos ( x ) + β 2 ) 2 ln | β | ) d x = 0 π ln ( 1 2 β cos ( x ) + β 2 ) d x 0 π 2 ln | β | d x = 0 2 π ln | β | = 2 π ln | α | . {\displaystyle {\begin{aligned}\varphi (\alpha )&=\int _{0}^{\pi }\left(\ln \left(1-2\beta \cos(x)+\beta ^{2}\right)-2\ln |\beta |\right)dx\\[6pt]&=\int _{0}^{\pi }\ln \left(1-2\beta \cos(x)+\beta ^{2}\right)\,dx-\int _{0}^{\pi }2\ln |\beta |dx\\[6pt]&=0-2\pi \ln |\beta |\\[6pt]&=2\pi \ln |\alpha |.\end{aligned}}}

Por lo tanto, C 2 = 0 {\displaystyle C_{2}=0}

La definición de ahora está completa: φ ( α ) {\displaystyle \varphi (\alpha )} φ ( α ) = { 0 , | α | < 1 , 2 π ln | α | , | α | > 1. {\displaystyle \varphi (\alpha )={\begin{cases}0,&|\alpha |<1,\\2\pi \ln |\alpha |,&|\alpha |>1.\end{cases}}}

La discusión anterior, por supuesto, no se aplica cuando , ya que no se cumplen las condiciones de diferenciabilidad. α = ± 1 {\displaystyle \alpha =\pm 1}

Ejemplo 4

I = 0 π / 2 1 ( a cos 2 x + b sin 2 x ) 2 d x , a , b > 0. {\displaystyle I=\int _{0}^{\pi /2}{\frac {1}{\left(a\cos ^{2}x+b\sin ^{2}x\right)^{2}}}\,dx,\qquad a,b>0.}

Primero calculamos: J = 0 π / 2 1 a cos 2 x + b sin 2 x d x = 0 π / 2 1 cos 2 x a + b sin 2 x cos 2 x d x = 0 π / 2 sec 2 x a + b tan 2 x d x = 1 b 0 π / 2 1 ( a b ) 2 + tan 2 x d ( tan x ) = 1 a b arctan ( b a tan x ) | 0 π / 2 = π 2 a b . {\displaystyle {\begin{aligned}J&=\int _{0}^{\pi /2}{\frac {1}{a\cos ^{2}x+b\sin ^{2}x}}dx\\[6pt]&=\int _{0}^{\pi /2}{\frac {\frac {1}{\cos ^{2}x}}{a+b{\frac {\sin ^{2}x}{\cos ^{2}x}}}}dx\\[6pt]&=\int _{0}^{\pi /2}{\frac {\sec ^{2}x}{a+b\tan ^{2}x}}dx\\[6pt]&={\frac {1}{b}}\int _{0}^{\pi /2}{\frac {1}{\left({\sqrt {\frac {a}{b}}}\right)^{2}+\tan ^{2}x}}\,d(\tan x)\\[6pt]&=\left.{\frac {1}{\sqrt {ab}}}\arctan \left({\sqrt {\frac {b}{a}}}\tan x\right)\right|_{0}^{\pi /2}\\[6pt]&={\frac {\pi }{2{\sqrt {ab}}}}.\end{aligned}}}

Los límites de integración son independientes de , tenemos: a {\displaystyle a} J a = 0 π / 2 cos 2 x ( a cos 2 x + b sin 2 x ) 2 d x {\displaystyle {\frac {\partial J}{\partial a}}=-\int _{0}^{\pi /2}{\frac {\cos ^{2}x}{\left(a\cos ^{2}x+b\sin ^{2}x\right)^{2}}}\,dx}

Por otro lado: J a = a ( π 2 a b ) = π 4 a 3 b . {\displaystyle {\frac {\partial J}{\partial a}}={\frac {\partial }{\partial a}}\left({\frac {\pi }{2{\sqrt {ab}}}}\right)=-{\frac {\pi }{4{\sqrt {a^{3}b}}}}.}

Igualando estas dos relaciones obtenemos entonces 0 π / 2 cos 2 x ( a cos 2 x + b sin 2 x ) 2 d x = π 4 a 3 b . {\displaystyle \int _{0}^{\pi /2}{\frac {\cos ^{2}x}{\left(a\cos ^{2}x+b\sin ^{2}x\right)^{2}}}\,dx={\frac {\pi }{4{\sqrt {a^{3}b}}}}.}

De manera similar, la búsqueda de rendimientos J b {\displaystyle {\frac {\partial J}{\partial b}}} 0 π / 2 sin 2 x ( a cos 2 x + b sin 2 x ) 2 d x = π 4 a b 3 . {\displaystyle \int _{0}^{\pi /2}{\frac {\sin ^{2}x}{\left(a\cos ^{2}x+b\sin ^{2}x\right)^{2}}}\,dx={\frac {\pi }{4{\sqrt {ab^{3}}}}}.}

Al sumar los dos resultados se obtiene el resultado deseado. I = 0 π / 2 1 ( a cos 2 x + b sin 2 x ) 2 d x = π 4 a b ( 1 a + 1 b ) , {\displaystyle I=\int _{0}^{\pi /2}{\frac {1}{\left(a\cos ^{2}x+b\sin ^{2}x\right)^{2}}}\,dx={\frac {\pi }{4{\sqrt {ab}}}}\left({\frac {1}{a}}+{\frac {1}{b}}\right),} I {\displaystyle I}

Esta derivación puede generalizarse. Nótese que si la definimos se puede demostrar fácilmente que I n = 0 π / 2 1 ( a cos 2 x + b sin 2 x ) n d x , {\displaystyle I_{n}=\int _{0}^{\pi /2}{\frac {1}{\left(a\cos ^{2}x+b\sin ^{2}x\right)^{n}}}\,dx,} ( 1 n ) I n = I n 1 a + I n 1 b {\displaystyle (1-n)I_{n}={\frac {\partial I_{n-1}}{\partial a}}+{\frac {\partial I_{n-1}}{\partial b}}}

Dado , esta fórmula de reducción integral se puede utilizar para calcular todos los valores de para . Las integrales como y también se pueden manejar utilizando la sustitución de Weierstrass . I 1 {\displaystyle I_{1}} I n {\displaystyle I_{n}} n > 1 {\displaystyle n>1} I {\displaystyle I} J {\displaystyle J}

Ejemplo 5

Aquí, consideramos la integral I ( α ) = 0 π / 2 ln ( 1 + cos α cos x ) cos x d x , 0 < α < π . {\displaystyle I(\alpha )=\int _{0}^{\pi /2}{\frac {\ln(1+\cos \alpha \cos x)}{\cos x}}\,dx,\qquad 0<\alpha <\pi .}

Derivando bajo la integral con respecto a , tenemos α {\displaystyle \alpha } d d α I ( α ) = 0 π / 2 α ( ln ( 1 + cos α cos x ) cos x ) d x = 0 π / 2 sin α 1 + cos α cos x d x = 0 π / 2 sin α ( cos 2 x 2 + sin 2 x 2 ) + cos α ( cos 2 x 2 sin 2 x 2 ) d x = sin α 1 cos α 0 π / 2 1 cos 2 x 2 1 1 + cos α 1 cos α + tan 2 x 2 d x = 2 sin α 1 cos α 0 π / 2 1 2 sec 2 x 2 2 cos 2 α 2 2 sin 2 α 2 + tan 2 x 2 d x = 2 ( 2 sin α 2 cos α 2 ) 2 sin 2 α 2 0 π / 2 1 cot 2 α 2 + tan 2 x 2 d ( tan x 2 ) = 2 cot α 2 0 π / 2 1 cot 2 α 2 + tan 2 x 2 d ( tan x 2 ) = 2 arctan ( tan α 2 tan x 2 ) | 0 π / 2 = α . {\displaystyle {\begin{aligned}{\frac {d}{d\alpha }}I(\alpha )&=\int _{0}^{\pi /2}{\frac {\partial }{\partial \alpha }}\left({\frac {\ln(1+\cos \alpha \cos x)}{\cos x}}\right)\,dx\\[6pt]&=-\int _{0}^{\pi /2}{\frac {\sin \alpha }{1+\cos \alpha \cos x}}\,dx\\&=-\int _{0}^{\pi /2}{\frac {\sin \alpha }{\left(\cos ^{2}{\frac {x}{2}}+\sin ^{2}{\frac {x}{2}}\right)+\cos \alpha \left(\cos ^{2}{\frac {x}{2}}-\sin ^{2}{\frac {x}{2}}\right)}}\,dx\\[6pt]&=-{\frac {\sin \alpha }{1-\cos \alpha }}\int _{0}^{\pi /2}{\frac {1}{\cos ^{2}{\frac {x}{2}}}}{\frac {1}{{\frac {1+\cos \alpha }{1-\cos \alpha }}+\tan ^{2}{\frac {x}{2}}}}\,dx\\[6pt]&=-{\frac {2\sin \alpha }{1-\cos \alpha }}\int _{0}^{\pi /2}{\frac {{\frac {1}{2}}\sec ^{2}{\frac {x}{2}}}{{\frac {2\cos ^{2}{\frac {\alpha }{2}}}{2\sin ^{2}{\frac {\alpha }{2}}}}+\tan ^{2}{\frac {x}{2}}}}\,dx\\[6pt]&=-{\frac {2\left(2\sin {\frac {\alpha }{2}}\cos {\frac {\alpha }{2}}\right)}{2\sin ^{2}{\frac {\alpha }{2}}}}\int _{0}^{\pi /2}{\frac {1}{\cot ^{2}{\frac {\alpha }{2}}+\tan ^{2}{\frac {x}{2}}}}\,d\left(\tan {\frac {x}{2}}\right)\\[6pt]&=-2\cot {\frac {\alpha }{2}}\int _{0}^{\pi /2}{\frac {1}{\cot ^{2}{\frac {\alpha }{2}}+\tan ^{2}{\frac {x}{2}}}}\,d\left(\tan {\frac {x}{2}}\right)\\[6pt]&=-2\arctan \left(\tan {\frac {\alpha }{2}}\tan {\frac {x}{2}}\right){\bigg |}_{0}^{\pi /2}\\[6pt]&=-\alpha .\end{aligned}}}

Por lo tanto: I ( α ) = C α 2 2 . {\displaystyle I(\alpha )=C-{\frac {\alpha ^{2}}{2}}.}

Pero por definición así y I ( π 2 ) = 0 {\textstyle I{\left({\frac {\pi }{2}}\right)}=0} C = π 2 8 {\textstyle C={\frac {\pi ^{2}}{8}}} I ( α ) = π 2 8 α 2 2 . {\displaystyle I(\alpha )={\frac {\pi ^{2}}{8}}-{\frac {\alpha ^{2}}{2}}.}

Ejemplo 6

Aquí, consideramos la integral 0 2 π e cos θ cos ( sin θ ) d θ . {\displaystyle \int _{0}^{2\pi }e^{\cos \theta }\cos(\sin \theta )\,d\theta .}

Introducimos una nueva variable φ y reescribimos la integral como f ( φ ) = 0 2 π e φ cos θ cos ( φ sin θ ) d θ . {\displaystyle f(\varphi )=\int _{0}^{2\pi }e^{\varphi \cos \theta }\cos(\varphi \sin \theta )\,d\theta .}

Cuando φ = 1, es igual a la integral original. Sin embargo, esta integral más general puede derivarse con respecto a : φ {\displaystyle \varphi } d f d φ = 0 2 π φ [ e φ cos θ cos ( φ sin θ ) ] d θ = 0 2 π e φ cos θ [ cos θ cos ( φ sin θ ) sin θ sin ( φ sin θ ) ] d θ . {\displaystyle {\frac {df}{d\varphi }}=\int _{0}^{2\pi }{\frac {\partial }{\partial \varphi }}\left[e^{\varphi \cos \theta }\cos(\varphi \sin \theta )\right]d\theta =\int _{0}^{2\pi }e^{\varphi \cos \theta }\left[\cos \theta \cos(\varphi \sin \theta )-\sin \theta \sin(\varphi \sin \theta )\right]d\theta .}

Ahora, fijemos φ y consideremos el campo vectorial en definido por . Además, elijamos la parametrización orientada positivamente del círculo unitario dada por , , de modo que . Entonces la integral final anterior es precisamente la integral de línea de sobre . Por el teorema de Green , esto es igual a la integral doble donde es el disco unitario cerrado . Su integrando es idénticamente 0, por lo que también es idénticamente cero. Esto implica que f ( φ ) es constante. La constante se puede determinar evaluando en : R 2 {\displaystyle \mathbb {R} ^{2}} F ( x , y ) = ( F 1 ( x , y ) , F 2 ( x , y ) ) := ( e φ x sin ( φ y ) , e φ x cos ( φ y ) ) {\displaystyle \mathbf {F} (x,y)=(F_{1}(x,y),F_{2}(x,y)):=(e^{\varphi x}\sin(\varphi y),e^{\varphi x}\cos(\varphi y))} S 1 {\displaystyle S^{1}} r : [ 0 , 2 π ) R 2 {\displaystyle \mathbf {r} \colon [0,2\pi )\to \mathbb {R} ^{2}} r ( θ ) := ( cos θ , sin θ ) {\displaystyle \mathbf {r} (\theta ):=(\cos \theta ,\sin \theta )} r ( t ) = ( sin θ , cos θ ) {\displaystyle \mathbf {r} '(t)=(-\sin \theta ,\cos \theta )} 0 2 π e φ cos θ [ cos θ cos ( φ sin θ ) sin θ sin ( φ sin θ ) ] d θ = 0 2 π [ e φ cos θ sin ( φ sin θ ) e φ cos θ cos ( φ sin θ ) ] [ sin θ cos θ ] d θ = 0 2 π F ( r ( θ ) ) r ( θ ) d θ = S 1 F ( r ) d r = S 1 F 1 d x + F 2 d y , {\displaystyle {\begin{aligned}&\int _{0}^{2\pi }e^{\varphi \cos \theta }\left[\cos \theta \cos(\varphi \sin \theta )-\sin \theta \sin(\varphi \sin \theta )\right]d\theta \\[6pt]={}&\int _{0}^{2\pi }{\begin{bmatrix}e^{\varphi \cos \theta }\sin(\varphi \sin \theta )\\e^{\varphi \cos \theta }\cos(\varphi \sin \theta )\end{bmatrix}}\cdot {\begin{bmatrix}-\sin \theta \\{\hphantom {-}}\cos \theta \end{bmatrix}}\,d\theta \\[6pt]={}&\int _{0}^{2\pi }\mathbf {F} (\mathbf {r} (\theta ))\cdot \mathbf {r} '(\theta )\,d\theta \\[6pt]={}&\oint _{S^{1}}\mathbf {F} (\mathbf {r} )\cdot d\mathbf {r} =\oint _{S^{1}}F_{1}\,dx+F_{2}\,dy,\end{aligned}}} F {\displaystyle \mathbf {F} } S 1 {\displaystyle S^{1}} D F 2 x F 1 y d A , {\displaystyle \iint _{D}{\frac {\partial F_{2}}{\partial x}}-{\frac {\partial F_{1}}{\partial y}}\,dA,} D {\displaystyle D} d f / d φ {\displaystyle df/d\varphi } f {\displaystyle f} φ = 0 {\displaystyle \varphi =0} f ( 0 ) = 0 2 π 1 d θ = 2 π . {\displaystyle f(0)=\int _{0}^{2\pi }1\,d\theta =2\pi .}

Por lo tanto, la integral original también es igual . 2 π {\displaystyle 2\pi }

Otros problemas a resolver

Existen innumerables otras integrales que pueden resolverse utilizando la técnica de la diferenciación bajo el signo integral. Por ejemplo, en cada uno de los siguientes casos, la integral original puede reemplazarse por una integral similar que tenga un nuevo parámetro : α {\displaystyle \alpha } 0 sin x x d x 0 e α x sin x x d x , 0 π / 2 x tan x d x 0 π / 2 tan 1 ( α tan x ) tan x d x , 0 ln ( 1 + x 2 ) 1 + x 2 d x 0 ln ( 1 + α 2 x 2 ) 1 + x 2 d x 0 1 x 1 ln x d x 0 1 x α 1 ln x d x . {\displaystyle {\begin{aligned}\int _{0}^{\infty }{\frac {\sin x}{x}}\,dx&\to \int _{0}^{\infty }e^{-\alpha x}{\frac {\sin x}{x}}dx,\\[6pt]\int _{0}^{\pi /2}{\frac {x}{\tan x}}\,dx&\to \int _{0}^{\pi /2}{\frac {\tan ^{-1}(\alpha \tan x)}{\tan x}}dx,\\[6pt]\int _{0}^{\infty }{\frac {\ln(1+x^{2})}{1+x^{2}}}\,dx&\to \int _{0}^{\infty }{\frac {\ln(1+\alpha ^{2}x^{2})}{1+x^{2}}}dx\\[6pt]\int _{0}^{1}{\frac {x-1}{\ln x}}\,dx&\to \int _{0}^{1}{\frac {x^{\alpha }-1}{\ln x}}dx.\end{aligned}}}

La primera integral, la integral de Dirichlet , es absolutamente convergente para α positivo , pero solo condicionalmente convergente cuando . Por lo tanto, la diferenciación bajo el signo integral es fácil de justificar cuando , pero demostrar que la fórmula resultante sigue siendo válida cuando requiere un trabajo cuidadoso. α = 0 {\displaystyle \alpha =0} α > 0 {\displaystyle \alpha >0} α = 0 {\displaystyle \alpha =0}

Serie infinita

La versión de la diferenciación bajo el signo integral que se basa en la teoría de la medida también se aplica a la suma (finita o infinita), ya que se interpreta la suma como una medida de conteo . Un ejemplo de aplicación es el hecho de que las series de potencias son diferenciables en su radio de convergencia. [ cita requerida ]

Ecuaciones de Euler-Lagrange

La regla integral de Leibniz se utiliza en la derivación de la ecuación de Euler-Lagrange en el cálculo variacional .

La diferenciación bajo el signo integral se menciona en las memorias más vendidas del difunto físico Richard Feynman, Surely You're Joking, Mr. Feynman!, en el capítulo "A Different Box of Tools". Feynman describe haberla aprendido, mientras estaba en la escuela secundaria , de un viejo texto, Advanced Calculus (1926), de Frederick S. Woods (quien era profesor de matemáticas en el Instituto Tecnológico de Massachusetts ). La técnica no se enseñaba con frecuencia cuando Feynman recibió más tarde su educación formal en cálculo , pero al usarla, Feynman pudo resolver problemas de integración que de otro modo serían difíciles cuando llegó a la escuela de posgrado en la Universidad de Princeton :

Una cosa que nunca aprendí fue la integración de contornos . Había aprendido a hacer integrales mediante varios métodos que se mostraban en un libro que me había dado mi profesor de física de la escuela secundaria, el Sr. Bader. Un día me dijo que me quedara después de clase. "Feynman", dijo, "hablas demasiado y haces demasiado ruido. Sé por qué. Estás aburrido. Así que te voy a dar un libro. Ve allí en la parte de atrás, en la esquina, y estudia este libro, y cuando sepas todo lo que hay en este libro, puedes hablar de nuevo". Así que en cada clase de física, no prestaba atención a lo que estaba pasando con la Ley de Pascal, o lo que fuera que estuvieran haciendo. Estaba en la parte de atrás con este libro: "Cálculo avanzado", de Woods. Bader sabía que había estudiado un poco "Cálculo para el hombre práctico", así que me dio los trabajos reales; era para un curso de tercer o cuarto año en la universidad. Tenía series de Fourier , funciones de Bessel , determinantes , funciones elípticas ... todo tipo de cosas maravillosas de las que yo no sabía nada. Ese libro también mostraba cómo diferenciar parámetros bajo el signo integral: es una operación determinada. Resulta que eso no se enseña mucho en las universidades; no lo enfatizan. Pero comprendí cómo usar ese método, y usé esa maldita herramienta una y otra vez. Entonces, como aprendí por mi cuenta usando ese libro, tenía métodos peculiares para hacer integrales. El resultado fue que, cuando los chicos del MIT o Princeton tenían problemas para hacer cierta integral, era porque no podían hacerla con los métodos estándar que habían aprendido en la escuela. Si era integración de contorno, la habrían encontrado; si era una expansión de serie simple, la habrían encontrado. Luego llegué yo e intenté diferenciar bajo el signo integral, y a menudo funcionó. Así que me gané una gran reputación por hacer integrales, solo porque mi caja de herramientas era diferente a la de todos los demás, y habían probado todas sus herramientas en ella antes de darme el problema.

Véase también

Referencias

  1. ^ Protter, Murray H.; Morrey, Charles B. Jr. (1985). "Diferenciación bajo el signo integral". Cálculo intermedio (segunda edición). Nueva York: Springer. págs. 421–426. doi :10.1007/978-1-4612-1086-3. ISBN 978-0-387-96058-6.
  2. ^ ab Talvila, Erik (junio de 2001). "Condiciones necesarias y suficientes para diferenciar bajo el signo integral". American Mathematical Monthly . 108 (6): 544–548. arXiv : math/0101012 . doi :10.2307/2695709. JSTOR  2695709 . Consultado el 16 de abril de 2022 .
  3. ^ Abraham, Max; Becker, Richard (1950). Teoría clásica de la electricidad y el magnetismo (2.ª ed.). Londres: Blackie & Sons. págs. 39-40.
  4. ^ ab Flanders, Harly (junio-julio de 1973). "Diferenciación bajo el signo integral" (PDF) . American Mathematical Monthly . 80 (6): 615–627. doi :10.2307/2319163. JSTOR  2319163.
  5. ^ Folland, Gerald (1999). Análisis real: técnicas modernas y sus aplicaciones (2.ª ed.). Nueva York: John Wiley & Sons. pág. 56. ISBN 978-0-471-31716-6.
  6. ^ Cheng, Steve (6 de septiembre de 2010). Diferenciación bajo el signo integral con derivadas débiles (informe). CiteSeerX. CiteSeerX 10.1.1.525.2529 . 
  7. ^ Spivak, Michael (1994). Cálculo (3.ª ed.). Houston, Texas: Publish or Perish, Inc., págs. 267-268. ISBN 978-0-914098-89-8.
  8. ^ Spivak, Michael (1965). Cálculo de variedades . Addison-Wesley Publishing Company. pág. 31. ISBN. 978-0-8053-9021-6.

Lectura adicional

  • Amazigo, John C.; Rubenfeld, Lester A. (1980). "Integrales simples: regla de Leibnitz; integración numérica". Cálculo avanzado y sus aplicaciones a la ingeniería y las ciencias físicas . Nueva York: Wiley. págs. 155–165. ISBN 0-471-04934-4.
  • Kaplan, Wilfred (1973). "Integrales que dependen de un parámetro: regla de Leibnitz". Cálculo avanzado (2.ª ed.). Lectura: Addison-Wesley. págs. 285–288.
  • Harron, Rob. "La regla de Leibniz" (PDF) . MAT-203 .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Leibniz_integral_rule&oldid=1247223889"