Función delta de Dirac

Función generalizada cuyo valor es cero en todas partes excepto en cero

Representación esquemática de la función delta de Dirac mediante una línea coronada por una flecha. La altura de la flecha suele indicar el valor de cualquier constante multiplicativa, que dará el área bajo la función. La otra convención es escribir el área junto a la punta de la flecha.
El delta de Dirac como límite como (en el sentido de distribuciones ) de la secuencia de distribuciones normales centradas en cero a 0 {\displaystyle a\to 0} del a ( incógnita ) = 1 | a | π mi ( incógnita / a ) 2 {\displaystyle \delta _{a}(x)={\frac {1}{\left|a\right|{\sqrt {\pi }}}}e^{-(x/a)^{2}}}

En análisis matemático , la función delta de Dirac (o distribución δ ), también conocida como impulso unitario , [1] es una función generalizada sobre los números reales , cuyo valor es cero en todas partes excepto en cero, y cuya integral sobre toda la recta real es igual a uno. [2] [3] [4] Por lo tanto, se puede representar heurísticamente como

δ ( x ) = { 0 , x 0 , x = 0 {\displaystyle \delta (x)={\begin{cases}0,&x\neq 0\\{\infty },&x=0\end{cases}}}

de tal manera que

δ ( x ) = 1. {\displaystyle \int _{-\infty }^{\infty }\delta (x)=1.}

Dado que no existe ninguna función que tenga esta propiedad, modelar rigurosamente la "función" delta implica el uso de límites o, como es común en matemáticas, la teoría de la medida y la teoría de distribuciones .

La función delta fue introducida por el físico Paul Dirac y desde entonces se ha aplicado de forma rutinaria en física e ingeniería para modelar masas puntuales e impulsos instantáneos. Se denomina función delta porque es un análogo continuo de la función delta de Kronecker , que suele definirse en un dominio discreto y toma valores 0 y 1. El rigor matemático de la función delta fue objeto de controversia hasta que Laurent Schwartz desarrolló la teoría de distribuciones, donde se la define como una forma lineal que actúa sobre funciones.

Motivación y visión general

El gráfico del delta de Dirac se considera generalmente como si siguiera todo el eje x y el eje y positivo . [5] : 174  El delta de Dirac se utiliza para modelar una función de pico alto y estrecho (un impulso ), y otras abstracciones similares como una carga puntual , una masa puntual o un electrón puntual. Por ejemplo, para calcular la dinámica de una bola de billar que es golpeada, uno puede aproximar la fuerza del impacto por un delta de Dirac. Al hacerlo, uno no solo simplifica las ecuaciones, sino que también es capaz de calcular el movimiento de la bola, considerando solo el impulso total de la colisión, sin un modelo detallado de toda la transferencia de energía elástica a niveles subatómicos (por ejemplo).

Para ser más específicos, supongamos que una bola de billar está en reposo. En el instante en que otra bola la golpea, impartiéndole un momento P , con unidades kg⋅m⋅s −1 . El intercambio de momento no es realmente instantáneo, ya que está mediado por procesos elásticos a nivel molecular y subatómico, pero para fines prácticos es conveniente considerar que la transferencia de energía es efectivamente instantánea. La fuerza , por lo tanto, es P δ ( t ) ; las unidades de δ ( t ) son s −1 . t = 0 {\displaystyle t=0}

Para modelar esta situación de forma más rigurosa, supongamos que la fuerza, en cambio, se distribuye uniformemente a lo largo de un pequeño intervalo de tiempo . Es decir, Δ t = [ 0 , T ] {\displaystyle \Delta t=[0,T]}

F Δ t ( t ) = { P / Δ t 0 < t T , 0 otherwise . {\displaystyle F_{\Delta t}(t)={\begin{cases}P/\Delta t&0<t\leq T,\\0&{\text{otherwise}}.\end{cases}}}

Luego el momento en cualquier momento t se encuentra por integración:

p ( t ) = 0 t F Δ t ( τ ) d τ = { P t T P t / Δ t 0 t T 0 otherwise. {\displaystyle p(t)=\int _{0}^{t}F_{\Delta t}(\tau )\,d\tau ={\begin{cases}P&t\geq T\\P\,t/\Delta t&0\leq t\leq T\\0&{\text{otherwise.}}\end{cases}}}

Ahora bien, la situación modelo de una transferencia instantánea de momento requiere tomar el límite como Δ t → 0 , dando un resultado en todas partes excepto en 0 :

p ( t ) = { P t > 0 0 t < 0. {\displaystyle p(t)={\begin{cases}P&t>0\\0&t<0.\end{cases}}}

Aquí se consideran las funciones como aproximaciones útiles a la idea de transferencia instantánea de momento. F Δ t {\displaystyle F_{\Delta t}}

La función delta nos permite construir un límite idealizado de estas aproximaciones. Desafortunadamente, el límite real de las funciones (en el sentido de convergencia puntual ) es cero en todas partes excepto en un único punto, donde es infinito. Para que el delta de Dirac tenga un sentido adecuado, deberíamos insistir en cambio en que la propiedad lim Δ t 0 + F Δ t {\textstyle \lim _{\Delta t\to 0^{+}}F_{\Delta t}}

F Δ t ( t ) d t = P , {\displaystyle \int _{-\infty }^{\infty }F_{\Delta t}(t)\,dt=P,}

que se cumple para todos , debería seguir cumpliéndose en el límite. Por lo tanto, en la ecuación , se entiende que el límite siempre se toma fuera de la integral . Δ t > 0 {\displaystyle \Delta t>0} F ( t ) = P δ ( t ) = lim Δ t 0 F Δ t ( t ) {\textstyle F(t)=P\,\delta (t)=\lim _{\Delta t\to 0}F_{\Delta t}(t)}

En matemáticas aplicadas, como lo hemos hecho aquí, la función delta se manipula a menudo como una especie de límite (un límite débil ) de una secuencia de funciones, cada miembro de las cuales tiene un pico alto en el origen: por ejemplo, una secuencia de distribuciones gaussianas centradas en el origen con varianza que tiende a cero.

La delta de Dirac no es verdaderamente una función, al menos no una función habitual con dominio y rango en números reales . Por ejemplo, los objetos f ( x ) = δ ( x ) y g ( x ) = 0 son iguales en todas partes excepto en x = 0 pero tienen integrales que son diferentes. Según la teoría de integración de Lebesgue , si f y g son funciones tales que f = g casi en todas partes , entonces f es integrable si y solo si g es integrable y las integrales de f y g son idénticas. Un enfoque riguroso para considerar la función delta de Dirac como un objeto matemático por derecho propio requiere la teoría de la medida o la teoría de distribuciones .

Historia

Joseph Fourier presentó lo que ahora se llama el teorema integral de Fourier en su tratado Théorie analytique de la chaleur en la forma: [6]

f ( x ) = 1 2 π     d α f ( α )   d p   cos ( p x p α )   , {\displaystyle f(x)={\frac {1}{2\pi }}\int _{-\infty }^{\infty }\ \ d\alpha \,f(\alpha )\ \int _{-\infty }^{\infty }dp\ \cos(px-p\alpha )\ ,}

lo que equivale a la introducción de la función δ en la forma: [7]

δ ( x α ) = 1 2 π d p   cos ( p x p α )   . {\displaystyle \delta (x-\alpha )={\frac {1}{2\pi }}\int _{-\infty }^{\infty }dp\ \cos(px-p\alpha )\ .}

Más tarde, Augustin Cauchy expresó el teorema utilizando exponenciales: [8] [9]

f ( x ) = 1 2 π   e i p x ( e i p α f ( α ) d α ) d p . {\displaystyle f(x)={\frac {1}{2\pi }}\int _{-\infty }^{\infty }\ e^{ipx}\left(\int _{-\infty }^{\infty }e^{-ip\alpha }f(\alpha )\,d\alpha \right)\,dp.}

Cauchy señaló que en algunas circunstancias el orden de integración es significativo en este resultado (contraste con el teorema de Fubini ). [10] [11]

Como se justifica utilizando la teoría de distribuciones , la ecuación de Cauchy se puede reorganizar para asemejarse a la formulación original de Fourier y exponer la función δ como

f ( x ) = 1 2 π e i p x ( e i p α f ( α ) d α ) d p = 1 2 π ( e i p x e i p α d p ) f ( α ) d α = δ ( x α ) f ( α ) d α , {\displaystyle {\begin{aligned}f(x)&={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{ipx}\left(\int _{-\infty }^{\infty }e^{-ip\alpha }f(\alpha )\,d\alpha \right)\,dp\\[4pt]&={\frac {1}{2\pi }}\int _{-\infty }^{\infty }\left(\int _{-\infty }^{\infty }e^{ipx}e^{-ip\alpha }\,dp\right)f(\alpha )\,d\alpha =\int _{-\infty }^{\infty }\delta (x-\alpha )f(\alpha )\,d\alpha ,\end{aligned}}}

donde la función δ se expresa como

δ ( x α ) = 1 2 π e i p ( x α ) d p   . {\displaystyle \delta (x-\alpha )={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{ip(x-\alpha )}\,dp\ .}

La interpretación rigurosa de la forma exponencial y las diversas limitaciones de la función f necesarias para su aplicación se han extendido durante varios siglos. Los problemas con una interpretación clásica se explican de la siguiente manera: [12]

El mayor inconveniente de la transformación clásica de Fourier es que se trata de una clase bastante limitada de funciones (funciones originales) para las que se puede calcular de forma eficaz. Es decir, es necesario que estas funciones decrezcan con la suficiente rapidez hasta cero (cerca del infinito) para garantizar la existencia de la integral de Fourier. Por ejemplo, la transformada de Fourier de funciones tan simples como los polinomios no existe en el sentido clásico. La extensión de la transformada clásica de Fourier a las distribuciones amplió considerablemente la clase de funciones que se podían transformar y eliminó muchos obstáculos.

Los desarrollos posteriores incluyeron la generalización de la integral de Fourier, "comenzando con la innovadora teoría L 2 de Plancherel (1910), continuando con los trabajos de Wiener y Bochner (alrededor de 1930) y culminando con la fusión en la teoría de distribuciones de L. Schwartz (1945)...", [13] y conduciendo al desarrollo formal de la función delta de Dirac.

Una fórmula infinitesimal para una función delta de impulso unitario infinitamente alta (versión infinitesimal de la distribución de Cauchy ) aparece explícitamente en un texto de 1827 de Augustin-Louis Cauchy . [14] Siméon Denis Poisson consideró el tema en relación con el estudio de la propagación de ondas, como lo hizo Gustav Kirchhoff algo más tarde. Kirchhoff y Hermann von Helmholtz también introdujeron el impulso unitario como un límite de las gaussianas , que también correspondía a la noción de Lord Kelvin de una fuente de calor puntual. A finales del siglo XIX, Oliver Heaviside utilizó series formales de Fourier para manipular el impulso unitario. [15] La función delta de Dirac como tal fue introducida por Paul Dirac en su artículo de 1927 The Physical Interpretation of the Quantum Dynamics [16] y utilizada en su libro de texto The Principles of Quantum Mechanics . [3] La llamó "función delta" ya que la utilizó como un análogo continuo del delta discreto de Kronecker .

Definiciones

La función delta de Dirac puede considerarse libremente como una función en la línea real que es cero en todas partes excepto en el origen, donde es infinita. δ ( x ) {\displaystyle \delta (x)}

δ ( x ) { + , x = 0 0 , x 0 {\displaystyle \delta (x)\simeq {\begin{cases}+\infty ,&x=0\\0,&x\neq 0\end{cases}}}

y que también está obligado a satisfacer la identidad [17]

δ ( x ) d x = 1. {\displaystyle \int _{-\infty }^{\infty }\delta (x)\,dx=1.}

Esta es simplemente una caracterización heurística . El delta de Dirac no es una función en el sentido tradicional, ya que ninguna función extendida con valores reales definida sobre los números reales tiene estas propiedades. [18]

Como medida

Una forma de capturar rigurosamente la noción de la función delta de Dirac es definir una medida , llamada medida de Dirac , que acepta un subconjunto A de la línea real R como argumento, y devuelve δ ( A ) = 1 si 0 ∈ A , y δ ( A ) = 0 en caso contrario. [19] Si la función delta se conceptualiza como modelando una masa puntual idealizada en 0, entonces δ ( A ) representa la masa contenida en el conjunto A . Entonces se puede definir la integral contra δ como la integral de una función contra esta distribución de masa. Formalmente, la integral de Lebesgue proporciona el dispositivo analítico necesario. La integral de Lebesgue con respecto a la medida δ satisface

f ( x ) δ ( d x ) = f ( 0 ) {\displaystyle \int _{-\infty }^{\infty }f(x)\,\delta (dx)=f(0)}

para todas las funciones continuas con soporte compacto f . La medida δ no es absolutamente continua con respecto a la medida de Lebesgue —de hecho, es una medida singular . En consecuencia, la medida delta no tiene derivada de Radon-Nikodym (con respecto a la medida de Lebesgue) —ninguna función verdadera para la cual se cumpla la propiedad

f ( x ) δ ( x ) d x = f ( 0 ) {\displaystyle \int _{-\infty }^{\infty }f(x)\,\delta (x)\,dx=f(0)}

se cumple. [20] Como resultado, la última notación es un abuso conveniente de la notación y no una integral estándar ( de Riemann o Lebesgue ).

Como medida de probabilidad en R , la medida delta se caracteriza por su función de distribución acumulativa , que es la función de paso unitario . [21]

H ( x ) = { 1 if  x 0 0 if  x < 0. {\displaystyle H(x)={\begin{cases}1&{\text{if }}x\geq 0\\0&{\text{if }}x<0.\end{cases}}}

Esto significa que H ( x ) es la integral de la función indicadora acumulativa 1 (−∞, x ] con respecto a la medida δ ; es decir,

H ( x ) = R 1 ( , x ] ( t ) δ ( d t ) = δ ( ( , x ] ) , {\displaystyle H(x)=\int _{\mathbf {R} }\mathbf {1} _{(-\infty ,x]}(t)\,\delta (dt)=\delta \!\left((-\infty ,x]\right),}

siendo esta última la medida de este intervalo. Así, en particular, la integración de la función delta con respecto a una función continua puede entenderse correctamente como una integral de Riemann-Stieltjes : [22]

f ( x ) δ ( d x ) = f ( x ) d H ( x ) . {\displaystyle \int _{-\infty }^{\infty }f(x)\,\delta (dx)=\int _{-\infty }^{\infty }f(x)\,dH(x).}

Todos los momentos superiores de δ son cero. En particular, la función característica y la función generadora de momentos son ambas iguales a uno.

Como distribución

En la teoría de distribuciones , una función generalizada no se considera una función en sí misma, sino solo a través de cómo afecta a otras funciones cuando se "integra" contra ellas. [23] De acuerdo con esta filosofía, para definir la función delta correctamente, es suficiente decir cuál es la "integral" de la función delta contra una función de prueba suficientemente "buena" φ . Las funciones de prueba también se conocen como funciones de protuberancia . Si la función delta ya se entiende como una medida, entonces la integral de Lebesgue de una función de prueba contra esa medida proporciona la integral necesaria.

Un espacio típico de funciones de prueba consta de todas las funciones suaves en R con soporte compacto que tienen tantas derivadas como se requiera. Como distribución, el delta de Dirac es una función lineal en el espacio de funciones de prueba y se define por [24]

δ [ φ ] = φ ( 0 ) {\displaystyle \delta [\varphi ]=\varphi (0)} ( 1 )

para cada función de prueba φ .

Para que δ sea propiamente una distribución, debe ser continua en una topología adecuada en el espacio de funciones de prueba. En general, para que una función lineal S en el espacio de funciones de prueba defina una distribución, es necesario y suficiente que, para cada entero positivo N, exista un entero M N y una constante C N tales que para cada función de prueba φ , se tenga la desigualdad [25]

| S [ φ ] | C N k = 0 M N sup x [ N , N ] | φ ( k ) ( x ) | {\displaystyle \left|S[\varphi ]\right|\leq C_{N}\sum _{k=0}^{M_{N}}\sup _{x\in [-N,N]}\left|\varphi ^{(k)}(x)\right|}

donde sup representa el supremo . Con la distribución δ , se tiene una desigualdad (con C N = 1) con M N = 0 para todo N. Por lo tanto , δ es una distribución de orden cero. Es, además, una distribución con soporte compacto ( siendo el soporte {0} ).

La distribución delta también se puede definir de varias maneras equivalentes. Por ejemplo, es la derivada distribucional de la función escalonada de Heaviside . Esto significa que para cada función de prueba φ , se tiene

δ [ φ ] = φ ( x ) H ( x ) d x . {\displaystyle \delta [\varphi ]=-\int _{-\infty }^{\infty }\varphi '(x)\,H(x)\,dx.}

Intuitivamente, si se permitiera la integración por partes , entonces la última integral debería simplificarse a

φ ( x ) H ( x ) d x = φ ( x ) δ ( x ) d x , {\displaystyle \int _{-\infty }^{\infty }\varphi (x)\,H'(x)\,dx=\int _{-\infty }^{\infty }\varphi (x)\,\delta (x)\,dx,}

y, de hecho, se permite una forma de integración por partes para la integral de Stieltjes, y en ese caso, uno tiene

φ ( x ) H ( x ) d x = φ ( x ) d H ( x ) . {\displaystyle -\int _{-\infty }^{\infty }\varphi '(x)\,H(x)\,dx=\int _{-\infty }^{\infty }\varphi (x)\,dH(x).}

En el contexto de la teoría de la medida, la medida de Dirac da lugar a una distribución por integración. Por el contrario, la ecuación ( 1 ) define una integral de Daniell en el espacio de todas las funciones continuas φ soportadas de forma compacta que, por el teorema de representación de Riesz , puede representarse como la integral de Lebesgue de φ con respecto a alguna medida de Radon .

En general, cuando se utiliza el término función delta de Dirac , se hace en el sentido de distribuciones más que de medidas, siendo la medida de Dirac uno de los varios términos que se utilizan para la noción correspondiente en la teoría de la medida. Algunas fuentes también pueden utilizar el término distribución delta de Dirac .

Generalizaciones

La función delta se puede definir en el espacio euclidiano n -dimensional R n como la medida tal que

R n f ( x ) δ ( d x ) = f ( 0 ) {\displaystyle \int _{\mathbf {R} ^{n}}f(\mathbf {x} )\,\delta (d\mathbf {x} )=f(\mathbf {0} )}

para cada función continua f con soporte compacto . Como medida, la función delta n -dimensional es la medida del producto de las funciones delta unidimensionales en cada variable por separado. Por lo tanto, formalmente, con x = ( x 1 , x 2 , ..., x n ) , se tiene [26]

δ ( x ) = δ ( x 1 ) δ ( x 2 ) δ ( x n ) . {\displaystyle \delta (\mathbf {x} )=\delta (x_{1})\,\delta (x_{2})\cdots \delta (x_{n}).} ( 2 )

La función delta también se puede definir en el sentido de distribuciones exactamente como se indicó anteriormente en el caso unidimensional. [27] Sin embargo, a pesar de su uso generalizado en contextos de ingeniería, ( 2 ) debe manipularse con cuidado, ya que el producto de distribuciones solo se puede definir en circunstancias bastante estrechas. [28] [29]

La noción de una medida de Dirac tiene sentido en cualquier conjunto. [30] Por lo tanto, si X es un conjunto, x 0X es un punto marcado y Σ es cualquier álgebra sigma de subconjuntos de X , entonces la medida definida en conjuntos A ∈ Σ por

δ x 0 ( A ) = { 1 if  x 0 A 0 if  x 0 A {\displaystyle \delta _{x_{0}}(A)={\begin{cases}1&{\text{if }}x_{0}\in A\\0&{\text{if }}x_{0}\notin A\end{cases}}}

es la medida delta o unidad de masa concentrada en x 0 .

Otra generalización común de la función delta es a una variedad diferenciable donde la mayoría de sus propiedades como distribución también se pueden aprovechar debido a la estructura diferenciable . La función delta en una variedad M centrada en el punto x 0M se define como la siguiente distribución:

δ x 0 [ φ ] = φ ( x 0 ) {\displaystyle \delta _{x_{0}}[\varphi ]=\varphi (x_{0})} ( 3 )

para todas las funciones reales suaves y compactas φ en M . [31] Un caso especial común de esta construcción es un caso en el que M es un conjunto abierto en el espacio euclidiano R n .

En un espacio localmente compacto de Hausdorff X , la medida delta de Dirac concentrada en un punto x es la medida de Radon asociada con la integral de Daniell ( 3 ) en funciones continuas con soporte compacto φ . [32] En este nivel de generalidad, el cálculo como tal ya no es posible, sin embargo, están disponibles una variedad de técnicas de análisis abstracto. Por ejemplo, la aplicación es una incrustación continua de X en el espacio de medidas finitas de Radon en X , equipada con su topología vaga . Además, la envoltura convexa de la imagen de X bajo esta incrustación es densa en el espacio de medidas de probabilidad en X . [33] x 0 δ x 0 {\displaystyle x_{0}\mapsto \delta _{x_{0}}}

Propiedades

Escala y simetría

La función delta satisface la siguiente propiedad de escala para un escalar α distinto de cero : [34]

δ ( α x ) d x = δ ( u ) d u | α | = 1 | α | {\displaystyle \int _{-\infty }^{\infty }\delta (\alpha x)\,dx=\int _{-\infty }^{\infty }\delta (u)\,{\frac {du}{|\alpha |}}={\frac {1}{|\alpha |}}}

y entonces

δ ( α x ) = δ ( x ) | α | . {\displaystyle \delta (\alpha x)={\frac {\delta (x)}{|\alpha |}}.} ( 4 )

Demostración de la propiedad de escala: donde se utiliza un cambio de variable x′ = ax . Si a es negativo, es decir, a = −| a | , entonces Por lo tanto, . d x   g ( x ) δ ( a x ) = 1 a d x   g ( x a ) δ ( x ) = 1 a g ( 0 ) . {\displaystyle \int \limits _{-\infty }^{\infty }dx\ g(x)\delta (ax)={\frac {1}{a}}\int \limits _{-\infty }^{\infty }dx'\ g\left({\frac {x'}{a}}\right)\delta (x')={\frac {1}{a}}g(0).} d x   g ( x ) δ ( a x ) = 1 | a | d x   g ( x a ) δ ( x ) = 1 | a | d x   g ( x a ) δ ( x ) = 1 | a | g ( 0 ) . {\displaystyle \int \limits _{-\infty }^{\infty }dx\ g(x)\delta (ax)={\frac {1}{-\left\vert a\right\vert }}\int \limits _{\infty }^{-\infty }dx'\ g\left({\frac {x'}{a}}\right)\delta (x')={\frac {1}{\left\vert a\right\vert }}\int \limits _{-\infty }^{\infty }dx'\ g\left({\frac {x'}{a}}\right)\delta (x')={\frac {1}{\left\vert a\right\vert }}g(0).} δ ( a x ) = 1 | a | δ ( x ) {\displaystyle \delta (ax)={\frac {1}{\left\vert a\right\vert }}\delta (x)}

En particular, la función delta es una distribución uniforme (simetría), en el sentido de que

δ ( x ) = δ ( x ) {\displaystyle \delta (-x)=\delta (x)}

que es homogénea de grado −1 .

Propiedades algebraicas

El producto distribucional de δ con x es igual a cero:

x δ ( x ) = 0. {\displaystyle x\,\delta (x)=0.}

De manera más general, para todos los números enteros positivos . ( x a ) n δ ( x a ) = 0 {\displaystyle (x-a)^{n}\delta (x-a)=0} n {\displaystyle n}

Por el contrario, si xf ( x ) = xg ( x ) , donde f y g son distribuciones, entonces

f ( x ) = g ( x ) + c δ ( x ) {\displaystyle f(x)=g(x)+c\delta (x)}

para alguna constante c . [35]

Traducción

La integral de cualquier función multiplicada por el delta de Dirac retardado en el tiempo es δ T ( t ) = δ ( t T ) {\displaystyle \delta _{T}(t){=}\delta (t{-}T)}

f ( t ) δ ( t T ) d t = f ( T ) . {\displaystyle \int _{-\infty }^{\infty }f(t)\,\delta (t-T)\,dt=f(T).}

A esto a veces se lo denomina propiedad de tamizado [36] o propiedad de muestreo . [37] Se dice que la función delta "selecciona" el valor de f(t) en t = T. [38]

De ello se deduce que el efecto de convolucionar una función f ( t ) con el delta de Dirac retardado en el tiempo es retrasar f ( t ) en la misma cantidad: [39]

( f δ T ) ( t )   = d e f   f ( τ ) δ ( t T τ ) d τ = f ( τ ) δ ( τ ( t T ) ) d τ since   δ ( x ) = δ ( x )     by (4) = f ( t T ) . {\displaystyle {\begin{aligned}(f*\delta _{T})(t)\ &{\stackrel {\mathrm {def} }{=}}\ \int _{-\infty }^{\infty }f(\tau )\,\delta (t-T-\tau )\,d\tau \\&=\int _{-\infty }^{\infty }f(\tau )\,\delta (\tau -(t-T))\,d\tau \qquad {\text{since}}~\delta (-x)=\delta (x)~~{\text{by (4)}}\\&=f(t-T).\end{aligned}}}

La propiedad de tamizado se cumple bajo la condición precisa de que f sea una distribución templada (véase el análisis de la transformada de Fourier a continuación). Como caso especial, por ejemplo, tenemos la identidad (entendida en el sentido de distribución)

δ ( ξ x ) δ ( x η ) d x = δ ( η ξ ) . {\displaystyle \int _{-\infty }^{\infty }\delta (\xi -x)\delta (x-\eta )\,dx=\delta (\eta -\xi ).}

Composición con función

De manera más general, la distribución delta puede estar compuesta por una función suave g ( x ) de tal manera que se cumpla la fórmula familiar de cambio de variables, es decir

R δ ( g ( x ) ) f ( g ( x ) ) | g ( x ) | d x = g ( R ) δ ( u ) f ( u ) d u {\displaystyle \int _{\mathbb {R} }\delta {\bigl (}g(x){\bigr )}f{\bigl (}g(x){\bigr )}\left|g'(x)\right|dx=\int _{g(\mathbb {R} )}\delta (u)\,f(u)\,du}

siempre que g sea una función continuamente diferenciable con g′ en ningún lugar cero. [40] Es decir, hay una forma única de asignar significado a la distribución de modo que esta identidad se cumpla para todas las funciones de prueba con soporte compacto f . Por lo tanto, el dominio debe dividirse para excluir el punto g′ = 0. Esta distribución satisface δ ( g ( x )) = 0 si g no es cero en ningún lugar, y de lo contrario si g tiene una raíz real en x 0 , entonces δ g {\displaystyle \delta \circ g}

δ ( g ( x ) ) = δ ( x x 0 ) | g ( x 0 ) | . {\displaystyle \delta (g(x))={\frac {\delta (x-x_{0})}{|g'(x_{0})|}}.}

Es natural por tanto definir la composición δ ( g ( x )) para funciones continuamente diferenciables g por

δ ( g ( x ) ) = i δ ( x x i ) | g ( x i ) | {\displaystyle \delta (g(x))=\sum _{i}{\frac {\delta (x-x_{i})}{|g'(x_{i})|}}}

donde la suma se extiende sobre todas las raíces de g ( x ) , que se supone que son simples . Así, por ejemplo

δ ( x 2 α 2 ) = 1 2 | α | [ δ ( x + α ) + δ ( x α ) ] . {\displaystyle \delta \left(x^{2}-\alpha ^{2}\right)={\frac {1}{2|\alpha |}}{\Big [}\delta \left(x+\alpha \right)+\delta \left(x-\alpha \right){\Big ]}.}

En la forma integral, la propiedad de escala generalizada puede escribirse como

f ( x ) δ ( g ( x ) ) d x = i f ( x i ) | g ( x i ) | . {\displaystyle \int _{-\infty }^{\infty }f(x)\,\delta (g(x))\,dx=\sum _{i}{\frac {f(x_{i})}{|g'(x_{i})|}}.}

Integral indefinida

Para una función real arbitraria constante y "de buen comportamiento" y ( x ) , donde H ( x ) es la función escalonada de Heaviside y c es una constante de integración. a R {\displaystyle a\in \mathbb {R} } y ( x ) δ ( x a ) d x = y ( a ) H ( x a ) + c , {\displaystyle \displaystyle {\int }y(x)\delta (x-a)dx=y(a)H(x-a)+c,}

Propiedades ennortedimensiones

La distribución delta en un espacio n -dimensional satisface, en cambio, la siguiente propiedad de escala, de modo que δ es una distribución homogénea de grado n . δ ( α x ) = | α | n δ ( x )   , {\displaystyle \delta (\alpha {\boldsymbol {x}})=|\alpha |^{-n}\delta ({\boldsymbol {x}})~,}

Bajo cualquier reflexión o rotación ρ , la función delta es invariante, δ ( ρ x ) = δ ( x )   . {\displaystyle \delta (\rho {\boldsymbol {x}})=\delta ({\boldsymbol {x}})~.}

Al igual que en el caso de una variable, es posible definir la composición de δ con una función bi-Lipschitz [41] g : R nR n de manera única, de modo que lo siguiente se cumple para todas las funciones f con soporte compacto . R n δ ( g ( x ) ) f ( g ( x ) ) | det g ( x ) | d x = g ( R n ) δ ( u ) f ( u ) d u {\displaystyle \int _{\mathbb {R} ^{n}}\delta (g({\boldsymbol {x}}))\,f(g({\boldsymbol {x}}))\left|\det g'({\boldsymbol {x}})\right|d{\boldsymbol {x}}=\int _{g(\mathbb {R} ^{n})}\delta ({\boldsymbol {u}})f({\boldsymbol {u}})\,d{\boldsymbol {u}}}

Utilizando la fórmula de coarea de la teoría de la medida geométrica , también se puede definir la composición de la función delta con una inmersión de un espacio euclidiano a otro de diferente dimensión; el resultado es un tipo de corriente . En el caso especial de una función continuamente diferenciable g  : R nR tal que el gradiente de g no es cero en ninguna parte, se cumple la siguiente identidad [42] donde la integral de la derecha es sobre g −1 (0) , la superficie ( n − 1) -dimensional definida por g ( x ) = 0 con respecto a la medida de contenido de Minkowski . Esto se conoce como una integral de capa simple . R n f ( x ) δ ( g ( x ) ) d x = g 1 ( 0 ) f ( x ) | g | d σ ( x ) {\displaystyle \int _{\mathbb {R} ^{n}}f({\boldsymbol {x}})\,\delta (g({\boldsymbol {x}}))\,d{\boldsymbol {x}}=\int _{g^{-1}(0)}{\frac {f({\boldsymbol {x}})}{|{\boldsymbol {\nabla }}g|}}\,d\sigma ({\boldsymbol {x}})}

De manera más general, si S es una hipersuperficie suave de R n , entonces podemos asociar a S la distribución que integra cualquier función suave g soportada de forma compacta sobre S : δ S [ g ] = S g ( s ) d σ ( s ) {\displaystyle \delta _{S}[g]=\int _{S}g({\boldsymbol {s}})\,d\sigma ({\boldsymbol {s}})}

donde σ es la medida de hipersuperficie asociada a S . Esta generalización está asociada con la teoría de potenciales de capas simples en S . Si D es un dominio en R n con un límite suave S , entonces δ S es igual a la derivada normal de la función indicadora de D en el sentido de la distribución,

R n g ( x ) 1 D ( x ) n d x = S g ( s ) d σ ( s ) , {\displaystyle -\int _{\mathbb {R} ^{n}}g({\boldsymbol {x}})\,{\frac {\partial 1_{D}({\boldsymbol {x}})}{\partial n}}\,d{\boldsymbol {x}}=\int _{S}\,g({\boldsymbol {s}})\,d\sigma ({\boldsymbol {s}}),}

donde n es la normal externa. [43] [44] Para una prueba, véase, por ejemplo, el artículo sobre la función delta de superficie .

En tres dimensiones, la función delta se representa en coordenadas esféricas por:

δ ( r r 0 ) = { 1 r 2 sin θ δ ( r r 0 ) δ ( θ θ 0 ) δ ( ϕ ϕ 0 ) x 0 , y 0 , z 0 0 1 2 π r 2 sin θ δ ( r r 0 ) δ ( θ θ 0 ) x 0 = y 0 = 0 ,   z 0 0 1 4 π r 2 δ ( r r 0 ) x 0 = y 0 = z 0 = 0 {\displaystyle \delta ({\boldsymbol {r}}-{\boldsymbol {r}}_{0})={\begin{cases}\displaystyle {\frac {1}{r^{2}\sin \theta }}\delta (r-r_{0})\delta (\theta -\theta _{0})\delta (\phi -\phi _{0})&x_{0},y_{0},z_{0}\neq 0\\\displaystyle {\frac {1}{2\pi r^{2}\sin \theta }}\delta (r-r_{0})\delta (\theta -\theta _{0})&x_{0}=y_{0}=0,\ z_{0}\neq 0\\\displaystyle {\frac {1}{4\pi r^{2}}}\delta (r-r_{0})&x_{0}=y_{0}=z_{0}=0\end{cases}}}

Transformada de Fourier

La función delta es una distribución templada y, por lo tanto, tiene una transformada de Fourier bien definida . Formalmente, se encuentra [45]

δ ^ ( ξ ) = e 2 π i x ξ δ ( x ) d x = 1. {\displaystyle {\widehat {\delta }}(\xi )=\int _{-\infty }^{\infty }e^{-2\pi ix\xi }\,\delta (x)dx=1.}

Propiamente hablando, la transformada de Fourier de una distribución se define imponiendo la autoadjunción de la transformada de Fourier bajo el emparejamiento dual de distribuciones templadas con funciones de Schwartz . Por lo tanto, se define como la única distribución templada que satisface , {\displaystyle \langle \cdot ,\cdot \rangle } δ ^ {\displaystyle {\widehat {\delta }}}

δ ^ , φ = δ , φ ^ {\displaystyle \langle {\widehat {\delta }},\varphi \rangle =\langle \delta ,{\widehat {\varphi }}\rangle }

para todas las funciones de Schwartz φ . Y de hecho se sigue de esto que δ ^ = 1. {\displaystyle {\widehat {\delta }}=1.}

Como resultado de esta identidad, la convolución de la función delta con cualquier otra distribución templada S es simplemente S :

S δ = S . {\displaystyle S*\delta =S.}

Es decir, δ es un elemento de identidad para la convolución en distribuciones templadas y, de hecho, el espacio de distribuciones soportadas de forma compacta bajo convolución es un álgebra asociativa con identidad, la función delta. Esta propiedad es fundamental en el procesamiento de señales , ya que la convolución con una distribución templada es un sistema lineal invariante en el tiempo , y la aplicación del sistema lineal invariante en el tiempo mide su respuesta al impulso . La respuesta al impulso se puede calcular con cualquier grado deseado de precisión eligiendo una aproximación adecuada para δ y, una vez que se conoce, caracteriza el sistema por completo. Véase Teoría de sistemas LTI § Respuesta al impulso y convolución .

La transformada inversa de Fourier de la distribución templada f ( ξ ) = 1 es la función delta. Formalmente, esto se expresa como y más rigurosamente, se deduce que para todas las funciones de Schwartz f . 1 e 2 π i x ξ d ξ = δ ( x ) {\displaystyle \int _{-\infty }^{\infty }1\cdot e^{2\pi ix\xi }\,d\xi =\delta (x)} 1 , f ^ = f ( 0 ) = δ , f {\displaystyle \langle 1,{\widehat {f}}\rangle =f(0)=\langle \delta ,f\rangle }

En estos términos, la función delta proporciona una declaración sugerente de la propiedad de ortogonalidad del núcleo de Fourier en R . Formalmente, se tiene e i 2 π ξ 1 t [ e i 2 π ξ 2 t ] d t = e i 2 π ( ξ 2 ξ 1 ) t d t = δ ( ξ 2 ξ 1 ) . {\displaystyle \int _{-\infty }^{\infty }e^{i2\pi \xi _{1}t}\left[e^{i2\pi \xi _{2}t}\right]^{*}\,dt=\int _{-\infty }^{\infty }e^{-i2\pi (\xi _{2}-\xi _{1})t}\,dt=\delta (\xi _{2}-\xi _{1}).}

Esto es, por supuesto, una forma abreviada de afirmar que la transformada de Fourier de la distribución templada es lo que a su vez se desprende de la imposición de la autoadjunción de la transformada de Fourier. f ( t ) = e i 2 π ξ 1 t {\displaystyle f(t)=e^{i2\pi \xi _{1}t}} f ^ ( ξ 2 ) = δ ( ξ 1 ξ 2 ) {\displaystyle {\widehat {f}}(\xi _{2})=\delta (\xi _{1}-\xi _{2})}

Por continuación analítica de la transformada de Fourier, se obtiene que la transformada de Laplace de la función delta es [46] 0 δ ( t a ) e s t d t = e s a . {\displaystyle \int _{0}^{\infty }\delta (t-a)\,e^{-st}\,dt=e^{-sa}.}

Derivados

La derivada de la distribución delta de Dirac, denotada δ′ y también llamada prima delta de Dirac o derivada delta de Dirac como se describe en Laplaciano del indicador , se define en funciones de prueba suaves con soporte compacto φ por [47] δ [ φ ] = δ [ φ ] = φ ( 0 ) . {\displaystyle \delta '[\varphi ]=-\delta [\varphi ']=-\varphi '(0).}

La primera igualdad aquí es una especie de integración por partes , porque si δ fuera una función verdadera entonces δ ( x ) φ ( x ) d x = δ ( x ) φ ( x ) | δ ( x ) φ ( x ) d x = δ ( x ) φ ( x ) d x = φ ( 0 ) . {\displaystyle \int _{-\infty }^{\infty }\delta '(x)\varphi (x)\,dx=\delta (x)\varphi (x)|_{-\infty }^{\infty }-\int _{-\infty }^{\infty }\delta (x)\varphi '(x)\,dx=-\int _{-\infty }^{\infty }\delta (x)\varphi '(x)\,dx=-\varphi '(0).}

Por inducción matemática , la derivada k -ésima de δ se define de manera similar a la distribución dada en las funciones de prueba por

δ ( k ) [ φ ] = ( 1 ) k φ ( k ) ( 0 ) . {\displaystyle \delta ^{(k)}[\varphi ]=(-1)^{k}\varphi ^{(k)}(0).}

En particular, δ es una distribución infinitamente diferenciable.

La primera derivada de la función delta es el límite distribucional de los cocientes de diferencias: [48] δ ( x ) = lim h 0 δ ( x + h ) δ ( x ) h . {\displaystyle \delta '(x)=\lim _{h\to 0}{\frac {\delta (x+h)-\delta (x)}{h}}.}

Más propiamente, se tiene donde τ h es el operador de traslación, definido en funciones por τ h φ ( x ) = φ ( x + h ) , y en una distribución S por δ = lim h 0 1 h ( τ h δ δ ) {\displaystyle \delta '=\lim _{h\to 0}{\frac {1}{h}}(\tau _{h}\delta -\delta )} ( τ h S ) [ φ ] = S [ τ h φ ] . {\displaystyle (\tau _{h}S)[\varphi ]=S[\tau _{-h}\varphi ].}

En la teoría del electromagnetismo , la primera derivada de la función delta representa un dipolo magnético puntual situado en el origen. Por ello, se la denomina función dipolo o función doblete . [49]

La derivada de la función delta satisface una serie de propiedades básicas, entre ellas: [50] lo cual se puede demostrar aplicando una función de prueba e integrando por partes. δ ( x ) = δ ( x ) x δ ( x ) = δ ( x ) {\displaystyle {\begin{aligned}\delta '(-x)&=-\delta '(x)\\x\delta '(x)&=-\delta (x)\end{aligned}}}

La última de estas propiedades también se puede demostrar aplicando la definición de derivada distributiva, el teorema de Leibniz y la linealidad del producto interno: [51]

x δ , φ = δ , x φ = δ , ( x φ ) = δ , x φ + x φ = δ , x φ δ , x φ = x ( 0 ) φ ( 0 ) x ( 0 ) φ ( 0 ) = x ( 0 ) δ , φ x ( 0 ) δ , φ = x ( 0 ) δ , φ + x ( 0 ) δ , φ = x ( 0 ) δ x ( 0 ) δ , φ x ( t ) δ ( t ) = x ( 0 ) δ ( t ) x ( 0 ) δ ( t ) = x ( 0 ) δ ( t ) = δ ( t ) {\displaystyle {\begin{aligned}\langle x\delta ',\varphi \rangle \,&=\,\langle \delta ',x\varphi \rangle \,=\,-\langle \delta ,(x\varphi )'\rangle \,=\,-\langle \delta ,x'\varphi +x\varphi '\rangle \,=\,-\langle \delta ,x'\varphi \rangle -\langle \delta ,x\varphi '\rangle \,=\,-x'(0)\varphi (0)-x(0)\varphi '(0)\\&=\,-x'(0)\langle \delta ,\varphi \rangle -x(0)\langle \delta ,\varphi '\rangle \,=\,-x'(0)\langle \delta ,\varphi \rangle +x(0)\langle \delta ',\varphi \rangle \,=\,\langle x(0)\delta '-x'(0)\delta ,\varphi \rangle \\\Longrightarrow x(t)\delta '(t)&=x(0)\delta '(t)-x'(0)\delta (t)=-x'(0)\delta (t)=-\delta (t)\end{aligned}}}

Además, la convolución de δ′ con una función f suave y con soporte compacto es

δ f = δ f = f , {\displaystyle \delta '*f=\delta *f'=f',}

lo cual se desprende de las propiedades de la derivada distribucional de una convolución.

Dimensiones superiores

De manera más general, en un conjunto abierto U en el espacio euclidiano n -dimensional , la distribución delta de Dirac centrada en un punto aU está definida por [52] para todo , el espacio de todas las funciones suaves con soporte compacto en U . Si es cualquier multiíndice con y denota el operador de derivada parcial mixta asociado , entonces la derivada α -ésima α δ a de δ a está dada por [52] R n {\displaystyle \mathbb {R} ^{n}} δ a [ φ ] = φ ( a ) {\displaystyle \delta _{a}[\varphi ]=\varphi (a)} φ C c ( U ) {\displaystyle \varphi \in C_{c}^{\infty }(U)} α = ( α 1 , , α n ) {\displaystyle \alpha =(\alpha _{1},\ldots ,\alpha _{n})} | α | = α 1 + + α n {\displaystyle |\alpha |=\alpha _{1}+\cdots +\alpha _{n}} α {\displaystyle \partial ^{\alpha }}

α δ a , φ = ( 1 ) | α | δ a , α φ = ( 1 ) | α | α φ ( x ) | x = a  for all  φ C c ( U ) . {\displaystyle \left\langle \partial ^{\alpha }\delta _{a},\,\varphi \right\rangle =(-1)^{|\alpha |}\left\langle \delta _{a},\partial ^{\alpha }\varphi \right\rangle =(-1)^{|\alpha |}\partial ^{\alpha }\varphi (x){\Big |}_{x=a}\quad {\text{ for all }}\varphi \in C_{c}^{\infty }(U).}

Es decir, la derivada α -ésima de δ a es la distribución cuyo valor en cualquier función de prueba φ es la derivada α -ésima de φ en a (con el signo positivo o negativo apropiado).

Las primeras derivadas parciales de la función delta se consideran capas dobles a lo largo de los planos de coordenadas. En términos más generales, la derivada normal de una capa simple apoyada sobre una superficie es una capa doble apoyada sobre esa superficie y representa un monopolo magnético laminar. Las derivadas superiores de la función delta se conocen en física como multipolos .

Las derivadas superiores entran en las matemáticas de forma natural como los bloques de construcción para la estructura completa de las distribuciones con apoyo puntual. Si S es cualquier distribución en U apoyada en el conjunto { a } que consiste en un único punto, entonces existe un entero m y coeficientes c α tales que [52] [53] S = | α | m c α α δ a . {\displaystyle S=\sum _{|\alpha |\leq m}c_{\alpha }\partial ^{\alpha }\delta _{a}.}

Representaciones de la función delta

La función delta puede verse como el límite de una secuencia de funciones.

δ ( x ) = lim ε 0 + η ε ( x ) , {\displaystyle \delta (x)=\lim _{\varepsilon \to 0^{+}}\eta _{\varepsilon }(x),}

donde η ε ( x ) a veces se denomina función delta nacienteEste límite se entiende en un sentido débil: o bien que

lim ε 0 + η ε ( x ) f ( x ) d x = f ( 0 ) {\displaystyle \lim _{\varepsilon \to 0^{+}}\int _{-\infty }^{\infty }\eta _{\varepsilon }(x)f(x)\,dx=f(0)} ( 5 )

para todas las funciones continuas f que tienen soporte compacto , o que este límite se cumple para todas las funciones suaves f con soporte compacto. La diferencia entre estos dos modos ligeramente diferentes de convergencia débil es a menudo sutil: el primero es convergencia en la topología vaga de las medidas, y el segundo es convergencia en el sentido de distribuciones .

Aproximaciones a la identidad

Normalmente, una función delta naciente η ε se puede construir de la siguiente manera. Sea η una función absolutamente integrable en R de integral total 1 , y definamos η ε ( x ) = ε 1 η ( x ε ) . {\displaystyle \eta _{\varepsilon }(x)=\varepsilon ^{-1}\eta \left({\frac {x}{\varepsilon }}\right).}

En n dimensiones, se utiliza en cambio la escala η ε ( x ) = ε n η ( x ε ) . {\displaystyle \eta _{\varepsilon }(x)=\varepsilon ^{-n}\eta \left({\frac {x}{\varepsilon }}\right).}

Entonces, un simple cambio de variables muestra que η ε también tiene integral 1. Se puede demostrar que ( 5 ) se cumple para todas las funciones continuas con soporte compacto f , [54] y, por lo tanto, η ε converge débilmente a δ en el sentido de las medidas.

Las η ε construidas de esta manera se conocen como una aproximación a la identidad . [55] Esta terminología se debe a que el espacio L 1 ( R ) de funciones absolutamente integrables está cerrado bajo la operación de convolución de funciones: fgL 1 ( R ) siempre que f y g estén en L 1 ( R ) . Sin embargo, no hay identidad en L 1 ( R ) para el producto de convolución: ningún elemento h tal que fh = f para todo f . No obstante, la secuencia η ε se aproxima a dicha identidad en el sentido de que

f η ε f as  ε 0. {\displaystyle f*\eta _{\varepsilon }\to f\quad {\text{as }}\varepsilon \to 0.}

Este límite se cumple en el sentido de convergencia media (convergencia en L 1 ). Se necesitan condiciones adicionales sobre η ε , por ejemplo que sea un suavizador asociado a una función con soporte compacto, [56] para asegurar la convergencia puntual casi en todas partes .

Si la η inicial = η 1 es en sí misma suave y está soportada de forma compacta, entonces la secuencia se denomina suavizador . El suavizador estándar se obtiene eligiendo η como una función de protuberancia adecuadamente normalizada , por ejemplo

η ( x ) = { e 1 1 | x | 2 if  | x | < 1 0 if  | x | 1. {\displaystyle \eta (x)={\begin{cases}e^{-{\frac {1}{1-|x|^{2}}}}&{\text{if }}|x|<1\\0&{\text{if }}|x|\geq 1.\end{cases}}}

En algunas situaciones, como el análisis numérico , es deseable una aproximación lineal por partes a la identidad. Esto se puede obtener tomando η 1 como una función de sombrero . Con esta elección de η 1 , se tiene

η ε ( x ) = ε 1 max ( 1 | x ε | , 0 ) {\displaystyle \eta _{\varepsilon }(x)=\varepsilon ^{-1}\max \left(1-\left|{\frac {x}{\varepsilon }}\right|,0\right)}

que son todos continuos y están soportados de forma compacta, aunque no son lisos y por lo tanto no son un calmante.

Consideraciones probabilísticas

En el contexto de la teoría de la probabilidad , es natural imponer la condición adicional de que el η 1 inicial en una aproximación a la identidad debe ser positivo, ya que dicha función representa entonces una distribución de probabilidad . La convolución con una distribución de probabilidad a veces es favorable porque no da como resultado un sobreimpulso o subimpulso, ya que la salida es una combinación convexa de los valores de entrada y, por lo tanto, se encuentra entre el máximo y el mínimo de la función de entrada. Si tomamos η 1 como cualquier distribución de probabilidad y dejamos η ε ( x ) = η 1 ( x / ε )/ ε como se indicó anteriormente, se obtendrá una aproximación a la identidad. En general, esto converge más rápidamente a una función delta si, además, η tiene media 0 y tiene momentos superiores pequeños. Por ejemplo, si η 1 es la distribución uniforme en , también conocida como función rectangular , entonces: [57] [ 1 2 , 1 2 ] {\textstyle \left[-{\frac {1}{2}},{\frac {1}{2}}\right]} η ε ( x ) = 1 ε rect ( x ε ) = { 1 ε , ε 2 < x < ε 2 , 0 , otherwise . {\displaystyle \eta _{\varepsilon }(x)={\frac {1}{\varepsilon }}\operatorname {rect} \left({\frac {x}{\varepsilon }}\right)={\begin{cases}{\frac {1}{\varepsilon }},&-{\frac {\varepsilon }{2}}<x<{\frac {\varepsilon }{2}},\\0,&{\text{otherwise}}.\end{cases}}}

Otro ejemplo es la distribución del semicírculo de Wigner. η ε ( x ) = { 2 π ε 2 ε 2 x 2 , ε < x < ε , 0 , otherwise . {\displaystyle \eta _{\varepsilon }(x)={\begin{cases}{\frac {2}{\pi \varepsilon ^{2}}}{\sqrt {\varepsilon ^{2}-x^{2}}},&-\varepsilon <x<\varepsilon ,\\0,&{\text{otherwise}}.\end{cases}}}

Esto es continuo y está soportado de forma compacta, pero no es un suavizador porque no es suave.

Semigrupos

Las funciones delta nacientes a menudo surgen como semigrupos de convolución . [58] Esto equivale a la restricción adicional de que la convolución de η ε con η δ debe satisfacer η ε η δ = η ε + δ {\displaystyle \eta _{\varepsilon }*\eta _{\delta }=\eta _{\varepsilon +\delta }}

para todo ε , δ > 0 . Los semigrupos de convolución en L 1 que forman una función delta naciente son siempre una aproximación a la identidad en el sentido anterior, sin embargo la condición de semigrupo es una restricción bastante fuerte.

En la práctica, los semigrupos que se aproximan a la función delta surgen como soluciones fundamentales o funciones de Green para ecuaciones diferenciales parciales elípticas o parabólicas motivadas físicamente . En el contexto de las matemáticas aplicadas , los semigrupos surgen como resultado de un sistema lineal invariante en el tiempo . De manera abstracta, si A es un operador lineal que actúa sobre funciones de x , entonces surge un semigrupo de convolución al resolver el problema de valor inicial.

{ t η ( t , x ) = A η ( t , x ) , t > 0 lim t 0 + η ( t , x ) = δ ( x ) {\displaystyle {\begin{cases}{\dfrac {\partial }{\partial t}}\eta (t,x)=A\eta (t,x),\quad t>0\\[5pt]\displaystyle \lim _{t\to 0^{+}}\eta (t,x)=\delta (x)\end{cases}}}

en el que el límite se entiende como es habitual en sentido débil. Fijando η ε ( x ) = η ( ε , x ) se obtiene la función delta naciente asociada.

Algunos ejemplos de semigrupos de convolución físicamente importantes que surgen de dicha solución fundamental incluyen los siguientes.

El núcleo del calor

El núcleo de calor , definido por

η ε ( x ) = 1 2 π ε e x 2 2 ε {\displaystyle \eta _{\varepsilon }(x)={\frac {1}{\sqrt {2\pi \varepsilon }}}\mathrm {e} ^{-{\frac {x^{2}}{2\varepsilon }}}}

representa la temperatura en un alambre infinito en el instante t > 0 , si una unidad de energía térmica se almacena en el origen del alambre en el instante t = 0 . Este semigrupo evoluciona según la ecuación unidimensional del calor :

u t = 1 2 2 u x 2 . {\displaystyle {\frac {\partial u}{\partial t}}={\frac {1}{2}}{\frac {\partial ^{2}u}{\partial x^{2}}}.}

En teoría de probabilidad , η ε ( x ) es una distribución normal de varianza ε y media 0 . Representa la densidad de probabilidad en el tiempo t = ε de la posición de una partícula que comienza en el origen después de un movimiento browniano estándar . En este contexto, la condición de semigrupo es entonces una expresión de la propiedad de Markov del movimiento browniano.

En el espacio euclidiano de dimensiones superiores R n , el núcleo de calor es y tiene la misma interpretación física, mutatis mutandis . También representa una función delta naciente en el sentido de que η εδ en el sentido de distribución como ε → 0 . η ε = 1 ( 2 π ε ) n / 2 e x x 2 ε , {\displaystyle \eta _{\varepsilon }={\frac {1}{(2\pi \varepsilon )^{n/2}}}\mathrm {e} ^{-{\frac {x\cdot x}{2\varepsilon }}},}

El núcleo de Poisson

El núcleo de Poisson η ε ( x ) = 1 π I m { 1 x i ε } = 1 π ε ε 2 + x 2 = 1 2 π e i ξ x | ε ξ | d ξ {\displaystyle \eta _{\varepsilon }(x)={\frac {1}{\pi }}\mathrm {Im} \left\{{\frac {1}{x-\mathrm {i} \varepsilon }}\right\}={\frac {1}{\pi }}{\frac {\varepsilon }{\varepsilon ^{2}+x^{2}}}={\frac {1}{2\pi }}\int _{-\infty }^{\infty }\mathrm {e} ^{\mathrm {i} \xi x-|\varepsilon \xi |}\,d\xi }

es la solución fundamental de la ecuación de Laplace en el semiplano superior. [59] Representa el potencial electrostático en una placa semiinfinita cuyo potencial a lo largo del borde se mantiene fijo en la función delta. El núcleo de Poisson también está estrechamente relacionado con la distribución de Cauchy y las funciones del núcleo de Epanechnikov y Gauss . [60] Este semigrupo evoluciona de acuerdo con la ecuación u t = ( 2 x 2 ) 1 2 u ( t , x ) {\displaystyle {\frac {\partial u}{\partial t}}=-\left(-{\frac {\partial ^{2}}{\partial x^{2}}}\right)^{\frac {1}{2}}u(t,x)}

donde el operador se define rigurosamente como el multiplicador de Fourier F [ ( 2 x 2 ) 1 2 f ] ( ξ ) = | 2 π ξ | F f ( ξ ) . {\displaystyle {\mathcal {F}}\left[\left(-{\frac {\partial ^{2}}{\partial x^{2}}}\right)^{\frac {1}{2}}f\right](\xi )=|2\pi \xi |{\mathcal {F}}f(\xi ).}

Integrales oscilatorias

En áreas de la física como la propagación de ondas y la mecánica ondulatoria , las ecuaciones involucradas son hiperbólicas y por lo tanto pueden tener soluciones más singulares. Como resultado, las funciones delta nacientes que surgen como soluciones fundamentales de los problemas de Cauchy asociados son generalmente integrales oscilatorias . Un ejemplo, que proviene de una solución de la ecuación de Euler-Tricomi de la dinámica de gases transónicos , [61] es la función de Airy reescalada ε 1 / 3 Ai ( x ε 1 / 3 ) . {\displaystyle \varepsilon ^{-1/3}\operatorname {Ai} \left(x\varepsilon ^{-1/3}\right).}

Aunque se utiliza la transformada de Fourier, es fácil ver que esto genera un semigrupo en cierto sentido: no es absolutamente integrable y, por lo tanto, no puede definir un semigrupo en el sentido fuerte mencionado anteriormente. Muchas funciones delta nacientes construidas como integrales oscilatorias solo convergen en el sentido de distribuciones (un ejemplo es el núcleo de Dirichlet a continuación), en lugar de en el sentido de medidas.

Otro ejemplo es el problema de Cauchy para la ecuación de onda en R 1+1 : [62] c 2 2 u t 2 Δ u = 0 u = 0 , u t = δ for  t = 0. {\displaystyle {\begin{aligned}c^{-2}{\frac {\partial ^{2}u}{\partial t^{2}}}-\Delta u&=0\\u=0,\quad {\frac {\partial u}{\partial t}}=\delta &\qquad {\text{for }}t=0.\end{aligned}}}

La solución u representa el desplazamiento desde el equilibrio de una cuerda elástica infinita, con una perturbación inicial en el origen.

Otras aproximaciones a la identidad de este tipo incluyen la función sinc (ampliamente utilizada en electrónica y telecomunicaciones). η ε ( x ) = 1 π x sin ( x ε ) = 1 2 π 1 ε 1 ε cos ( k x ) d k {\displaystyle \eta _{\varepsilon }(x)={\frac {1}{\pi x}}\sin \left({\frac {x}{\varepsilon }}\right)={\frac {1}{2\pi }}\int _{-{\frac {1}{\varepsilon }}}^{\frac {1}{\varepsilon }}\cos(kx)\,dk}

y la función de Bessel η ε ( x ) = 1 ε J 1 ε ( x + 1 ε ) . {\displaystyle \eta _{\varepsilon }(x)={\frac {1}{\varepsilon }}J_{\frac {1}{\varepsilon }}\left({\frac {x+1}{\varepsilon }}\right).}

Descomposición de ondas planas

Un enfoque para el estudio de una ecuación diferencial parcial lineal L [ u ] = f , {\displaystyle L[u]=f,}

donde L es un operador diferencial en R n , es buscar primero una solución fundamental, que es una solución de la ecuación L [ u ] = δ . {\displaystyle L[u]=\delta .}

Cuando L es particularmente simple, este problema puede resolverse a menudo utilizando directamente la transformada de Fourier (como en el caso del núcleo de Poisson y el núcleo de calor ya mencionados). Para operadores más complicados, a veces es más fácil considerar primero una ecuación de la forma L [ u ] = h {\displaystyle L[u]=h}

donde h es una función de onda plana , lo que significa que tiene la forma h = h ( x ξ ) {\displaystyle h=h(x\cdot \xi )}

para algún vector ξ . Una ecuación de este tipo se puede resolver (si los coeficientes de L son funciones analíticas ) mediante el teorema de Cauchy-Kovalevskaya o (si los coeficientes de L son constantes) mediante cuadratura. Por lo tanto, si la función delta se puede descomponer en ondas planas, entonces se pueden resolver en principio ecuaciones diferenciales parciales lineales.

Esta descomposición de la función delta en ondas planas fue parte de una técnica general introducida primero esencialmente por Johann Radon y luego desarrollada en esta forma por Fritz John (1955). [63] Elija k de modo que n + k sea un entero par y, para un número real s , ponga g ( s ) = Re [ s k log ( i s ) k ! ( 2 π i ) n ] = { | s | k 4 k ! ( 2 π i ) n 1 n  odd | s | k log | s | k ! ( 2 π i ) n n  even. {\displaystyle g(s)=\operatorname {Re} \left[{\frac {-s^{k}\log(-is)}{k!(2\pi i)^{n}}}\right]={\begin{cases}{\frac {|s|^{k}}{4k!(2\pi i)^{n-1}}}&n{\text{ odd}}\\[5pt]-{\frac {|s|^{k}\log |s|}{k!(2\pi i)^{n}}}&n{\text{ even.}}\end{cases}}}

Entonces δ se obtiene aplicando una potencia del Laplaciano a la integral con respecto a la medida de la esfera unitaria de g ( x · ξ ) para ξ en la esfera unitaria S n −1 : δ ( x ) = Δ x ( n + k ) / 2 S n 1 g ( x ξ ) d ω ξ . {\displaystyle \delta (x)=\Delta _{x}^{(n+k)/2}\int _{S^{n-1}}g(x\cdot \xi )\,d\omega _{\xi }.}

El laplaciano se interpreta aquí como una derivada débil, de modo que esta ecuación se considera que significa que, para cualquier función de prueba φ , φ ( x ) = R n φ ( y ) d y Δ x n + k 2 S n 1 g ( ( x y ) ξ ) d ω ξ . {\displaystyle \varphi (x)=\int _{\mathbf {R} ^{n}}\varphi (y)\,dy\,\Delta _{x}^{\frac {n+k}{2}}\int _{S^{n-1}}g((x-y)\cdot \xi )\,d\omega _{\xi }.}

El resultado se desprende de la fórmula para el potencial newtoniano (la solución fundamental de la ecuación de Poisson). Esta es esencialmente una forma de la fórmula de inversión para la transformada de Radon porque recupera el valor de φ ( x ) a partir de sus integrales sobre hiperplanos. Por ejemplo, si n es impar y k = 1 , entonces la integral del lado derecho es c n Δ x n + 1 2 S n 1 φ ( y ) | ( y x ) ξ | d ω ξ d y = c n Δ x ( n + 1 ) / 2 S n 1 d ω ξ | p | R φ ( ξ , p + x ξ ) d p {\displaystyle {\begin{aligned}&c_{n}\Delta _{x}^{\frac {n+1}{2}}\iint _{S^{n-1}}\varphi (y)|(y-x)\cdot \xi |\,d\omega _{\xi }\,dy\\[5pt]&\qquad =c_{n}\Delta _{x}^{(n+1)/2}\int _{S^{n-1}}\,d\omega _{\xi }\int _{-\infty }^{\infty }|p|R\varphi (\xi ,p+x\cdot \xi )\,dp\end{aligned}}}

donde ( ξ , p ) es la transformada de Radon de φ : R φ ( ξ , p ) = x ξ = p f ( x ) d n 1 x . {\displaystyle R\varphi (\xi ,p)=\int _{x\cdot \xi =p}f(x)\,d^{n-1}x.}

Una expresión equivalente alternativa de la descomposición de ondas planas es: [64] δ ( x ) = { ( n 1 ) ! ( 2 π i ) n S n 1 ( x ξ ) n d ω ξ n  even 1 2 ( 2 π i ) n 1 S n 1 δ ( n 1 ) ( x ξ ) d ω ξ n  odd . {\displaystyle \delta (x)={\begin{cases}{\frac {(n-1)!}{(2\pi i)^{n}}}\displaystyle \int _{S^{n-1}}(x\cdot \xi )^{-n}\,d\omega _{\xi }&n{\text{ even}}\\{\frac {1}{2(2\pi i)^{n-1}}}\displaystyle \int _{S^{n-1}}\delta ^{(n-1)}(x\cdot \xi )\,d\omega _{\xi }&n{\text{ odd}}.\end{cases}}}

Núcleos de Fourier

En el estudio de las series de Fourier , una cuestión importante consiste en determinar si la serie de Fourier asociada a una función periódica converge a la función y en qué sentido. La n -ésima suma parcial de la serie de Fourier de una función f de periodo se define por convolución (en el intervalo [−π,π] ) con el núcleo de Dirichlet : Por lo tanto, donde Un resultado fundamental de las series de Fourier elementales establece que el núcleo de Dirichlet restringido al intervalo  [−π,π] tiende a un múltiplo de la función delta cuando N → ∞ . Esto se interpreta en el sentido de distribución, es decir, para cada función suave y compacta f . Por lo tanto, formalmente se tiene en el intervalo [−π,π] . D N ( x ) = n = N N e i n x = sin ( ( N + 1 2 ) x ) sin ( x / 2 ) . {\displaystyle D_{N}(x)=\sum _{n=-N}^{N}e^{inx}={\frac {\sin \left(\left(N+{\frac {1}{2}}\right)x\right)}{\sin(x/2)}}.} s N ( f ) ( x ) = D N f ( x ) = n = N N a n e i n x {\displaystyle s_{N}(f)(x)=D_{N}*f(x)=\sum _{n=-N}^{N}a_{n}e^{inx}} a n = 1 2 π π π f ( y ) e i n y d y . {\displaystyle a_{n}={\frac {1}{2\pi }}\int _{-\pi }^{\pi }f(y)e^{-iny}\,dy.} s N ( f ) ( 0 ) = π π D N ( x ) f ( x ) d x 2 π f ( 0 ) {\displaystyle s_{N}(f)(0)=\int _{-\pi }^{\pi }D_{N}(x)f(x)\,dx\to 2\pi f(0)} δ ( x ) = 1 2 π n = e i n x {\displaystyle \delta (x)={\frac {1}{2\pi }}\sum _{n=-\infty }^{\infty }e^{inx}}

A pesar de esto, el resultado no se cumple para todas las funciones continuas con soporte compacto : es decir, D N no converge débilmente en el sentido de medidas. La falta de convergencia de las series de Fourier ha llevado a la introducción de una variedad de métodos de sumabilidad para producir convergencia. El método de suma de Cesàro conduce al núcleo de Fejér [65]

F N ( x ) = 1 N n = 0 N 1 D n ( x ) = 1 N ( sin N x 2 sin x 2 ) 2 . {\displaystyle F_{N}(x)={\frac {1}{N}}\sum _{n=0}^{N-1}D_{n}(x)={\frac {1}{N}}\left({\frac {\sin {\frac {Nx}{2}}}{\sin {\frac {x}{2}}}}\right)^{2}.}

Los núcleos de Fejér tienden a la función delta en un sentido más fuerte que [66]

π π F N ( x ) f ( x ) d x 2 π f ( 0 ) {\displaystyle \int _{-\pi }^{\pi }F_{N}(x)f(x)\,dx\to 2\pi f(0)}

para cada función continua f con soporte compacto . La implicación es que la serie de Fourier de cualquier función continua es Cesàro sumable al valor de la función en cada punto.

Teoría del espacio de Hilbert

La distribución delta de Dirac es una función lineal ilimitada y densamente definida en el espacio de Hilbert L 2 de funciones integrables al cuadrado . De hecho, las funciones suaves y compactas son densas en L 2 y la acción de la distribución delta sobre dichas funciones está bien definida. En muchas aplicaciones, es posible identificar subespacios de L 2 y dar una topología más sólida en la que la función delta define una función lineal acotada .

Espacios de Sobolev

El teorema de incrustación de Sobolev para espacios de Sobolev en la línea real R implica que cualquier función integrable al cuadrado f tal que

f H 1 2 = | f ^ ( ξ ) | 2 ( 1 + | ξ | 2 ) d ξ < {\displaystyle \|f\|_{H^{1}}^{2}=\int _{-\infty }^{\infty }|{\widehat {f}}(\xi )|^{2}(1+|\xi |^{2})\,d\xi <\infty }

es automáticamente continua y satisface en particular

δ [ f ] = | f ( 0 ) | < C f H 1 . {\displaystyle \delta [f]=|f(0)|<C\|f\|_{H^{1}}.}

Por lo tanto, δ es un funcional lineal acotado en el espacio de Sobolev H 1 . De manera equivalente , δ es un elemento del espacio dual continuo H −1 de H 1 . De manera más general, en n dimensiones, se tiene δH s ( R n ) siempre que s > norte/2 .

Espacios de funciones holomorfas

En el análisis complejo , la función delta entra a través de la fórmula integral de Cauchy , que afirma que si D es un dominio en el plano complejo con borde suave, entonces

f ( z ) = 1 2 π i D f ( ζ ) d ζ ζ z , z D {\displaystyle f(z)={\frac {1}{2\pi i}}\oint _{\partial D}{\frac {f(\zeta )\,d\zeta }{\zeta -z}},\quad z\in D}

para todas las funciones holomorfas f en D que son continuas en el cierre de D . Como resultado, la función delta δ z se representa en esta clase de funciones holomorfas por la integral de Cauchy:

δ z [ f ] = f ( z ) = 1 2 π i D f ( ζ ) d ζ ζ z . {\displaystyle \delta _{z}[f]=f(z)={\frac {1}{2\pi i}}\oint _{\partial D}{\frac {f(\zeta )\,d\zeta }{\zeta -z}}.}

Además, sea H 2 (∂ D ) el espacio de Hardy que consiste en la clausura en L 2 (∂ D ) de todas las funciones holomorfas en D continuas hasta el límite de D . Entonces las funciones en H 2 (∂ D ) se extienden únicamente a funciones holomorfas en D , y la fórmula integral de Cauchy continúa siendo válida. En particular, para zD , la función delta δ z es una funcional lineal continua en H 2 (∂ D ) . Este es un caso especial de la situación en varias variables complejas en la que, para dominios suaves D , el núcleo de Szegő juega el papel de la integral de Cauchy. [67]

Otra representación de la función delta en un espacio de funciones holomorfas es en el espacio de funciones holomorfas integrables al cuadrado en un conjunto abierto . Este es un subespacio cerrado de , y por lo tanto es un espacio de Hilbert. Por otro lado, el funcional que evalúa una función holomorfa en en un punto de es un funcional continuo, y por lo tanto por el teorema de representación de Riesz, se representa por integración contra un núcleo , el núcleo de Bergman . Este núcleo es el análogo de la función delta en este espacio de Hilbert. Un espacio de Hilbert que tiene un núcleo de este tipo se llama espacio de Hilbert con núcleo reproductor . En el caso especial del disco unitario, se tiene H ( D ) L 2 ( D ) {\displaystyle H(D)\cap L^{2}(D)} D C n {\displaystyle D\subset \mathbb {C} ^{n}} L 2 ( D ) {\displaystyle L^{2}(D)} H ( D ) L 2 ( D ) {\displaystyle H(D)\cap L^{2}(D)} z {\displaystyle z} D {\displaystyle D} K z ( ζ ) {\displaystyle K_{z}(\zeta )} δ w [ f ] = f ( w ) = 1 π | z | < 1 f ( z ) d x d y ( 1 z ¯ w ) 2 . {\displaystyle \delta _{w}[f]=f(w)={\frac {1}{\pi }}\iint _{|z|<1}{\frac {f(z)\,dx\,dy}{(1-{\bar {z}}w)^{2}}}.}

Resoluciones de la identidad

Dado un conjunto base ortonormal completo de funciones { φ n } en un espacio de Hilbert separable, por ejemplo, los vectores propios normalizados de un operador autoadjunto compacto , cualquier vector f puede expresarse como Los coeficientes {α n } se encuentran como que puede representarse mediante la notación: una forma de la notación bra–ket de Dirac. [68] Al adoptar esta notación, la expansión de f toma la forma diádica : [69] f = n = 1 α n φ n . {\displaystyle f=\sum _{n=1}^{\infty }\alpha _{n}\varphi _{n}.} α n = φ n , f , {\displaystyle \alpha _{n}=\langle \varphi _{n},f\rangle ,} α n = φ n f , {\displaystyle \alpha _{n}=\varphi _{n}^{\dagger }f,}

f = n = 1 φ n ( φ n f ) . {\displaystyle f=\sum _{n=1}^{\infty }\varphi _{n}\left(\varphi _{n}^{\dagger }f\right).}

Si denotamos con I el operador identidad en el espacio de Hilbert, la expresión

I = n = 1 φ n φ n , {\displaystyle I=\sum _{n=1}^{\infty }\varphi _{n}\varphi _{n}^{\dagger },}

se llama resolución de la identidad . Cuando el espacio de Hilbert es el espacio L 2 ( D ) de funciones integrables al cuadrado en un dominio D , la cantidad:

φ n φ n , {\displaystyle \varphi _{n}\varphi _{n}^{\dagger },}

es un operador integral y la expresión para f se puede reescribir

f ( x ) = n = 1 D ( φ n ( x ) φ n ( ξ ) ) f ( ξ ) d ξ . {\displaystyle f(x)=\sum _{n=1}^{\infty }\int _{D}\,\left(\varphi _{n}(x)\varphi _{n}^{*}(\xi )\right)f(\xi )\,d\xi .}

El lado derecho converge a f en el sentido L 2 . No es necesario que se cumpla en un sentido puntual, incluso cuando f es una función continua. Sin embargo, es común abusar de la notación y escribir

f ( x ) = δ ( x ξ ) f ( ξ ) d ξ , {\displaystyle f(x)=\int \,\delta (x-\xi )f(\xi )\,d\xi ,}

resultando en la representación de la función delta: [70]

δ ( x ξ ) = n = 1 φ n ( x ) φ n ( ξ ) . {\displaystyle \delta (x-\xi )=\sum _{n=1}^{\infty }\varphi _{n}(x)\varphi _{n}^{*}(\xi ).}

Con un espacio de Hilbert manipulado adecuado (Φ, L 2 ( D ), Φ*) donde Φ ⊂ L 2 ( D ) contiene todas las funciones suaves con soporte compacto, esta suma puede converger en Φ* , dependiendo de las propiedades de la base φ n . En la mayoría de los casos de interés práctico, la base ortonormal proviene de un operador integral o diferencial, en cuyo caso la serie converge en el sentido de la distribución . [71]

Funciones delta infinitesimales

Cauchy utilizó un α infinitesimal para escribir una función delta de tipo Dirac δ α de impulso unitario infinitamente alta y estrecha que satisface en varios artículos en 1827. [72] Cauchy definió un infinitesimal en Cours d'Analyse (1827) en términos de una secuencia que tiende a cero. Es decir, una secuencia nula de este tipo se convierte en un infinitesimal en la terminología de Cauchy y Lazare Carnot . F ( x ) δ α ( x ) d x = F ( 0 ) {\textstyle \int F(x)\delta _{\alpha }(x)\,dx=F(0)}

El análisis no estándar permite tratar con rigor los infinitesimales. El artículo de Yamashita (2007) contiene una bibliografía sobre las funciones delta de Dirac modernas en el contexto de un continuo enriquecido con infinitesimales proporcionado por los hiperreales . Aquí, el delta de Dirac puede darse por una función real, que tiene la propiedad de que para cada función real F se tiene como anticiparon Fourier y Cauchy. F ( x ) δ α ( x ) d x = F ( 0 ) {\textstyle \int F(x)\delta _{\alpha }(x)\,dx=F(0)}

Peine de Dirac

Un peine de Dirac es una serie infinita de funciones delta de Dirac espaciadas a intervalos de T

Un denominado "tren de pulsos" uniforme de medidas delta de Dirac, conocido como peine de Dirac o como distribución Sha , crea una función de muestreo , que se utiliza a menudo en el procesamiento de señales digitales (DSP) y en el análisis de señales de tiempo discreto. El peine de Dirac se expresa como la suma infinita , cuyo límite se entiende en el sentido de la distribución.

Ш ( x ) = n = δ ( x n ) , {\displaystyle \operatorname {\text{Ш}} (x)=\sum _{n=-\infty }^{\infty }\delta (x-n),}

que es una secuencia de masas puntuales en cada uno de los números enteros.

Hasta una constante de normalización general, el peine de Dirac es igual a su propia transformada de Fourier. Esto es significativo porque si f es cualquier función de Schwartz , entonces la periodización de f está dada por la convolución En particular, es precisamente la fórmula de suma de Poisson . [73] [74] De manera más general, esta fórmula sigue siendo verdadera si f es una distribución templada de descenso rápido o, equivalentemente, si es una función ordinaria de crecimiento lento dentro del espacio de distribuciones templadas. ( f Ш ) ( x ) = n = f ( x n ) . {\displaystyle (f*\operatorname {\text{Ш}} )(x)=\sum _{n=-\infty }^{\infty }f(x-n).} ( f Ш ) = f ^ Ш ^ = f ^ Ш {\displaystyle (f*\operatorname {\text{Ш}} )^{\wedge }={\widehat {f}}{\widehat {\operatorname {\text{Ш}} }}={\widehat {f}}\operatorname {\text{Ш}} } f ^ {\displaystyle {\widehat {f}}}

Teorema de Sokhotski-Plemelj

El teorema de Sokhotski-Plemelj , importante en mecánica cuántica, relaciona la función delta con la distribución pv 1/incógnita , el valor principal de Cauchy de la función1/incógnita , definido por

p . v . 1 x , φ = lim ε 0 + | x | > ε φ ( x ) x d x . {\displaystyle \left\langle \operatorname {p.v.} {\frac {1}{x}},\varphi \right\rangle =\lim _{\varepsilon \to 0^{+}}\int _{|x|>\varepsilon }{\frac {\varphi (x)}{x}}\,dx.}

La fórmula de Sokhotsky establece que [75]

lim ε 0 + 1 x ± i ε = p . v . 1 x i π δ ( x ) , {\displaystyle \lim _{\varepsilon \to 0^{+}}{\frac {1}{x\pm i\varepsilon }}=\operatorname {p.v.} {\frac {1}{x}}\mp i\pi \delta (x),}

Aquí el límite se entiende en el sentido de distribución, es decir, para todas las funciones suaves y compactas f ,

lim ε 0 + f ( x ) x ± i ε d x = i π f ( 0 ) + lim ε 0 + | x | > ε f ( x ) x d x . {\displaystyle \int _{-\infty }^{\infty }\lim _{\varepsilon \to 0^{+}}{\frac {f(x)}{x\pm i\varepsilon }}\,dx=\mp i\pi f(0)+\lim _{\varepsilon \to 0^{+}}\int _{|x|>\varepsilon }{\frac {f(x)}{x}}\,dx.}

Relación con el delta de Kronecker

El delta de Kronecker δ ij es la cantidad definida por

δ i j = { 1 i = j 0 i j {\displaystyle \delta _{ij}={\begin{cases}1&i=j\\0&i\not =j\end{cases}}}

para todos los enteros i , j . Esta función satisface entonces el análogo siguiente de la propiedad de cribado: si a i (para i en el conjunto de todos los enteros) es cualquier secuencia doblemente infinita , entonces

i = a i δ i k = a k . {\displaystyle \sum _{i=-\infty }^{\infty }a_{i}\delta _{ik}=a_{k}.}

De manera similar, para cualquier función continua f de valor real o complejo en R , el delta de Dirac satisface la propiedad de cribado

f ( x ) δ ( x x 0 ) d x = f ( x 0 ) . {\displaystyle \int _{-\infty }^{\infty }f(x)\delta (x-x_{0})\,dx=f(x_{0}).}

Esto muestra la función delta de Kronecker como un análogo discreto de la función delta de Dirac. [76]

Aplicaciones

Teoría de la probabilidad

En teoría de probabilidad y estadística , la función delta de Dirac se utiliza a menudo para representar una distribución discreta , o una distribución parcialmente discreta, parcialmente continua , utilizando una función de densidad de probabilidad (que normalmente se utiliza para representar distribuciones absolutamente continuas). Por ejemplo, la función de densidad de probabilidad f ( x ) de una distribución discreta que consta de puntos x = { x 1 , ..., x n } , con probabilidades correspondientes p 1 , ..., p n , se puede escribir como

f ( x ) = i = 1 n p i δ ( x x i ) . {\displaystyle f(x)=\sum _{i=1}^{n}p_{i}\delta (x-x_{i}).}

Como otro ejemplo, considere una distribución en la que 6/10 del tiempo devuelve una distribución normal estándar y 4/10 del tiempo devuelve exactamente el valor 3,5 (es decir, una distribución de mezcla parcialmente continua y parcialmente discreta ). La función de densidad de esta distribución se puede escribir como

f ( x ) = 0.6 1 2 π e x 2 2 + 0.4 δ ( x 3.5 ) . {\displaystyle f(x)=0.6\,{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}+0.4\,\delta (x-3.5).}

La función delta también se utiliza para representar la función de densidad de probabilidad resultante de una variable aleatoria que se transforma mediante una función continuamente diferenciable. Si Y = g( X ) es una función continua diferenciable, entonces la densidad de Y se puede escribir como

f Y ( y ) = + f X ( x ) δ ( y g ( x ) ) d x . {\displaystyle f_{Y}(y)=\int _{-\infty }^{+\infty }f_{X}(x)\delta (y-g(x))\,dx.}

La función delta también se utiliza de una manera completamente diferente para representar el tiempo local de un proceso de difusión (como el movimiento browniano ). El tiempo local de un proceso estocástico B ( t ) está dado por y representa la cantidad de tiempo que el proceso pasa en el punto x en el rango del proceso. Más precisamente, en una dimensión esta integral se puede escribir donde es la función indicadora del intervalo ( x , t ) = 0 t δ ( x B ( s ) ) d s {\displaystyle \ell (x,t)=\int _{0}^{t}\delta (x-B(s))\,ds} ( x , t ) = lim ε 0 + 1 2 ε 0 t 1 [ x ε , x + ε ] ( B ( s ) ) d s {\displaystyle \ell (x,t)=\lim _{\varepsilon \to 0^{+}}{\frac {1}{2\varepsilon }}\int _{0}^{t}\mathbf {1} _{[x-\varepsilon ,x+\varepsilon ]}(B(s))\,ds} 1 [ x ε , x + ε ] {\displaystyle \mathbf {1} _{[x-\varepsilon ,x+\varepsilon ]}} [ x ε , x + ε ] . {\displaystyle [x-\varepsilon ,x+\varepsilon ].}

Mecánica cuántica

La función delta es conveniente en mecánica cuántica . La función de onda de una partícula da la amplitud de probabilidad de encontrar una partícula dentro de una región dada del espacio. Se supone que las funciones de onda son elementos del espacio de Hilbert L 2 de funciones integrables al cuadrado , y la probabilidad total de encontrar una partícula dentro de un intervalo dado es la integral de la magnitud de la función de onda al cuadrado sobre el intervalo. Un conjunto { | φ n } de funciones de onda es ortonormal si

φ n φ m = δ n m , {\displaystyle \langle \varphi _{n}\mid \varphi _{m}\rangle =\delta _{nm},}

donde δ nm es el delta de Kronecker. Un conjunto de funciones de onda ortonormales está completo en el espacio de funciones integrables al cuadrado si cualquier función de onda |ψ⟩ puede expresarse como una combinación lineal de { | φ n } con coeficientes complejos:

ψ = c n φ n , {\displaystyle \psi =\sum c_{n}\varphi _{n},}

donde c n = φ n | ψ . Los sistemas ortonormales completos de funciones de onda aparecen naturalmente como las funciones propias del hamiltoniano (de un sistema acotado ) en mecánica cuántica que mide los niveles de energía, que se denominan valores propios. El conjunto de valores propios, en este caso, se conoce como el espectro del hamiltoniano. En notación bra-ket esta igualdad implica la resolución de la identidad :

I = | φ n φ n | . {\displaystyle I=\sum |\varphi _{n}\rangle \langle \varphi _{n}|.}

Aquí se supone que los valores propios son discretos, pero el conjunto de valores propios de un observable también puede ser continuo. Un ejemplo es el operador de posición , ( x ) = x ψ( x ) . El espectro de la posición (en una dimensión) es la línea real completa y se llama espectro continuo . Sin embargo, a diferencia del hamiltoniano, el operador de posición carece de funciones propias adecuadas. La forma convencional de superar esta deficiencia es ampliar la clase de funciones disponibles permitiendo también distribuciones, es decir, reemplazar el espacio de Hilbert con un espacio de Hilbert manipulado . [77] En este contexto, el operador de posición tiene un conjunto completo de "funciones propias generalizadas", etiquetadas por los puntos y de la línea real, dadas por

φ y ( x ) = δ ( x y ) . {\displaystyle \varphi _{y}(x)=\delta (x-y).}

Las funciones propias del operador de posición se denominan estados propios y se denotan por φ y = | y .

Consideraciones similares se aplican a los estados propios del operador de momento , o de hecho a cualquier otro operador autoadjunto (ilimitado) P en el espacio de Hilbert, siempre que el espectro de P sea continuo y no haya valores propios degenerados. En ese caso, hay un conjunto Ω de números reales (el espectro) y una colección de distribuciones φ y con y ∈ Ω tales que

P φ y = y φ y . {\displaystyle P\varphi _{y}=y\varphi _{y}.}

Es decir, φ y son los vectores propios generalizados de P . Si forman una "base ortonormal" en el sentido de distribución, es decir:

φ y , φ y = δ ( y y ) , {\displaystyle \langle \varphi _{y},\varphi _{y'}\rangle =\delta (y-y'),}

entonces, para cualquier función de prueba ψ ,

ψ ( x ) = Ω c ( y ) φ y ( x ) d y {\displaystyle \psi (x)=\int _{\Omega }c(y)\varphi _{y}(x)\,dy}

donde c ( y ) = ψ , φ y . Es decir, hay una resolución de la identidad

I = Ω | φ y φ y | d y {\displaystyle I=\int _{\Omega }|\varphi _{y}\rangle \,\langle \varphi _{y}|\,dy}

donde la integral con valor de operador se entiende nuevamente en sentido débil. Si el espectro de P tiene partes tanto continuas como discretas, entonces la resolución de la identidad implica una suma sobre el espectro discreto y una integral sobre el espectro continuo.

La función delta también tiene muchas aplicaciones más especializadas en la mecánica cuántica, como los modelos de potencial delta para un pozo de potencial simple y doble.

Mecánica estructural

La función delta se puede utilizar en mecánica estructural para describir cargas transitorias o cargas puntuales que actúan sobre estructuras. La ecuación que rige un sistema simple de masa-resorte excitado por un impulso de fuerza repentino I en el tiempo t = 0 se puede escribir

m d 2 ξ d t 2 + k ξ = I δ ( t ) , {\displaystyle m{\frac {d^{2}\xi }{dt^{2}}}+k\xi =I\delta (t),}

donde m es la masa, ξ es la desviación y k es la constante del resorte .

Como otro ejemplo, la ecuación que rige la deflexión estática de una viga esbelta es, según la teoría de Euler-Bernoulli ,

E I d 4 w d x 4 = q ( x ) , {\displaystyle EI{\frac {d^{4}w}{dx^{4}}}=q(x),}

donde EI es la rigidez a la flexión de la viga, w es la deflexión , x es la coordenada espacial y q ( x ) es la distribución de carga. Si una viga está cargada por una fuerza puntual F en x = x 0 , la distribución de carga se escribe

q ( x ) = F δ ( x x 0 ) . {\displaystyle q(x)=F\delta (x-x_{0}).}

Como la integración de la función delta da como resultado la función escalonada de Heaviside , se deduce que la desviación estática de una viga esbelta sujeta a múltiples cargas puntuales se describe mediante un conjunto de polinomios por partes .

Además, un momento puntual que actúa sobre una viga se puede describir mediante funciones delta. Consideremos dos fuerzas puntuales opuestas F a una distancia d entre sí. Entonces producen un momento M = Fd que actúa sobre la viga. Ahora, dejemos que la distancia d se acerque al límite cero, mientras que M se mantiene constante. La distribución de carga, suponiendo un momento en el sentido de las agujas del reloj que actúa en x = 0 , se escribe

q ( x ) = lim d 0 ( F δ ( x ) F δ ( x d ) ) = lim d 0 ( M d δ ( x ) M d δ ( x d ) ) = M lim d 0 δ ( x ) δ ( x d ) d = M δ ( x ) . {\displaystyle {\begin{aligned}q(x)&=\lim _{d\to 0}{\Big (}F\delta (x)-F\delta (x-d){\Big )}\\[4pt]&=\lim _{d\to 0}\left({\frac {M}{d}}\delta (x)-{\frac {M}{d}}\delta (x-d)\right)\\[4pt]&=M\lim _{d\to 0}{\frac {\delta (x)-\delta (x-d)}{d}}\\[4pt]&=M\delta '(x).\end{aligned}}}

Los momentos puntuales pueden representarse por la derivada de la función delta. La integración de la ecuación de la viga da como resultado nuevamente una deflexión polinómica por partes .

Véase también

Notas

  1. ^ atis 2013, impulso unitario.
  2. ^ Arfken y Weber 2000, pág. 84.
  3. ^ ab Dirac 1930, §22 La función δ .
  4. ^ Gelfand & Shilov 1966–1968, Volumen I, §1.1.
  5. ^ Zhao, Ji-Cheng (5 de mayo de 2011). Métodos para la determinación de diagramas de fases. Elsevier. ISBN 978-0-08-054996-5.
  6. ^ Fourier, JB (1822). La teoría analítica del calor (traducción al inglés de Alexander Freeman, ed. 1878). The University Press. pág. [1]., cf. https://books.google.com/books?id=-N8EAAAAYAAJ&pg=PA449 y págs. 546-551. Texto original en francés.
  7. ^ Komatsu, Hikosaburo (2002). "Hiperfunciones de Fourier y operadores pseudodiferenciales de Heaviside". En Takahiro Kawai ; Keiko Fujita (eds.). Análisis microlocal y análisis complejo de Fourier . World Scientific. p. [2]. ISBN 978-981-238-161-3.
  8. ^ Myint-U., Tyn; Debnath, Lokenath (2007). Ecuaciones diferenciales parciales lineales para científicos e ingenieros (4.ª ed.). Springer. pág. [3]. ISBN 978-0-8176-4393-5.
  9. ^ Debnat, Lokenath; Bhatta, Dambaru (2007). Transformaciones integrales y sus aplicaciones (2ª ed.). Prensa CRC . pag. [4]. ISBN 978-1-58488-575-7.
  10. ^ Grattan-Guinness, Ivor (2009). Convoluciones en las matemáticas francesas, 1800-1840: del cálculo y la mecánica al análisis matemático y la física matemática, volumen 2. Birkhäuser. pág. 653. ISBN 978-3-7643-2238-0.
  11. ^ Véase, por ejemplo, Cauchy, Augustin-Louis (1789-1857) Auteur du texte (1882-1974). "Des integrales doubles qui se presente bajo una forma indéterminèe". Obras completas de Augustin Cauchy. Serie 1, tomo 1 / publicados bajo la dirección científica de la Academia de Ciencias y bajo los auspicios de M. le ministre de l'Instruction publique...{{cite book}}: CS1 maint: numeric names: authors list (link)
  12. ^ Mitrović, Dragiša; Žubrinić, Darko (1998). Fundamentos del análisis funcional aplicado: distribuciones, espacios de Sobolev. Prensa CRC. pag. 62.ISBN 978-0-582-24694-2.
  13. ^ Kracht, Manfred; Kreyszig, Erwin (1989). "Sobre operadores integrales singulares y generalizaciones". En Themistocles M. Rassias (ed.). Temas de análisis matemático: un volumen dedicado a la memoria de AL Cauchy . World Scientific. pág. https://books.google.com/books?id=xIsPrSiDlZIC&pg=PA553 553]. ISBN 978-9971-5-0666-7.
  14. ^ Laugwitz 1989, pág. 230.
  15. ^ Un relato histórico más completo se puede encontrar en van der Pol & Bremmer 1987, §V.4.
  16. ^ Dirac, PAM (enero de 1927). "La interpretación física de la dinámica cuántica". Actas de la Royal Society de Londres. Serie A, que contiene artículos de carácter matemático y físico . 113 (765): 621–641. Bibcode :1927RSPSA.113..621D. doi : 10.1098/rspa.1927.0012 . ISSN  0950-1207. S2CID  122855515.
  17. ^ Gelfand y Shilov 1966–1968, Volumen I, §1.1, pág. 1.
  18. ^ Dirac 1930, pág. 63.
  19. ^ Rudin 1966, §1.20
  20. ^ Hewitt y Stromberg 1963, §19.61.
  21. ^ Driggers 2003, p. 2321 Véase también Bracewell 1986, Capítulo 5 para una interpretación diferente. Existen otras convenciones para asignar el valor de la función de Heaviside en cero, y algunas de ellas no son coherentes con lo que sigue.
  22. ^ Hewitt y Stromberg 1963, §9.19.
  23. ^ Hazewinkel 2011, pág. 41.
  24. ^ Strichartz 1994, §2.2.
  25. ^ Hörmander 1983, Teorema 2.1.5.
  26. ^ Bracewell 1986, Capítulo 5.
  27. ^ Hörmander 1983, §3.1.
  28. ^ Strichartz 1994, §2.3.
  29. ^ Hörmander 1983, §8.2.
  30. ^ Rudin 1966, §1.20.
  31. ^ Dieudonné 1972, §17.3.3.
  32. ^ Krantz, Steven G.; Parks, Harold R. (15 de diciembre de 2008). Teoría de la integración geométrica. Springer Science & Business Media. ISBN 978-0-8176-4679-0.
  33. ^ Federer 1969, §2.5.19.
  34. ^ Strichartz 1994, Problema 2.6.2.
  35. ^ Vladimirov 1971, Capítulo 2, Ejemplo 3 (d).
  36. ^ Weisstein, Eric W. "Propiedad de tamizado". MathWorld .
  37. ^ Karris, Steven T. (2003). Señales y sistemas con aplicaciones MATLAB. Orchard Publications. pág. 15. ISBN 978-0-9709511-6-8.
  38. ^ Roden, Martin S. (17 de mayo de 2014). Introducción a la teoría de la comunicación. Elsevier. p. [5]. ISBN 978-1-4831-4556-3.
  39. ^ Rottwitt, Karsten; Tidemand-Lichtenberg, Peter (11 de diciembre de 2014). Óptica no lineal: principios y aplicaciones. CRC Press. pág. [6] 276. ISBN 978-1-4665-6583-8.
  40. ^ Gelfand y Shilov 1966-1968, vol. 1, §II.2.5.
  41. ^ Es posible un mayor refinamiento, concretamente hasta sumersiones , aunque éstas requieren una fórmula de cambio de variables más compleja.
  42. ^ Hörmander 1983, §6.1.
  43. ^ Lange 2012, págs. 29-30.
  44. ^ Gelfand y Shilov 1966-1968, pag. 212.
  45. ^ Los factores numéricos dependen de las convenciones para la transformada de Fourier.
  46. ^ Bracewell 1986.
  47. ^ Gelfand y Shilov 1966-1968, pag. 26.
  48. ^ Gelfand y Shilov 1966–1968, §2.1.
  49. ^ Weisstein, Eric W. "Función doblete". MathWorld .
  50. ^ Bracewell 2000, pág. 86.
  51. ^ "Comentario de Gugo82 sobre la derivada distribucional del delta de Dirac". matematicamente.it . 12 de septiembre de 2010.
  52. ^ abc Hörmander 1983, pág. 56.
  53. ^ Rudin 1991, Teorema 6.25.
  54. ^ Stein y Weiss 1971, Teorema 1.18.
  55. ^ Rudin 1991, §II.6.31.
  56. ^ De manera más general, solo se necesita η = η 1 para tener un reordenamiento decreciente radialmente simétrico integrable.
  57. ^ Saichev & Woyczyński 1997, §1.1 La "función delta" vista por un físico y un ingeniero, p. 3.
  58. ^ Milovanović, Gradimir V.; Rassias, Michael Th (8 de julio de 2014). Teoría analítica de números, teoría de aproximación y funciones especiales: en honor a Hari M. Srivastava. Springer. pág. 748. ISBN 978-1-4939-0258-3.
  59. ^ Stein y Weiss 1971, §I.1.
  60. ^ Mader, Heidy M. (2006). Estadísticas en vulcanología. Sociedad Geológica de Londres. pág. 81. ISBN 978-1-86239-208-3.
  61. ^ Vallée y Soares 2004, §7.2.
  62. ^ Hörmander 1983, §7.8.
  63. ^ Courant y Hilbert 1962, §14.
  64. ^ Gelfand y Shilov 1966–1968, I, §3.10.
  65. ^ Lang 1997, pág. 312.
  66. ^ En la terminología de Lang (1997), el núcleo de Fejér es una secuencia de Dirac, mientras que el núcleo de Dirichlet no lo es.
  67. ^ Hazewinkel 1995, pág. 357.
  68. ^ El desarrollo de esta sección en notación bra-ket se encuentra en (Levin 2002, Funciones de onda en el espacio de coordenadas y completitud, pp.=109 y siguientes )
  69. ^ Davis y Thomson 2000, Operadores perfectos, p.344.
  70. ^ Davis y Thomson 2000, Ecuación 8.9.11, pág. 344.
  71. ^ de la Madrid, Bohm y Gadella 2002.
  72. ^ Laugwitz 1989.
  73. ^ Córdoba 1988.
  74. ^ Hörmander 1983, §7.2.
  75. ^ Vladimirov 1971, §5.7.
  76. ^ Hartmann 1997, págs. 154-155.
  77. ^ Isham 1995, §6.2.

Referencias

  • Aratyn, Henrik; Rasinariu, Constantin (2006), Un curso breve sobre métodos matemáticos con Maple, World Scientific, ISBN 978-981-256-461-0.
  • Arfken, GB ; Weber, HJ (2000), Métodos matemáticos para físicos (5.ª ed.), Boston, Massachusetts: Academic Press , ISBN 978-0-12-059825-0.
  • atis (2013), Glosario de telecomunicaciones de ATIS, archivado desde el original el 13 de marzo de 2013
  • Bracewell, RN (1986), La transformada de Fourier y sus aplicaciones (2.ª ed.), McGraw-Hill.
  • Bracewell, RN (2000), La transformada de Fourier y sus aplicaciones (3.ª ed.), McGraw-Hill.
  • Córdoba, A. (1988), "La formule sommatoire de Poisson", Comptes Rendus de l'Académie des Sciences, Série I , 306 : 373–376.
  • Courant, Richard ; Hilbert, David (1962), Métodos de física matemática, Volumen II , Wiley-Interscience.
  • Davis, Howard Ted; Thomson, Kendall T (2000), Álgebra lineal y operadores lineales en ingeniería con aplicaciones en Mathematica, Academic Press, ISBN 978-0-12-206349-7
  • Dieudonné, Jean (1976), Tratado de análisis. Vol. II , Nueva York: Academic Press [Harcourt Brace Jovanovich Publishers], ISBN 978-0-12-215502-4, Sr.  0530406.
  • Dieudonné, Jean (1972), Tratado sobre el análisis. Vol. III , Boston, Massachusetts: Academic Press, MR  0350769
  • Dirac, Paul (1930), Los principios de la mecánica cuántica (1.ª ed.), Oxford University Press.
  • Driggers, Ronald G. (2003), Enciclopedia de ingeniería óptica, CRC Press, Bibcode :2003eoe..book.....D, ISBN 978-0-8247-0940-2.
  • Duistermaat, Hans ; Kolk (2010), Distribuciones: teoría y aplicaciones , Springer.
  • Federer, Herbert (1969), Teoría de la medida geométrica, Die Grundlehren der mathematischen Wissenschaften, vol. 153, Nueva York: Springer-Verlag, págs. xiv+676, ISBN 978-3-540-60656-7, Sr.  0257325.
  • Gannon, Terry (2008), "Álgebras de operadores de vértices", Princeton Companion to Mathematics , Princeton University Press, ISBN 978-1400830398.
  • Gelfand, IM ; Shilov, GE (1966–1968), Funciones generalizadas, vol. 1–5, Academic Press, ISBN 9781483262246.
  • Hartmann, William M. (1997), Señales, sonido y sensación, Springer, ISBN 978-1-56396-283-7.
  • Hazewinkel, Michiel (1995). Enciclopedia de Matemáticas (conjunto). Medios de ciencia y negocios de Springer. ISBN 978-1-55608-010-4.
  • Hazewinkel, Michiel (2011). Enciclopedia de matemáticas. vol. 10. Saltador. ISBN 978-90-481-4896-7.OCLC 751862625  .
  • Hewitt, E ; Stromberg, K (1963), Análisis real y abstracto , Springer-Verlag.
  • Hörmander, L. (1983), El análisis de operadores diferenciales parciales lineales I, Grundl. Matemáticas. Wissenschaft., vol. 256, Springer, doi :10.1007/978-3-642-96750-4, ISBN 978-3-540-12104-6, Sr.  0717035.
  • Isham, CJ (1995), Conferencias sobre teoría cuántica: fundamentos matemáticos y estructurales, Imperial College Press, ISBN 978-81-7764-190-5.
  • John, Fritz (1955), Ondas planas y medias esféricas aplicadas a ecuaciones diferenciales parciales, Interscience Publishers, Nueva York-Londres, ISBN 9780486438047, Sr.  0075429.
  • Lang, Serge (1997), Análisis de pregrado , Textos de pregrado en matemáticas (2.ª ed.), Berlín, Nueva York: Springer-Verlag, doi : 10.1007/978-1-4757-2698-5, ISBN 978-0-387-94841-6, Sr.  1476913.
  • Lange, Rutger-Jan (2012), "Teoría del potencial, integrales de trayectoria y el laplaciano del indicador", Journal of High Energy Physics , 2012 (11): 29–30, arXiv : 1302.0864 , Bibcode :2012JHEP...11..032L, doi :10.1007/JHEP11(2012)032, S2CID  56188533.
  • Laugwitz, D. (1989), "Valores definidos de sumas infinitas: aspectos de los fundamentos del análisis infinitesimal alrededor de 1820", Arch. Hist. Exact Sci. , 39 (3): 195–245, doi :10.1007/BF00329867, S2CID  120890300.
  • Levin, Frank S. (2002), "Funciones de onda en el espacio de coordenadas y completitud", Introducción a la teoría cuántica , Cambridge University Press, págs. 109 y siguientes , ISBN 978-0-521-59841-5
  • Li, YT; Wong, R. (2008), "Representaciones integrales y en serie de la función delta de Dirac", Commun. Pure Appl. Anal. , 7 (2): 229–247, arXiv : 1303.1943 , doi :10.3934/cpaa.2008.7.229, MR  2373214, S2CID  119319140.
  • de la Madrid, R.; Bohm, A.; Gadella, M. (2002), "Tratamiento espacial de Hilbert manipulado del espectro continuo", Fortschr. Phys. , 50 (2): 185–216, arXiv : quant-ph/0109154 , Bibcode :2002ForPh..50..185D, doi :10.1002/1521-3978(200203)50:2<185::AID-PROP185>3.0.CO;2-S, S2CID  9407651.
  • McMahon, D. (2005-11-22), "Introducción al espacio de estados" (PDF) , Mecánica cuántica desmitificada, una guía de autoaprendizaje , Demystified Series, Nueva York: McGraw-Hill, pág. 108, ISBN 978-0-07-145546-6, consultado el 17 de marzo de 2008.
  • van der Pol, Balth.; Bremmer, H. (1987), Cálculo operacional (3.ª ed.), Nueva York: Chelsea Publishing Co., ISBN 978-0-8284-0327-6, Sr.  0904873.
  • Rudin, Walter (1966). Devine, Peter R. (ed.). Análisis real y complejo (3.ª ed.). Nueva York: McGraw-Hill (publicado en 1987). ISBN 0-07-100276-6.
  • Rudin, Walter (1991), Análisis funcional (2.ª ed.), McGraw-Hill, ISBN 978-0-07-054236-5.
  • Vallée, Olivier; Soares, Manuel (2004), Funciones de Airy y aplicaciones a la física, Londres: Imperial College Press, ISBN 9781911299486.
  • Saichev, AI; Woyczyński, Wojbor Andrzej (1997), "Capítulo 1: Definiciones y operaciones básicas", Distribuciones en las ciencias físicas y de ingeniería: cálculo distribucional y fractal, transformadas integrales y wavelets , Birkhäuser, ISBN 978-0-8176-3924-2
  • Schwartz, L. (1950), Théorie des Distributions , vol. 1, Hermann.
  • Schwartz, L. (1951), Théorie des Distributions , vol. 2, Hermann.
  • Stein, Elias ; Weiss, Guido (1971), Introducción al análisis de Fourier en espacios euclidianos, Princeton University Press, ISBN 978-0-691-08078-9.
  • Strichartz, R. (1994), Una guía para la teoría de la distribución y las transformadas de Fourier, CRC Press, ISBN 978-0-8493-8273-4.
  • Vladimirov, VS (1971), Ecuaciones de la física matemática , Marcel Dekker, ISBN 978-0-8247-1713-1.
  • Weisstein, Eric W. "Función delta". MathWorld .
  • Yamashita, H. (2006), "Análisis puntual de campos escalares: un enfoque no estándar", Journal of Mathematical Physics , 47 (9): 092301, Bibcode :2006JMP....47i2301Y, doi :10.1063/1.2339017
  • Yamashita, H. (2007), "Comentario sobre "Análisis puntual de campos escalares: un enfoque no estándar" [J. Math. Phys. 47, 092301 (2006)]", Journal of Mathematical Physics , 48 (8): 084101, Bibcode :2007JMP....48h4101Y, doi : 10.1063/1.2771422
  • Medios relacionados con la distribución de Dirac en Wikimedia Commons
  • "Función delta", Enciclopedia de matemáticas , EMS Press , 2001 [1994]
  • Lección en video de KhanAcademy.org
  • La función delta de Dirac, un tutorial sobre la función delta de Dirac.
  • Conferencias en vídeo – Conferencia 23, conferencia de Arthur Mattuck .
  • La medida delta de Dirac es una hiperfunción
  • Mostramos la existencia de una solución única y analizamos una aproximación de elementos finitos cuando el término fuente es una medida delta de Dirac
  • Medidas no Lebesgue sobre la medida R. Lebesgue-Stieltjes, medida delta de Dirac. Archivado el 7 de marzo de 2008 en Wayback Machine.


Retrieved from "https://en.wikipedia.org/w/index.php?title=Dirac_delta_function&oldid=1250931522"