Derivado

Tasa de cambio instantánea (matemáticas)

En matemáticas , la derivada es una herramienta fundamental que cuantifica la sensibilidad al cambio de la salida de una función con respecto a su entrada. La derivada de una función de una sola variable en un valor de entrada elegido, cuando existe, es la pendiente de la línea tangente a la gráfica de la función en ese punto. La línea tangente es la mejor aproximación lineal de la función cerca de ese valor de entrada. Por esta razón, la derivada a menudo se describe como la tasa instantánea de cambio , la relación entre el cambio instantáneo en la variable dependiente y el de la variable independiente. [1] El proceso de encontrar una derivada se llama diferenciación .

Existen múltiples notaciones diferentes para la diferenciación, dos de las más utilizadas son la notación de Leibniz y la notación prima. La notación de Leibniz, llamada así por Gottfried Wilhelm Leibniz , se representa como el cociente de dos diferenciales , mientras que la notación prima se escribe añadiendo un signo prima . Las notaciones de orden superior representan la diferenciación repetida y normalmente se denotan en la notación de Leibniz añadiendo superíndices a las diferenciales, y en la notación prima añadiendo signos prima adicionales. Las derivadas de orden superior se pueden aplicar en física; por ejemplo, mientras que la primera derivada de la posición de un objeto en movimiento con respecto al tiempo es la velocidad del objeto , cómo cambia la posición a medida que avanza el tiempo, la segunda derivada es la aceleración del objeto , cómo cambia la velocidad a medida que avanza el tiempo.

Las derivadas se pueden generalizar a funciones de varias variables reales . En esta generalización, la derivada se reinterpreta como una transformación lineal cuyo gráfico es (después de una traducción apropiada) la mejor aproximación lineal al gráfico de la función original. La matriz jacobiana es la matriz que representa esta transformación lineal con respecto a la base dada por la elección de las variables independientes y dependientes. Se puede calcular en términos de las derivadas parciales con respecto a las variables independientes. Para una función de valor real de varias variables, la matriz jacobiana se reduce al vector gradiente .

Definición

Como límite

Una función de una variable real es diferenciable en un punto de su dominio , si su dominio contiene un intervalo abierto que contiene a ⁠ , y el límite existe. [2] Esto significa que, para cada número real positivo , existe un número real positivo tal que, para cada tal que y entonces está definido, y donde las barras verticales denotan el valor absoluto . Este es un ejemplo de la (ε, δ)-definición de límite . [3] f ( x ) {\displaystyle f(x)} a {\displaystyle a} a {\displaystyle a} L = lim h 0 f ( a + h ) f ( a ) h {\displaystyle L=\lim _{h\to 0}{\frac {f(a+h)-f(a)}{h}}} ε {\displaystyle \varepsilon } δ {\displaystyle \delta } h {\displaystyle h} | h | < δ {\displaystyle |h|<\delta } h 0 {\displaystyle h\neq 0} f ( a + h ) {\displaystyle f(a+h)} | L f ( a + h ) f ( a ) h | < ε , {\displaystyle \left|L-{\frac {f(a+h)-f(a)}{h}}\right|<\varepsilon ,}

Si la función es diferenciable en , es decir, si existe el límite, entonces este límite se llama derivada de at . Existen múltiples notaciones para la derivada. [4] La derivada de at se puede denotar , leída como " prima de "; o se puede denotar , leída como "la derivada de con respecto a at " o " por (o sobre) at ". Véase § Notación a continuación. Si es una función que tiene una derivada en cada punto de su dominio , entonces una función se puede definir asignando cada punto al valor de la derivada de at . Esta función se escribe y se llama función derivada o derivada de . La función a veces tiene una derivada en la mayoría de los puntos de su dominio, pero no en todos. La función cuyo valor en es igual siempre que esté definida y en cualquier otro lugar no esté definida también se denomina derivada de . Sigue siendo una función, pero su dominio puede ser menor que el dominio de . [5] f {\displaystyle f} a {\displaystyle a} L {\displaystyle L} f {\displaystyle f} a {\displaystyle a} f {\displaystyle f} a {\displaystyle a} f ( a ) {\displaystyle f'(a)} f {\displaystyle f} a {\displaystyle a} d f d x ( a ) {\displaystyle \textstyle {\frac {df}{dx}}(a)} f {\displaystyle f} x {\displaystyle x} a {\displaystyle a} d f {\displaystyle df} d x {\displaystyle dx} a {\displaystyle a} f {\displaystyle f} x {\displaystyle x} f {\displaystyle f} x {\displaystyle x} f {\displaystyle f'} f {\displaystyle f} f {\displaystyle f} a {\displaystyle a} f ( a ) {\displaystyle f'(a)} f ( a ) {\displaystyle f'(a)} f {\displaystyle f} f {\displaystyle f}

Por ejemplo, sea la función de elevar al cuadrado: . Entonces el cociente en la definición de la derivada es [6] La división en el último paso es válida mientras . Cuanto más cerca esté de , más se acerca esta expresión al valor . El límite existe, y para cada entrada el límite es . Entonces, la derivada de la función de elevar al cuadrado es la función de duplicar: . f {\displaystyle f} f ( x ) = x 2 {\displaystyle f(x)=x^{2}} f ( a + h ) f ( a ) h = ( a + h ) 2 a 2 h = a 2 + 2 a h + h 2 a 2 h = 2 a + h . {\displaystyle {\frac {f(a+h)-f(a)}{h}}={\frac {(a+h)^{2}-a^{2}}{h}}={\frac {a^{2}+2ah+h^{2}-a^{2}}{h}}=2a+h.} h 0 {\displaystyle h\neq 0} h {\displaystyle h} 0 {\displaystyle 0} 2 a {\displaystyle 2a} a {\displaystyle a} 2 a {\displaystyle 2a} f ( x ) = 2 x {\displaystyle f'(x)=2x}

La razón en la definición de la derivada es la pendiente de la línea que pasa por dos puntos en el gráfico de la función ⁠ ⁠ f {\displaystyle f} , específicamente los puntos y . A medida que se hace más pequeño, estos puntos se acercan entre sí y la pendiente de esta línea se acerca al valor límite, la pendiente de la tangente al gráfico de en . En otras palabras, la derivada es la pendiente de la tangente. [7] ( a , f ( a ) ) {\displaystyle (a,f(a))} ( a + h , f ( a + h ) ) {\displaystyle (a+h,f(a+h))} h {\displaystyle h} f {\displaystyle f} a {\displaystyle a}

Usando infinitesimales

Una forma de pensar en la derivada es como la relación entre un cambio infinitesimal en la salida de la función y un cambio infinitesimal en su entrada. [8] Para que esta intuición sea rigurosa, se requiere un sistema de reglas para manipular cantidades infinitesimales. [9] El sistema de números hiperreales es una forma de tratar cantidades infinitas e infinitesimales. Los hiperreales son una extensión de los números reales que contienen números mayores que cualquier cosa de la forma para cualquier número finito de términos. Tales números son infinitos y sus recíprocos son infinitesimales. La aplicación de los números hiperreales a los fundamentos del cálculo se denomina análisis no estándar . Esto proporciona una forma de definir los conceptos básicos del cálculo, como la derivada y la integral en términos de infinitesimales, dando así un significado preciso a la en la notación de Leibniz. Por lo tanto, la derivada de se convierte en para un infinitesimal arbitrario , donde denota la parte estándar de la función , que "redondea" cada hiperreal finito al real más cercano. [10] Tomando nuevamente la función de cuadratura como ejemplo, d f d x ( a ) {\textstyle {\frac {df}{dx}}(a)} f {\displaystyle f} 1 + 1 + + 1 {\displaystyle 1+1+\cdots +1} d {\displaystyle d} f ( x ) {\displaystyle f(x)} f ( x ) = st ( f ( x + d x ) f ( x ) d x ) {\displaystyle f'(x)=\operatorname {st} \left({\frac {f(x+dx)-f(x)}{dx}}\right)} d x {\displaystyle dx} st {\displaystyle \operatorname {st} } f ( x ) = x 2 {\displaystyle f(x)=x^{2}} f ( x ) = st ( x 2 + 2 x d x + ( d x ) 2 x 2 d x ) = st ( 2 x d x + ( d x ) 2 d x ) = st ( 2 x d x d x + ( d x ) 2 d x ) = st ( 2 x + d x ) = 2 x . {\displaystyle {\begin{aligned}f'(x)&=\operatorname {st} \left({\frac {x^{2}+2x\cdot dx+(dx)^{2}-x^{2}}{dx}}\right)\\&=\operatorname {st} \left({\frac {2x\cdot dx+(dx)^{2}}{dx}}\right)\\&=\operatorname {st} \left({\frac {2x\cdot dx}{dx}}+{\frac {(dx)^{2}}{dx}}\right)\\&=\operatorname {st} \left(2x+dx\right)\\&=2x.\end{aligned}}}

Continuidad y diferenciabilidad

Si es diferenciable en , entonces también debe ser continua en . [11] Como ejemplo, elija un punto y sea la función de paso que devuelve el valor 1 para todos menores que , y devuelve un valor diferente 10 para todos mayores o iguales a . La función no puede tener una derivada en . Si es negativo, entonces está en la parte baja del paso, por lo que la línea secante de a es muy empinada; como tiende a cero, la pendiente tiende a infinito. Si es positivo, entonces está en la parte alta del paso, por lo que la línea secante de a tiene pendiente cero. En consecuencia, las líneas secantes no se acercan a ninguna pendiente única, por lo que el límite del cociente de diferencias no existe. Sin embargo, incluso si una función es continua en un punto, puede no ser diferenciable allí. Por ejemplo, la función de valor absoluto dada por es continua en , pero no es diferenciable allí. Si es positivo, entonces la pendiente de la línea secante de 0 a es uno; si es negativo, entonces la pendiente de la línea secante de a es . [12] Esto se puede ver gráficamente como una "curva" o una "cúspide" en el gráfico en . Incluso una función con un gráfico suave no es diferenciable en un punto donde su tangente es vertical : por ejemplo, la función dada por no es diferenciable en . En resumen, una función que tiene una derivada es continua, pero hay funciones continuas que no tienen una derivada. [13] f {\displaystyle f} a {\displaystyle a} f {\displaystyle f} a {\displaystyle a} a {\displaystyle a} f {\displaystyle f} x {\displaystyle x} a {\displaystyle a} x {\displaystyle x} a {\displaystyle a} f {\displaystyle f} a {\displaystyle a} h {\displaystyle h} a + h {\displaystyle a+h} a {\displaystyle a} a + h {\displaystyle a+h} h {\displaystyle h} h {\displaystyle h} a + h {\displaystyle a+h} a {\displaystyle a} a + h {\displaystyle a+h} f ( x ) = | x | {\displaystyle f(x)=|x|} x = 0 {\displaystyle x=0} h {\displaystyle h} h {\displaystyle h} h {\displaystyle h} 0 {\displaystyle 0} h {\displaystyle h} 1 {\displaystyle -1} x = 0 {\displaystyle x=0} f ( x ) = x 1 / 3 {\displaystyle f(x)=x^{1/3}} x = 0 {\displaystyle x=0}

La mayoría de las funciones que se dan en la práctica tienen derivadas en todos los puntos o en casi todos . Al principio de la historia del cálculo , muchos matemáticos asumieron que una función continua era diferenciable en la mayoría de los puntos. [14] En condiciones suaves (por ejemplo, si la función es monótona o una función de Lipschitz ), esto es cierto. Sin embargo, en 1872, Weierstrass encontró el primer ejemplo de una función que es continua en todas partes pero no diferenciable en ninguna. Este ejemplo ahora se conoce como la función de Weierstrass . [15] En 1931, Stefan Banach demostró que el conjunto de funciones que tienen una derivada en algún punto es un conjunto exiguo en el espacio de todas las funciones continuas. De manera informal, esto significa que casi ninguna función continua aleatoria tiene una derivada incluso en un punto. [16]

Notación

Una forma común de escribir la derivada de una función es la notación de Leibniz , introducida por Gottfried Wilhelm Leibniz en 1675, que denota una derivada como el cociente de dos diferenciales , como y . [17] [18] Todavía se usa comúnmente cuando la ecuación se ve como una relación funcional entre variables dependientes e independientes . La primera derivada se denota por , que se lee como "la derivada de con respecto a ". [19] Esta derivada puede tratarse alternativamente como la aplicación de un operador diferencial a una función, Las derivadas superiores se expresan utilizando la notación para la derivada -ésima de . Estas son abreviaturas para múltiples aplicaciones del operador derivada; por ejemplo, [20] A diferencia de algunas alternativas, la notación de Leibniz implica la especificación explícita de la variable para la diferenciación, en el denominador, lo que elimina la ambigüedad cuando se trabaja con múltiples cantidades interrelacionadas. La derivada de una función compuesta se puede expresar utilizando la regla de la cadena : si y entonces [21] d y {\displaystyle dy} d x {\displaystyle dx} y = f ( x ) {\displaystyle y=f(x)} d y d x {\displaystyle \textstyle {\frac {dy}{dx}}} y {\displaystyle y} x {\displaystyle x} d y d x = d d x f ( x ) . {\textstyle {\frac {dy}{dx}}={\frac {d}{dx}}f(x).} d n y d x n {\textstyle {\frac {d^{n}y}{dx^{n}}}} n {\displaystyle n} y = f ( x ) {\displaystyle y=f(x)} d 2 y d x 2 = d d x ( d d x f ( x ) ) . {\textstyle {\frac {d^{2}y}{dx^{2}}}={\frac {d}{dx}}{\Bigl (}{\frac {d}{dx}}f(x){\Bigr )}.} u = g ( x ) {\displaystyle u=g(x)} y = f ( g ( x ) ) {\displaystyle y=f(g(x))} d y d x = d y d u d u d x . {\textstyle {\frac {dy}{dx}}={\frac {dy}{du}}\cdot {\frac {du}{dx}}.}

Otra notación común para la diferenciación es mediante el uso de la prima en el símbolo de una función . Esto f ( x ) {\displaystyle f(x)} se conoce como notación prima , debido a Joseph-Louis Lagrange . [22] La primera derivada se escribe como ⁠ ⁠ f ( x ) {\displaystyle f'(x)} , que se lee como " ⁠ ⁠ f {\displaystyle f} prima de ⁠ ⁠ x {\displaystyle x} , o ⁠ ⁠ y {\displaystyle y'} , que se lee como " ⁠ ⁠ y {\displaystyle y} prima". [23] De manera similar, la segunda y la tercera derivadas se pueden escribir como y , respectivamente. [24] Para denotar el número de derivadas superiores más allá de este punto, algunos autores usan números romanos en superíndice , mientras que otros colocan el número entre paréntesis, como o . [25] La última notación se generaliza para producir la notación para la derivada de . [20] f {\displaystyle f''} f {\displaystyle f'''} f i v {\displaystyle f^{\mathrm {iv} }} f ( 4 ) {\displaystyle f^{(4)}} f ( n ) {\displaystyle f^{(n)}} n {\displaystyle n} f {\displaystyle f}

En la notación de Newton o la notación de punto, se coloca un punto sobre un símbolo para representar una derivada temporal. Si es una función de , entonces la primera y segunda derivadas se pueden escribir como y , respectivamente. Esta notación se utiliza exclusivamente para derivadas con respecto al tiempo o la longitud de arco . Se utiliza típicamente en ecuaciones diferenciales en física y geometría diferencial . [26] Sin embargo, la notación de punto se vuelve inmanejable para derivadas de orden alto (de orden 4 o más) y no puede tratar con múltiples variables independientes. y {\displaystyle y} t {\displaystyle t} y ˙ {\displaystyle {\dot {y}}} y ¨ {\displaystyle {\ddot {y}}}

Otra notación es la notación D , que representa al operador diferencial mediante el símbolo ⁠ ⁠ D {\displaystyle D} . [20] La primera derivada se escribe y las derivadas superiores se escriben con un superíndice, por lo que la derivada -ésima es . Esta notación a veces se denomina notación de Euler , aunque parece que Leonhard Euler no la utilizó, y la notación fue introducida por Louis François Antoine Arbogast . [27] Para indicar una derivada parcial, la variable diferenciada por se indica con un subíndice, por ejemplo, dada la función , su derivada parcial con respecto a se puede escribir o . Las derivadas parciales superiores se pueden indicar mediante superíndices o subíndices múltiples, por ejemplo, y . [28] D f ( x ) {\displaystyle Df(x)} n {\displaystyle n} D n f ( x ) {\displaystyle D^{n}f(x)} u = f ( x , y ) {\displaystyle u=f(x,y)} x {\displaystyle x} D x u {\displaystyle D_{x}u} D x f ( x , y ) {\displaystyle D_{x}f(x,y)} D x y f ( x , y ) = y ( x f ( x , y ) ) {\textstyle D_{xy}f(x,y)={\frac {\partial }{\partial y}}{\Bigl (}{\frac {\partial }{\partial x}}f(x,y){\Bigr )}} D x 2 f ( x , y ) = x ( x f ( x , y ) ) {\displaystyle \textstyle D_{x}^{2}f(x,y)={\frac {\partial }{\partial x}}{\Bigl (}{\frac {\partial }{\partial x}}f(x,y){\Bigr )}}

Reglas de cálculo

En principio, la derivada de una función se puede calcular a partir de la definición considerando el cociente de diferencias y calculando su límite. Una vez que se conocen las derivadas de algunas funciones simples, las derivadas de otras funciones se calculan más fácilmente utilizando reglas para obtener derivadas de funciones más complicadas a partir de otras más simples. Este proceso de encontrar una derivada se conoce como diferenciación . [29]

Reglas para funciones básicas

Las siguientes son las reglas para las derivadas de las funciones básicas más comunes. Aquí, es un número real y es la base del logaritmo natural, aproximadamente 2,71828 . [30] a {\displaystyle a} e {\displaystyle e}

  • Derivadas de potencias :
    d d x x a = a x a 1 {\displaystyle {\frac {d}{dx}}x^{a}=ax^{a-1}}
  • Funciones de exponencial , logaritmo natural y logaritmo con base general :
    d d x e x = e x {\displaystyle {\frac {d}{dx}}e^{x}=e^{x}}
    d d x a x = a x ln ( a ) {\displaystyle {\frac {d}{dx}}a^{x}=a^{x}\ln(a)} , para a > 0 {\displaystyle a>0}
    d d x ln ( x ) = 1 x {\displaystyle {\frac {d}{dx}}\ln(x)={\frac {1}{x}}} , para x > 0 {\displaystyle x>0}
    d d x log a ( x ) = 1 x ln ( a ) {\displaystyle {\frac {d}{dx}}\log _{a}(x)={\frac {1}{x\ln(a)}}} , para x , a > 0 {\displaystyle x,a>0}
  • Funciones trigonométricas :
    d d x sin ( x ) = cos ( x ) {\displaystyle {\frac {d}{dx}}\sin(x)=\cos(x)}
    d d x cos ( x ) = sin ( x ) {\displaystyle {\frac {d}{dx}}\cos(x)=-\sin(x)}
    d d x tan ( x ) = sec 2 ( x ) = 1 cos 2 ( x ) = 1 + tan 2 ( x ) {\displaystyle {\frac {d}{dx}}\tan(x)=\sec ^{2}(x)={\frac {1}{\cos ^{2}(x)}}=1+\tan ^{2}(x)}
  • Funciones trigonométricas inversas :
    d d x arcsin ( x ) = 1 1 x 2 {\displaystyle {\frac {d}{dx}}\arcsin(x)={\frac {1}{\sqrt {1-x^{2}}}}} , para 1 < x < 1 {\displaystyle -1<x<1}
    d d x arccos ( x ) = 1 1 x 2 {\displaystyle {\frac {d}{dx}}\arccos(x)=-{\frac {1}{\sqrt {1-x^{2}}}}} , para 1 < x < 1 {\displaystyle -1<x<1}
    d d x arctan ( x ) = 1 1 + x 2 {\displaystyle {\frac {d}{dx}}\arctan(x)={\frac {1}{1+x^{2}}}}

Reglas para funciones combinadas

Dado que y son funciones, las siguientes son algunas de las reglas más básicas para deducir la derivada de funciones a partir de las derivadas de funciones básicas. [31] f {\displaystyle f} g {\displaystyle g}

  • Regla constante : si es constante, entonces para todo , f {\displaystyle f} x {\displaystyle x}
    f ( x ) = 0. {\displaystyle f'(x)=0.}
  • Regla de la suma :
    ( α f + β g ) = α f + β g {\displaystyle (\alpha f+\beta g)'=\alpha f'+\beta g'} para todas las funciones y y todos los números reales y . f {\displaystyle f} g {\displaystyle g} α {\displaystyle \alpha } β {\displaystyle \beta }
  • Regla del producto :
    ( f g ) = f g + f g {\displaystyle (fg)'=f'g+fg'} para todas las funciones y . Como caso especial, esta regla incluye el hecho siempre que sea una constante porque por la regla de las constantes. f {\displaystyle f} g {\displaystyle g} ( α f ) = α f {\displaystyle (\alpha f)'=\alpha f'} α {\displaystyle \alpha } α f = 0 f = 0 {\displaystyle \alpha 'f=0\cdot f=0}
  • Regla del cociente :
    ( f g ) = f g f g g 2 {\displaystyle \left({\frac {f}{g}}\right)'={\frac {f'g-fg'}{g^{2}}}} para todas las funciones y en todas las entradas donde g ≠ 0 . f {\displaystyle f} g {\displaystyle g}
  • Regla de la cadena para funciones compuestas : Si ⁠ ⁠ f ( x ) = h ( g ( x ) ) {\displaystyle f(x)=h(g(x))} , entonces
    f ( x ) = h ( g ( x ) ) g ( x ) . {\displaystyle f'(x)=h'(g(x))\cdot g'(x).}

Ejemplo de cálculo

La derivada de la función dada por es Aquí el segundo término se calculó utilizando la regla de la cadena y el tercer término utilizando la regla del producto . También se utilizaron las derivadas conocidas de las funciones elementales , , , , y , así como la constante . f ( x ) = x 4 + sin ( x 2 ) ln ( x ) e x + 7 {\displaystyle f(x)=x^{4}+\sin \left(x^{2}\right)-\ln(x)e^{x}+7} f ( x ) = 4 x ( 4 1 ) + d ( x 2 ) d x cos ( x 2 ) d ( ln x ) d x e x ln ( x ) d ( e x ) d x + 0 = 4 x 3 + 2 x cos ( x 2 ) 1 x e x ln ( x ) e x . {\displaystyle {\begin{aligned}f'(x)&=4x^{(4-1)}+{\frac {d\left(x^{2}\right)}{dx}}\cos \left(x^{2}\right)-{\frac {d\left(\ln {x}\right)}{dx}}e^{x}-\ln(x){\frac {d\left(e^{x}\right)}{dx}}+0\\&=4x^{3}+2x\cos \left(x^{2}\right)-{\frac {1}{x}}e^{x}-\ln(x)e^{x}.\end{aligned}}} x 2 {\displaystyle x^{2}} x 4 {\displaystyle x^{4}} sin ( x ) {\displaystyle \sin(x)} ln ( x ) {\displaystyle \ln(x)} exp ( x ) = e x {\displaystyle \exp(x)=e^{x}} 7 {\displaystyle 7}

Derivadas de orden superior

Las derivadas de orden superior son el resultado de derivar una función repetidamente. Dado que es una función diferenciable, la derivada de es la primera derivada, denotada como . La derivada de es la segunda derivada , denotada como , y la derivada de es la tercera derivada , denotada como . Al continuar este proceso, si existe, la ésima derivada es la derivada de la ésima derivada o la derivada de orden . Como se ha discutido anteriormente, la generalización de la derivada de una función puede denotarse como . [32] Una función que tiene derivadas sucesivas se llama veces diferenciable . Si la -ésima derivada es continua, entonces se dice que la función es de clase de diferenciabilidad . [33] Una función que tiene infinitas derivadas se llama infinitamente diferenciable o suave . [34] Cualquier función polinómica es infinitamente diferenciable; tomar derivadas repetidamente eventualmente dará como resultado una función constante , y todas las derivadas subsiguientes de esa función son cero. [35] f {\displaystyle f} f {\displaystyle f} f {\displaystyle f'} f {\displaystyle f'} f {\displaystyle f''} f {\displaystyle f''} f {\displaystyle f'''} n {\displaystyle n} ( n 1 ) {\displaystyle (n-1)} n {\displaystyle n} f {\displaystyle f} f ( n ) {\displaystyle f^{(n)}} k {\displaystyle k} k {\displaystyle k} k {\displaystyle k} C k {\displaystyle C^{k}}

Una aplicación de las derivadas de orden superior se encuentra en la física . Supongamos que una función representa la posición de un objeto en un momento dado. La primera derivada de esa función es la velocidad de un objeto con respecto al tiempo, la segunda derivada de la función es la aceleración de un objeto con respecto al tiempo, [29] y la tercera derivada es el tirón . [36]

En otras dimensiones

Funciones con valores vectoriales

Una función con valor vectorial de una variable real envía números reales a vectores en algún espacio vectorial . Una función con valor vectorial se puede dividir en sus funciones de coordenadas , lo que significa que . Esto incluye, por ejemplo, curvas paramétricas en o . Las funciones de coordenadas son funciones de valor real, por lo que la definición anterior de derivada se aplica a ellas. La derivada de se define como el vector , llamado vector tangente , cuyas coordenadas son las derivadas de las funciones de coordenadas. Es decir, [37] si existe el límite. La resta en el numerador es la resta de vectores, no de escalares. Si la derivada de existe para cada valor de , entonces es otra función con valor vectorial. [37] y {\displaystyle \mathbf {y} } R n {\displaystyle \mathbb {R} ^{n}} y 1 ( t ) , y 2 ( t ) , , y n ( t ) {\displaystyle y_{1}(t),y_{2}(t),\dots ,y_{n}(t)} y = ( y 1 ( t ) , y 2 ( t ) , , y n ( t ) ) {\displaystyle \mathbf {y} =(y_{1}(t),y_{2}(t),\dots ,y_{n}(t))} R 2 {\displaystyle \mathbb {R} ^{2}} R 3 {\displaystyle \mathbb {R} ^{3}} y ( t ) {\displaystyle \mathbf {y} (t)} y ( t ) = lim h 0 y ( t + h ) y ( t ) h , {\displaystyle \mathbf {y} '(t)=\lim _{h\to 0}{\frac {\mathbf {y} (t+h)-\mathbf {y} (t)}{h}},} y {\displaystyle \mathbf {y} } t {\displaystyle t} y {\displaystyle \mathbf {y} '}

Derivadas parciales

Las funciones pueden depender de más de una variable . Una derivada parcial de una función de varias variables es su derivada con respecto a una de esas variables, manteniendo las otras constantes. Las derivadas parciales se utilizan en cálculo vectorial y geometría diferencial . Al igual que con las derivadas ordinarias, existen múltiples notaciones: la derivada parcial de una función con respecto a la variable se denota de diversas formas como f ( x , y , ) {\displaystyle f(x,y,\dots )} x {\displaystyle x}

f x {\displaystyle f_{x}} , , , , o , f x {\displaystyle f'_{x}} x f {\displaystyle \partial _{x}f} x f {\displaystyle {\frac {\partial }{\partial x}}f} f x {\displaystyle {\frac {\partial f}{\partial x}}}

entre otras posibilidades. [38] Puede considerarse como la tasa de cambio de la función en la dirección -. [39] Aquí ∂ es una d redondeada llamada símbolo de derivada parcial . Para distinguirla de la letra d , ∂ a veces se pronuncia "der", "del" o "partial" en lugar de "dee". [40] Por ejemplo, sea , entonces la derivada parcial de la función con respecto a ambas variables y son, respectivamente: En general, la derivada parcial de una función en la dirección en el punto se define como: [41] x {\displaystyle x} f ( x , y ) = x 2 + x y + y 2 {\displaystyle f(x,y)=x^{2}+xy+y^{2}} f {\displaystyle f} x {\displaystyle x} y {\displaystyle y} f x = 2 x + y , f y = x + 2 y . {\displaystyle {\frac {\partial f}{\partial x}}=2x+y,\qquad {\frac {\partial f}{\partial y}}=x+2y.} f ( x 1 , , x n ) {\displaystyle f(x_{1},\dots ,x_{n})} x i {\displaystyle x_{i}} ( a 1 , , a n ) {\displaystyle (a_{1},\dots ,a_{n})} f x i ( a 1 , , a n ) = lim h 0 f ( a 1 , , a i + h , , a n ) f ( a 1 , , a i , , a n ) h . {\displaystyle {\frac {\partial f}{\partial x_{i}}}(a_{1},\ldots ,a_{n})=\lim _{h\to 0}{\frac {f(a_{1},\ldots ,a_{i}+h,\ldots ,a_{n})-f(a_{1},\ldots ,a_{i},\ldots ,a_{n})}{h}}.}

Esto es fundamental para el estudio de las funciones de varias variables reales . Sea una función de valor real de este tipo . Si todas las derivadas parciales con respecto a están definidas en el punto , estas derivadas parciales definen el vector que se llama gradiente de en . Si es diferenciable en cada punto en algún dominio, entonces el gradiente es una función de valor vectorial que asigna el punto al vector . En consecuencia, el gradiente determina un campo vectorial . [42] f ( x 1 , , x n ) {\displaystyle f(x_{1},\dots ,x_{n})} f {\displaystyle f} x j {\displaystyle x_{j}} ( a 1 , , a n ) {\displaystyle (a_{1},\dots ,a_{n})} f ( a 1 , , a n ) = ( f x 1 ( a 1 , , a n ) , , f x n ( a 1 , , a n ) ) , {\displaystyle \nabla f(a_{1},\ldots ,a_{n})=\left({\frac {\partial f}{\partial x_{1}}}(a_{1},\ldots ,a_{n}),\ldots ,{\frac {\partial f}{\partial x_{n}}}(a_{1},\ldots ,a_{n})\right),} f {\displaystyle f} a {\displaystyle a} f {\displaystyle f} f {\displaystyle \nabla f} ( a 1 , , a n ) {\displaystyle (a_{1},\dots ,a_{n})} f ( a 1 , , a n ) {\displaystyle \nabla f(a_{1},\dots ,a_{n})}

Derivadas direccionales

Si es una función de valor real en , entonces las derivadas parciales de miden su variación en la dirección de los ejes de coordenadas. Por ejemplo, si es una función de y , entonces sus derivadas parciales miden la variación en en la dirección y . Sin embargo, no miden directamente la variación de en ninguna otra dirección, como a lo largo de la línea diagonal . Estas se miden utilizando derivadas direccionales. Dado un vector , entonces la derivada direccional de en la dirección de en el punto es: [43] f {\displaystyle f} R n {\displaystyle \mathbb {R} ^{n}} f {\displaystyle f} f {\displaystyle f} x {\displaystyle x} y {\displaystyle y} f {\displaystyle f} x {\displaystyle x} y {\displaystyle y} f {\displaystyle f} y = x {\displaystyle y=x} v = ( v 1 , , v n ) {\displaystyle \mathbf {v} =(v_{1},\ldots ,v_{n})} f {\displaystyle f} v {\displaystyle \mathbf {v} } x {\displaystyle \mathbf {x} } D v f ( x ) = lim h 0 f ( x + h v ) f ( x ) h . {\displaystyle D_{\mathbf {v} }{f}(\mathbf {x} )=\lim _{h\rightarrow 0}{\frac {f(\mathbf {x} +h\mathbf {v} )-f(\mathbf {x} )}{h}}.}

Si todas las derivadas parciales de existen y son continuas en , entonces determinan la derivada direccional de en la dirección mediante la fórmula: [44] f {\displaystyle f} x {\displaystyle \mathbf {x} } f {\displaystyle f} v {\displaystyle \mathbf {v} } D v f ( x ) = j = 1 n v j f x j . {\displaystyle D_{\mathbf {v} }{f}(\mathbf {x} )=\sum _{j=1}^{n}v_{j}{\frac {\partial f}{\partial x_{j}}}.}

Derivada total, diferencial total y matriz jacobiana

Cuando es una función de un subconjunto abierto de a , entonces la derivada direccional de en una dirección elegida es la mejor aproximación lineal a en ese punto y en esa dirección. Sin embargo, cuando , ninguna derivada direccional única puede dar una imagen completa del comportamiento de . La derivada total da una imagen completa al considerar todas las direcciones a la vez. Es decir, para cualquier vector que comience en , la fórmula de aproximación lineal se cumple: [45] De manera similar con la derivada de una sola variable, se elige de modo que el error en esta aproximación sea lo más pequeño posible. La derivada total de en es la única transformación lineal tal que [45] Aquí hay un vector en , por lo que la norma en el denominador es la longitud estándar en . Sin embargo, es un vector en , y la norma en el numerador es la longitud estándar en . [45] Si es un vector que comienza en , entonces se llama empuje hacia adelante de por . [46] f {\displaystyle f} R n {\displaystyle \mathbb {R} ^{n}} R m {\displaystyle \mathbb {R} ^{m}} f {\displaystyle f} f {\displaystyle f} n > 1 {\displaystyle n>1} f {\displaystyle f} v {\displaystyle \mathbf {v} } a {\displaystyle \mathbf {a} } f ( a + v ) f ( a ) + f ( a ) v . {\displaystyle f(\mathbf {a} +\mathbf {v} )\approx f(\mathbf {a} )+f'(\mathbf {a} )\mathbf {v} .} f ( a ) {\displaystyle f'(\mathbf {a} )} f {\displaystyle f} a {\displaystyle \mathbf {a} } f ( a ) : R n R m {\displaystyle f'(\mathbf {a} )\colon \mathbb {R} ^{n}\to \mathbb {R} ^{m}} lim h 0 f ( a + h ) ( f ( a ) + f ( a ) h ) h = 0. {\displaystyle \lim _{\mathbf {h} \to 0}{\frac {\lVert f(\mathbf {a} +\mathbf {h} )-(f(\mathbf {a} )+f'(\mathbf {a} )\mathbf {h} )\rVert }{\lVert \mathbf {h} \rVert }}=0.} h {\displaystyle \mathbf {h} } R n {\displaystyle \mathbb {R} ^{n}} R n {\displaystyle \mathbb {R} ^{n}} f ( a ) h {\displaystyle f'(\mathbf {a} )\mathbf {h} } R m {\displaystyle \mathbb {R} ^{m}} R m {\displaystyle \mathbb {R} ^{m}} v {\displaystyle v} a {\displaystyle a} f ( a ) v {\displaystyle f'(\mathbf {a} )\mathbf {v} } v {\displaystyle \mathbf {v} } f {\displaystyle f}

Si la derivada total existe en ⁠ ⁠ a {\displaystyle \mathbf {a} } , entonces todas las derivadas parciales y derivadas direccionales de existen en , y para todo , es la derivada direccional de en la dirección . Si se escribe utilizando funciones de coordenadas, de modo que , entonces la derivada total se puede expresar utilizando las derivadas parciales como una matriz . Esta matriz se llama matriz jacobiana de en : [47] f {\displaystyle f} a {\displaystyle \mathbf {a} } v {\displaystyle \mathbf {v} } f ( a ) v {\displaystyle f'(\mathbf {a} )\mathbf {v} } f {\displaystyle f} v {\displaystyle \mathbf {v} } f {\displaystyle f} f = ( f 1 , f 2 , , f m ) {\displaystyle f=(f_{1},f_{2},\dots ,f_{m})} f {\displaystyle f} a {\displaystyle \mathbf {a} } f ( a ) = Jac a = ( f i x j ) i j . {\displaystyle f'(\mathbf {a} )=\operatorname {Jac} _{\mathbf {a} }=\left({\frac {\partial f_{i}}{\partial x_{j}}}\right)_{ij}.}

Generalizaciones

El concepto de derivada se puede extender a muchos otros contextos. El denominador común es que la derivada de una función en un punto sirve como aproximación lineal de la función en ese punto.

  • Una generalización importante de la derivada se refiere a funciones complejas de variables complejas , como las funciones de (un dominio en) los números complejos a . La noción de derivada de una función de este tipo se obtiene reemplazando variables reales por variables complejas en la definición. [48] Si se identifica con escribiendo un número complejo como entonces una función diferenciable de a es ciertamente diferenciable como una función de a (en el sentido de que todas sus derivadas parciales existen), pero lo inverso no es cierto en general: la derivada compleja solo existe si la derivada real es lineal compleja y esto impone relaciones entre las derivadas parciales llamadas ecuaciones de Cauchy-Riemann – ver funciones holomorfas . [49] C {\displaystyle \mathbb {C} } C {\displaystyle \mathbb {C} } C {\displaystyle \mathbb {C} } R 2 {\displaystyle \mathbb {R} ^{2}} z {\displaystyle z} x + i y {\displaystyle x+iy} C {\displaystyle \mathbb {C} } C {\displaystyle \mathbb {C} } R 2 {\displaystyle \mathbb {R} ^{2}} R 2 {\displaystyle \mathbb {R} ^{2}}
  • Otra generalización se refiere a funciones entre variedades diferenciables o suaves . Intuitivamente hablando, una variedad de este tipo es un espacio que puede aproximarse cerca de cada punto por un espacio vectorial llamado su espacio tangente : el ejemplo prototípico es una superficie suave en . La derivada (o diferencial) de una función (diferenciable) entre variedades, en un punto en , es entonces una función lineal desde el espacio tangente de at al espacio tangente de at . La función derivada se convierte en una función entre los fibrados tangentes de y . Esta definición se utiliza en geometría diferencial . [50] M {\displaystyle M} x {\displaystyle x} R 3 {\displaystyle \mathbb {R} ^{3}} f : M N {\displaystyle f:M\to N} x {\displaystyle x} M {\displaystyle M} M {\displaystyle M} x {\displaystyle x} N {\displaystyle N} f ( x ) {\displaystyle f(x)} M {\displaystyle M} N {\displaystyle N}
  • La diferenciación también se puede definir para mapas entre espacios vectoriales , como el espacio de Banach , en el que esas generalizaciones son la derivada de Gateaux y la derivada de Fréchet . [51]
  • Una deficiencia de la derivada clásica es que muchas funciones no son diferenciables. Sin embargo, existe una manera de extender la noción de derivada de modo que todas las funciones continuas y muchas otras funciones puedan diferenciarse utilizando un concepto conocido como derivada débil . La idea es incorporar las funciones continuas en un espacio más grande llamado espacio de distribuciones y solo requerir que una función sea diferenciable "en promedio". [52]
  • Las propiedades de la derivada han inspirado la introducción y el estudio de muchos objetos similares en álgebra y topología; un ejemplo es el álgebra diferencial . Aquí, consiste en la derivación de algunos temas del álgebra abstracta, como anillos , ideales , cuerpos , etc. [53]
  • El equivalente discreto de la diferenciación son las diferencias finitas . El estudio del cálculo diferencial se unifica con el cálculo de diferencias finitas en el cálculo de escala temporal . [54]
  • La derivada aritmética implica la función que se define para los números enteros mediante la factorización prima . Esto es una analogía con la regla del producto. [55]

Véase también

Notas

  1. ^ Apostol 1967, pág. 160; Stewart 2002, págs. 129-130; Strang et al. 2023, pág. 224.
  2. ^ Apostol 1967, pág. 160; Stewart 2002, pág. 127; Strang et al. 2023, pág. 220.
  3. ^ Gonick 2012, pág. 83; Thomas y otros 2014, pág. 60.
  4. ^ Gonick 2012, pág. 88; Strang y otros 2023, pág. 234.
  5. ^ Gonick 2012, pág. 83; Strang y otros 2023, pág. 232.
  6. ^ Gonick 2012, págs. 77–80.
  7. ^ Thompson 1998, págs. 34, 104; Stewart 2002, pág. 128.
  8. ^ Thompson 1998, págs. 84–85.
  9. ^ Keisler 2012, págs. 902–904.
  10. ^ Keisler 2012, pag. 45; Henle y Kleinberg 2003, pág. 66.
  11. ^ Gonick 2012, pag. 156; Tomás y col. 2014, pág. 114; Strang et al. 2023, pág. 237.
  12. ^ Gonick 2012, pag. 149; Tomás y col. 2014, pág. 113; Strang et al. 2023, pág. 237.
  13. ^ Gonick 2012, pag. 156; Tomás y col. 2014, pág. 114; Strang et al. 2023, págs. 237–238.
  14. ^ Jašek 1922; Jarník 1922; Rychlík 1923.
  15. ^ David 2018.
  16. ^ Banach 1931, citado en Hewitt y Stromberg 1965.
  17. ^ Apóstol 1967, pág. 172.
  18. ^ Cajori 2007, pág. 204.
  19. ^ Moore y Siegel 2013, pág. 110.
  20. ^ abc Varberg, Purcell y Rigdon 2007, págs. 125–126.
  21. ^ En la formulación del cálculo en términos de límites, varios autores han asignado al símbolo varios significados. Algunos autores como Varberg, Purcell & Rigdon 2007, p. 119 y Stewart 2002, p. 177 no le asignan un significado a por sí mismo, sino solo como parte del símbolo . Otros definen como variable independiente, y definen por . En el análisis no estándar se define como infinitesimal. También se interpreta como la derivada exterior de una función . Ver diferencial (infinitesimal) para más información. d u {\displaystyle du} d u {\displaystyle du} d u d x {\textstyle {\frac {du}{dx}}} d x {\displaystyle dx} d u {\displaystyle du} d u = d x f ( x ) {\displaystyle \textstyle du=dxf'(x)} d u {\displaystyle du} u {\displaystyle u}
  22. ^ Schwartzman 1994, pág. 171.
  23. ^ Moore y Siegel 2013, pág. 110; Goodman 1963, pág. 78–79.
  24. ^ Varberg, Purcell y Rigdon 2007, pág. 125–126; Cajori 2007, pág. 228.
  25. ^ Choudary y Niculescu 2014, pag. 222; Apóstol 1967, p. 171.
  26. ^ Evans 1999, pág. 63; Kreyszig 1991, pág. 1.
  27. ^ Cajori 1923.
  28. ^ Apóstol 1967, pag. 172; Varberg, Purcell y Rigdon 2007, pág. 125–126.
  29. ^Ab Apostol 1967, pág. 160.
  30. ^ Varberg, Purcell y Rigdon 2007. Véase la pág. 133 para la regla de potencia, las págs. 115-116 para las funciones trigonométricas, la pág. 326 para el logaritmo natural, las págs. 338-339 para la exponencial con base ⁠ ⁠ e {\displaystyle e} , la pág. 343 para la exponencial con base ⁠ ⁠ a {\displaystyle a} , la pág. 344 para el logaritmo con base ⁠ ⁠ a {\displaystyle a} , y la pág. 369 para la inversa de las funciones trigonométricas.
  31. ^ Para la regla de la constante y la regla de la suma, véase Apostol 1967, pág. 161, 164, respectivamente. Para la regla del producto, la regla del cociente y la regla de la cadena, véase Varberg, Purcell y Rigdon 2007, págs. 111-112, 119, respectivamente. Para el caso especial de la regla del producto, es decir, el producto de una constante y una función, véase Varberg, Purcell y Rigdon 2007, págs. 108-109.
  32. ^ Apóstol 1967, pag. 160; Varberg, Purcell y Rigdon 2007, pág. 125–126.
  33. ^ Warner 1983, pág. 5.
  34. ^ Debnath y Shah 2015, pág. 40.
  35. ^ Carothers 2000, pág. 176.
  36. ^ Stewart 2002, pág. 193.
  37. ^ desde Stewart 2002, pág. 893.
  38. ^ Stewart 2002, pág. 947; Christopher 2013, pág. 682.
  39. ^ Stewart 2002, pág. 949.
  40. ^ Silverman 1989, pág. 216; Bhardwaj 2005, Véase pág. 6.4.
  41. ^ Mathai y Haubold 2017, pag. 52.
  42. ^ Gbur 2011, págs. 36–37.
  43. ^ Varberg, Purcell y Rigdon 2007, pág. 642.
  44. ^ Guzmán 2003, pág. 35.
  45. ^ abc Davvaz 2023, pág. 266.
  46. ^ Lee 2013, pág. 72.
  47. ^ Davvaz 2023, pág. 267.
  48. ^ Roussos 2014, pág. 303.
  49. ^ Gbur 2011, págs. 261–264.
  50. ^ Gray, Abbena y Salamon 2006, pág. 826.
  51. ^ Azegami 2020. Véase la pág. 209 para la derivada de Gateaux, y la pág. 211 para la derivada de Fréchet.
  52. ^ Funaro 1992, págs. 84–85.
  53. ^ Kolchin 1973, pág. 58, 126.
  54. ^ Georgiev 2018, pág. 8.
  55. ^ Barbeau 1961.

Referencias

  • Apostol, Tom M. (junio de 1967), Cálculo, vol. 1: Cálculo de una variable con una introducción al álgebra lineal , vol. 1 (2.ª ed.), Wiley, ISBN 978-0-471-00005-1
  • Azegami, Hideyuki (2020), Problemas de optimización de formas, Springer Optimization and Its Applications, vol. 164, Springer, doi :10.1007/978-981-15-7618-8, ISBN 978-981-15-7618-8, Número de identificación del sujeto  226442409
  • Banach, Stefan (1931), "Uber die Baire'sche Kategorie gewisser Funktionenmengen", Studia Math. , 3 (3): 174–179, doi : 10.4064/sm-3-1-174-179 .
  • Barbeau, EJ (1961). "Observaciones sobre una derivada aritmética". Canadian Mathematical Bulletin . 4 (2): 117–122. doi : 10.4153/CMB-1961-013-0 . Zbl  0101.03702.
  • Bhardwaj, RS (2005), Matemáticas para la economía y los negocios (2.ª ed.), Excel Books India, ISBN 9788174464507
  • Cajori, Florian (1923), "La historia de las notaciones del cálculo", Anales de matemáticas , 25 (1): 1–46, doi :10.2307/1967725, hdl : 2027/mdp.39015017345896 , JSTOR  1967725
  • Cajori, Florian (2007), Una historia de las notaciones matemáticas, vol. 2, Cosimo Classics, ISBN 978-1-60206-713-4
  • Carothers, NL (2000), Análisis real , Cambridge University Press
  • Choudary, ADR; Niculescu, Constantin P. (2014), Análisis real en intervalos , Springer India, doi :10.1007/978-81-322-2148-7, ISBN 978-81-322-2148-7
  • Christopher, Essex (2013), Cálculo: un curso completo , Pearson, pág. 682, ISBN 9780321781079, OCLC  872345701
  • Courant, Richard ; John, Fritz (22 de diciembre de 1998), Introducción al cálculo y análisis, vol. 1 , Springer-Verlag , doi :10.1007/978-1-4613-8955-2, ISBN 978-3-540-65058-4
  • David, Claire (2018), "Evitando sistemas dinámicos: una forma sencilla de obtener la dimensión de conteo de cajas del gráfico de la función de Weierstrass", Actas del Centro Internacional de Geometría , 11 (2), Academia de Ciencias de Ucrania: 53–68, arXiv : 1711.10349 , doi : 10.15673/tmgc.v11i2.1028
  • Davvaz, Bijan (2023), Vectores y funciones de varias variables , Springer, doi :10.1007/978-981-99-2935-1, ISBN 978-981-99-2935-1, Número de identificación del sujeto  259885793
  • Debnath, Lokenath; Shah, Firdous Ahmad (2015), Transformadas wavelet y sus aplicaciones (2.ª ed.), Birkhäuser, doi :10.1007/978-0-8176-8418-1, ISBN 978-0-8176-8418-1
  • Evans, Lawrence (1999), Ecuaciones diferenciales parciales , American Mathematical Society, ISBN 0-8218-0772-2
  • Eves, Howard (2 de enero de 1990), Introducción a la historia de las matemáticas (6.ª ed.), Brooks Cole, ISBN 978-0-03-029558-4
  • Funaro, Daniele (1992), Aproximación polinomial de ecuaciones diferenciales, Lecture Notes in Physics Monographs, vol. 8, Springer, doi :10.1007/978-3-540-46783-0, ISBN 978-3-540-46783-0
  • Gbur, Greg (2011), Métodos matemáticos para la física óptica y la ingeniería , Cambridge University Press, Bibcode :2011mmop.book.....G, ISBN 978-1-139-49269-0
  • Georgiev, Svetlin G. (2018), Cálculo dinámico fraccional y ecuaciones dinámicas fraccionales en escalas de tiempo, Springer, doi :10.1007/978-3-319-73954-0, ISBN 978-3-319-73954-0
  • Goodman, AW (1963), Geometría analítica y cálculo, The MacMillan Company
  • Gonick, Larry (2012), La guía de dibujos animados para el cálculo, William Morrow, ISBN 978-0-06-168909-3
  • Gray, Alfred; Abbena, Elsa; Salamon, Simon (2006), Geometría diferencial moderna de curvas y superficies con Mathematica, CRC Press, ISBN 978-1-58488-448-4
  • Guzmán, Alberto (2003), Derivadas e integrales de funciones multivariables, Springer, doi :10.1007/978-1-4612-0035-2, ISBN 978-1-4612-0035-2
  • Henle, James M.; Kleinberg, Eugene M. (2003), Cálculo infinitesimal , Publicaciones de Dover, ISBN 978-0-486-42886-4
  • Hewitt, Edwin ; Stromberg, Karl R. (1965), Análisis real y abstracto , Springer-Verlag, Teorema 17.8, doi :10.1007/978-3-662-29794-0, ISBN 978-3-662-28275-5
  • Jašek, Martin (1922), "Funkce Bolzanova" (PDF) , Časopis pro Pěstování Matematiky a Fyziky (en checo), 51 (2): 69–76, doi :10.21136/CPMF.1922.121916
  • Jarník, Vojtěch (1922), "O funkci Bolzanově" (PDF) , Časopis pro Pěstování Matematiky a Fyziky (en checo), 51 (4): 248–264, doi :10.21136/CPMF.1922.109021Vea la versión en inglés aquí.
  • Keisler, H. Jerome (2012) [1986], Cálculo elemental: un enfoque que utiliza infinitesimales (2.ª ed.), Prindle, Weber & Schmidt, ISBN 978-0-871-50911-6
  • Kolchin, Ellis (1973), Álgebra diferencial y grupos algebraicos, Academic Press, ISBN 978-0-08-087369-5
  • Kreyszig, Erwin (1991), Geometría diferencial , Nueva York: Dover , ISBN 0-486-66721-9
  • Larson, Ron; Hostetler, Robert P.; Edwards, Bruce H. (28 de febrero de 2006), Cálculo: funciones trascendentales tempranas (4.ª ed.), Houghton Mifflin Company, ISBN 978-0-618-60624-5
  • Lee, John M. (2013), Introducción a las variedades suaves , Textos de posgrado en matemáticas, vol. 218, Springer, doi : 10.1007/978-0-387-21752-9, ISBN 978-0-387-21752-9
  • Mathai, AM; Haubold, HJ (2017), Cálculo fraccional y multivariable: problemas de construcción de modelos y optimización, Springer, doi : 10.1007/978-3-319-59993-9, ISBN 978-3-319-59993-9
  • Moore, Will H.; Siegel, David A. (2013), Un curso matemático para la investigación política y social, Princeton University Press, ISBN 978-0-691-15995-9
  • Roussos, Ioannis M. (2014), Integral Riemann impropia, CRC Press , ISBN 978-1-4665-8807-3
  • Rychlík, Karel (1923), Über eine Funktion aus Bolzanos handschriftlichem Nachlasse
  • Schwartzman, Steven (1994), Las palabras de las matemáticas: un diccionario etimológico de términos matemáticos utilizados en inglés, Asociación Matemática Americana, ISBN 9781614445012
  • Silverman, Richard A. (1989), Cálculo esencial: con aplicaciones , Courier Corporation, ISBN 9780486660974
  • Stewart, James (24 de diciembre de 2002), Cálculo (5.ª ed.), Brooks Cole, ISBN 978-0-534-39339-7
  • Strang, Gilbert ; et al. (2023), Cálculo, volumen 1, OpenStax, ISBN 978-1-947172-13-5
  • Thomas, George B. Jr. ; Weir, Maurice D.; Hass, Joel (2014). Cálculo de Thomas (PDF) (Decimotercera edición). Pearson PLC . ISBN 978-0-321-87896-0. Recuperado el 9 de septiembre de 2024 .
  • Thompson, Silvanus P. (8 de septiembre de 1998), Calculus Made Easy (edición revisada, actualizada y ampliada), Nueva York: St. Martin's Press, ISBN 978-0-312-18548-0
  • Varberg, Dale E.; Purcell, Edwin J.; Rigdon, Steven E. (2007), Cálculo (9ª ed.), Pearson Prentice Hall , ISBN 978-0131469686
  • Warner, Frank W. (1983), Fundamentos de variedades diferenciables y grupos de Lie, Springer, ISBN 978-0-387-90894-6

Retrieved from "https://en.wikipedia.org/w/index.php?title=Derivative&oldid=1251646712"