Un ensayo sobre el cálculo diferencial

Depurando mi ordenador de archivos viejos me encontré este ensayo que hice para competir por una plaza de ayudante de profesor en la UAM-A en 2014 —que no obtuve, por cierto :C — mientras entraba a la maestría; como sea lo comparto acá, puede ser útil sobre todo a estudiantes de bachillerato o de primer año de licenciatura (ingeniería o ciencias).



1. Introducción
En el haber cotidiano seguido es de gran importancia conocer qué tanto afecta el cambio de una cantidad dada respecto a otra cantidad relacionada, es decir, su razón de cambio relativo. La esencia del Cálculo Diferencial es precisamente el estudio de razones de cambio. Aunque desde la antigüedad la idea de razón de cambio estaba presente en los conceptos como la tangente de una curva o en las paradojas de Zenón de Elea, no fue sino hasta alrededor de 1666 cuando el desarrollo del Cálculo Infinitesimal por Isaac Newton y Gottfried Leibniz sistematizara el Cálculo Diferencial con el concepto de diferenciación y la derivada. Posteriormente muchos grandes matemáticos como Cauchy o Riemann contribuirían a la formalización del Cálculo Diferencial.

Históricamente, Newton y Leibniz sistematizaron el Cálculo Diferencial pensando la descripción precisa de cambios de posición en cada instante de tiempo, es decir, de movimiento. En el tratamiento moderno del Cálculo Diferencial, dos conceptos básicos son los de límite y continuidad, y en particular al hablar de Cálculo Diferencial se considera el estudio de razones de cambio infinitesimales de funciones reales en una variable real respecto a esta misma variable.

El alcance del Cálculo Diferencial (e Integral) en el estudio de funciones en sí mismas es sumamente amplio y forma la base del Análisis Matemático, además de admitir generalizaciones en espacios (más) abstractos; de cualquier modo, así como en su motivación histórica original, el estudio del Cálculo Diferencial da lugar a un gran número de aplicaciones, e incluso, ciertamente forma uno los pilares básicos en cualquier Ciencia Física o Ingeniería.

2. La Derivada
El principal objeto de estudio en el Cálculo Diferencial es la derivada de una función $f:\mathbb{R}\to\mathbb{R}$. Considérese la regla de correspondencia $x\mapsto{f}(x)$ y un punto $x_0\in\mathbb{R}$ tal que $f$ está definida en una vecindad de $x_0$.

En la siguiente figura se muestra el bosquejo de una función $f$ arbitraria y se señalan dos puntos $x_0$ y $x_0+\epsilon$ con sus imágenes bajo $f$.

Bosquejo de la gráfica de una función $\mathbb{R}\to\mathbb{R}$ y la razón de cambio $\Delta{f}(x_0)/\Delta{x}_0$

De aquı́ entonces puede verse de manera intuitiva que la razón de cambio de la función $f$ cuando $x_0$ aumenta una cantidad $\epsilon$ es
\begin{align}\frac{\Delta{f}(x_0)}{\Delta{x}_0}&\equiv\frac{f(x_0+\epsilon)-f(x_0)}{x_0+\epsilon-x_0}\nonumber\\
&=\frac{f(x_0+\epsilon)-f(x_0)}{\epsilon}\end{align} de modo que para razones de cambio arbitrariamente pequeñas, se puede definir
\begin{equation}f^\prime(x)\bigg|_{x_0}\equiv{f}^\prime(x_0)=\lim_{\epsilon\to0}\frac{f(x_0+\epsilon)-f(x_0)}{\epsilon}\end{equation} si el lı́mite existe, como la derivada de $f$ en el punto $x_0$. Si la función es continua y dicho lı́mite existe en todo $x$, entonces la derivada de $f$ en $x$ es simplemente
\begin{equation}f^\prime(x)=\lim_{\epsilon\to0}\frac{f(x+\epsilon)-f(x)}{\epsilon}\label{def:derivada}\end{equation} Esta notación de "$f^\prime$" es atribuida a Lagrange o bien “$\dot{f}$”, cuando la variable en cuestión es el tiempo, es atribuida a Newton; de cualquier modo, históricamente Leibniz introdujo la notación
\begin{equation}\frac{df}{dx}\equiv{f}^\prime(x)\end{equation} pensando en cocientes, como se sugiere en el caso finito (o no infinitesimal). Aunque esta notación de Leibniz es muy útil para realizar operaciones (como se verá adelante), debe notarse que la derivada, al ser el límite de un cociente y entonces al no poderse expresar como el cociente de límites, no es en realidad un cociente.

Las interpretaciones y aplicaciones de la derivada en el estudio de funciones de variable real son muy diversas y amplias, desde la interpretación geométrica de la pendiente de la tangente en un punto a la función como una curva, hasta información vital sobre la función como sus máximos y mı́nimos (locales y globales), crecimiento o decrecimiento y concavidad.

En cuanto a las aplicaciones prácticas, fuera del interés puramente matemático, la derivada puede verse como el pilar no sólo de áreas de estudio como la Física, sino también en temas como Economía, la Computación o más recientemente en temas sociales vistos como Sistemas Complejos.

3. Continuidad y Diferenciabilidad
Cuando el lı́mite (\ref{def:derivada}) existe, se dice que $f$ es diferenciable o derivable. Una cuestión relevante en este caso es que este lı́mite implica que si $f$ es diferenciable, entonces también es continua. De cualquier modo, una cuestión importante es que el enunciado opuesto no es cierto: que una función sea continua no implica que ésta sea derivable en todo su dominio.

Un ejemplo claro y el primero que viene a la mente es el de $f(x)=|x|$, que es continua pero cuya derivada no está definida en $x=0$. Esto puede verse claramente por el cambio abrupto o pico que la función tiene en $x=0$.

4. Propiedades de la derivada
A partir de las siguientes propiedades para la derivada de una función $\mathbb{R}\to\mathbb{R}$, que pueden demostrarse a través de la definición (\ref{def:derivada}) y las propiedades de las funciones, pueden seguirse las reglas de derivación más comunes.

4.1 Linealidad
Sean $f,g$ funciones $\mathbb{R}\to\mathbb{R}$ y $\alpha,\beta$ dos constantes tal que $h=\alpha{f}+\beta{g}$, entonces
\begin{equation}h^\prime=\alpha{f}^\prime+\beta{g}^\prime\end{equation}

4.2 Regla del producto
Sean $f,g$ funciones $\mathbb{R}\to\mathbb{R}$ tales que $h(x)=f(x)\cdot{g}(x)$ para todo $x\in\mathbb{R}$; esta definición se sobreentiende al escribir $h=fg$, entonces
\begin{equation}h^\prime=f^\prime{g}+f{g}^\prime\end{equation}

4.3 Regla de la Cadena
Sean $f,g$ dos funciones $\mathbb{R}\to\mathbb{R}$ tales que $h=f\circ{g}$, entonces
\begin{equation}h^\prime=(f^\prime\circ{g})\cdot{g}^\prime\end{equation} Esta regla es particularmente intuitiva en la notación de Leibniz,
\begin{equation}\frac{dh}{dx}=\frac{df}{dg}\frac{dg}{dx}\label{chain}\end{equation}
que además, si $f$ es la inversa de $g$, ésta se reduce a
\begin{equation}1=\frac{dx}{dg}\frac{dg}{dx}\end{equation}
es decir,
\begin{equation}\frac{dg}{dx}=\frac{1}{\frac{dx}{dg}}=\frac{1}{\frac{df(g(x))}{dg}}\label{cadena2}\end{equation}

5. Reglas de derivación
Las propiedades anteriores sirven en general para calcular de manera práctica la derivada de una función.

El caso más sencillo es el de las potencias, los polinomios y los productos, e.g. si $f(x)=x^n$ con $n$ entero, $f^\prime(x)=nx^{n−1}$ que se sigue de la linealidad de la derivada. De cualquier modo, hay casos especiales de funciones como la exponencial (y su inversa) o las funciones trigonométricas, cuyas derivadas requieren algunas propiedades más de las propias funciones para poder ser obtenidas.

En el caso de la exponencial, tomemos $f(x)=a^x$ con $a\in\mathbb{R}^+$ constante, entonces, de la definición (\ref{def:derivada}),
\begin{align}f^\prime(x)&=\lim_{\epsilon\to0}\frac{a^{x+\epsilon}-a^x}{\epsilon}\nonumber\\
&=a^x\lim_{\epsilon\to0}\frac{a^\epsilon-1}{\epsilon}\nonumber\\
&=a^xf^\prime(0)\end{align} de donde se requiere poder calcular el límite $f^\prime(0)$. Como comentario, la forma más sencilla, sin conocer de antemano la derivada de la exponencial, es primero calcular el límite para $a=e$ y obtener
\begin{equation}\lim_{\epsilon\to0}\frac{e^\epsilon-1}{\epsilon}=1\end{equation} Esto no es tarea sencilla sin regla de L'Hôpital (hasta donde sé) pero corresponde a otro tema (una forma usual es emplear la identidad $e=\lim_{n\to\infty}\left(1+\frac{1}{n}\right)^n$ descubierta por Euler), así que asumiendo que se conoce este límite, que además implica $\frac{d}{dx}e^x=e^x$ para todo $x$ real, podemos definir $g(x)\equiv{x}\ln{a}$
\begin{equation}a^x=e^{\ln{a^x}}=e^{x\ln{a}}=e^g\end{equation} de modo que por la regla de la cadena (\ref{chain}),
\begin{align}f^\prime(x)&=\frac{de^g}{dg}\frac{dg}{dx}\nonumber\\
&=e^g\frac{d(x\ln{a})}{dx}\nonumber\\
&=a^x\ln{a}\end{align} por lo que también
\begin{equation}\lim_{\epsilon\to0}\frac{a^\epsilon-1}{\epsilon}=\ln{a}\end{equation} Además se sigue por la propiedad (\ref{cadena2}), que
\begin{equation}\frac{de^x}{dx}=e^x=\frac{1}{\frac{d(\ln{e}^x)}{d(e^x)}}\hspace{0.25in}\Longrightarrow\hspace{0.25in}\frac{d\ln{x}}{dx}=\frac{1}{x}\end{equation} De manera similar pueden obtenerse las reglas de derivación para las funciones trigonométricas, e.g. en el caso de $f(x)=\sin{x}$,
\begin{align}f^\prime(x)&=\lim_{\epsilon\to0}\frac{\sin(x+\epsilon)-\sin{x}}{\epsilon}\nonumber\\
&=\lim_{\epsilon\to0}\frac{\sin{x}\cos\epsilon+\sin\epsilon\cos{x}-\sin{x}}{\epsilon}\nonumber\\
&=\lim_{\epsilon\to0}\frac{\sin{x}(\cos\epsilon-1)+\sin\epsilon\cos{x}}{\epsilon}\end{align} de modo que es necesario conocer (u obtener) los límites
\begin{align}\lim_{\epsilon\to0}\frac{\cos\epsilon-1}{\epsilon},\hspace{0.25in}\lim_{\epsilon\to0}\frac{\sin\epsilon}{\epsilon}\end{align} La deducción de todas estas reglas junto con las propiedades intrínsecas a la derivada son lo que permite operar de manera sencilla con las derivadas de funciones conocidas y cualquier complicación de éstas con productos, composiciones, etc. Finalmente algunas otras reglas que pueden presentar sus propias complicaciones son la de las derivadas de orden superior y las de la derivación de funciones implícitas, que de cualquier forma (en la versión más simple para funciones reales bien comportadas), se limitan a las propiedades y reglas mencionadas.

6. Optimización
De entre las aplicaciones más relevantes de la derivada es la capacidad de determinar el comportamiento creciente o decreciente de una función, sus máximos y mínimos, y su concavidad. Esto es de gran utilidad cuando se modela con alguna función un fenómeno físico o cualquier otro fenómeno de interés práctico.

El punto de vista geométrico de la derivada como la pendiente de la recta tangente de la gráfica de una función hace que se vuelvan de particular interés las soluciones de $f^\prime(x)=0$, que son llamadas puntos críticos. Estos puntos críticos sólo tienen 3 posibilidades: ser un máximo, un mínimo o un punto silla.

Una función con tres puntos crı́ticos $x=\pm{a},0$. Mientras $x=\pm{a}$ son mínimos globales, $x=0$ es un máximo local.

En la figura anterior se muestra una función con dos mı́nimos globales y un máximo local, mientras que en la siguiente figura se muestra un punto silla.

Una función con un punto silla en $x=0$.

Las funciones para estos ejemplos particulares son $f(x)=(x+a)^2(x-a)^2$ y $g(x)=x^3$, donde se verifica que
\begin{equation}f^\prime(x)=4x(x^2-a^2)\end{equation} y
\begin{equation}g^\prime(x)=3x^2\end{equation} cuyas soluciones en efecto son $x=0,\pm{a}$ y $x=0$, respectivamente. Esto sólo dice que estas soluciones son puntos crı́ticos, para determinar analı́ticamente de qué tipo son, se puede recurrir a una segunda derivada y evaluar en el punto en cuestión, o bien, si la función es suficientemente sencilla, evaluar (ya sea la función o la derivada) cerca del punto.

Este tipo de análisis resulta de gran importancia en cualquier problema que involucre conocer el comportamiento de una función, e.g. en Mecánica Clásica, el análisis de las órbitas planetarias se realiza mediante el análisis de un potencial radial que satisface la ecuación
\begin{equation}F(r)=-\frac{dU}{dr}=-\frac{d}{dr}\left[\frac{\alpha}{r^2}-\frac{\beta}{r}\right]\end{equation} con constantes $\alpha,\beta$ positivas, de donde se puede conocer $r=r_0$ tal que $F(r_0)=0$, i.e.
\begin{equation}\frac{2\alpha}{r_0^3}-\frac{\beta}{r_0^2}=0\hspace{0.25in}\Longrightarrow\hspace{0.25in}r_0=\frac{2\alpha}{\beta}\end{equation} que además es un mı́nimo, ya que (haciendo las simplificaciones necesarias)
\begin{equation}F^\prime(r_0)=-\frac{6\alpha}{r_0^4}+\frac{2\beta}{r_0^3}=\frac{\beta^4}{8\alpha^3}>0\end{equation}

7. Series de Taylor
Las series de Taylor es otra de las ideas sumamente útiles del Cálculo Diferencial y se basan en la idea de la posibilidad de construir polinomios que coincidan una función en un punto y cuyas derivadas coincidan con las derivadas (del mismo orden) de la función en ese punto; el requisito entonces es únicamente que la clase de la función (derivabilidad y continuidad de la derivada) sea infinito.

La construcción se puede ir haciendo paso a paso: sea $f:\mathbb{R}\to\mathbb{R}$ de clase $C^\infty$ y $x_0\in\mathbb{R}$ constante, entonces la función
\begin{equation}P_1(x)\equiv{f}(x_0)+f^\prime(x_0)(x-x_0)\end{equation} satisface $P_1(x_0)=f(x_0)$ y $P_1^\prime(x_0)=f^\prime(x_0)$, y de manera análoga
\begin{equation}P_2(x)\equiv{P_1}(x)+\frac{1}{2}f^{\prime\prime}(x_0)(x-x_0)^2\end{equation} satisface $P_2(x_0)=f(x_0)$, $P_2^\prime(x_0)=f^\prime(x_0)$ y $P_2^{\prime\prime}(x_0)=f^{\prime\prime}(x_0)$. El paso brillante en esta argumentación, está en que, de hecho
\begin{equation}f(x)=\sum_{n=0}^\infty\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n\end{equation} donde $f^{(n)}$ señala la $n$-ésima derivada. En el caso de una función $C^k$, o para una serie trunca en $n=k$, el Teorema de Taylor justifica el que una serie de Taylor sea una buena aproximación local de la función original.

8. Otros resultados y alcance del cálculo diferencial
El Teorema del Valor Medio y la Regla de L’Hôpital para calcular lı́mites son algunos de los resultados relevantes que se estudian comúnmente en el Cálculo Diferencial en funciones reales de una variable real. Primeramente, el Cálculo Diferencial es útil para pasar al estudio del Cálculo Integral mediante el Teorema Fundamental del Cálculo, y luego algunas extensiones se pueden encontrar en el Cálculo de Varias Variables, el Análisis Complejo o más allá en temas como el Análisis Funcional, además de que resulta ser la base de cualquier tema que involucre el concepto de derivada, como las Ecuaciones Diferenciales (Ordinarias y Parciales).

No comments:

Post a Comment