Showing posts with label Cálculo de varias variables. Show all posts
Showing posts with label Cálculo de varias variables. Show all posts

El lema de Poincaré

Una forma exacta $\phi=d\varphi$ es siempre cerrada dado que $d^2=0$. El lema de Poincaré provee la situación en que el converso también es cierto diciendo que una p-forma cerrada $\phi$ en una región abierta $U$ simplemente-conexa de una variedad $M$ será también exacta. Esto es, siempre que $\phi\in\Omega^p(U)$ con $U\subset{M}$ simplemente-conexo y $d\phi=0$, existe una (p-1)-forma $\varphi$ tal que $\phi=d\varphi$.

Vale, intentaré elaborar un poco sobre la prueba de este resultado que he seguido en este documento para 1-formas y en el libro de Nakahara para p-formas. Al final traduciré algunas cosas a $\mathbb{R}^3$.

1-formas
Acá trataré con una 1-forma cerrada $\phi$ y superficies o 1-variedades $M$. Lo primero que uno piensa es en usar las palabras mágicas simplemente-conexo, pues es lo que hace válido el lema. Intuitivamente, simplemente-conexo significa que está hecho de una sola pieza (conexo) y no tiene hoyos; para formalizar, podemos definir la llamada homotopía de una curva cerrada simple (o que no se intersecta a sí misma; en adelante las llamaré circuitos) $\mc{C}:[a,b]\to{M}$ tal que $\mc{C}(a)=\mc{C}(b)\equiv{p}$ (en general con $\mc{C}^\prime(a)\neq\mc{C}^\prime(b)$) a un punto de la curva, también llamada nulhomotopía, como el mapeo
\begin{equation}h:[a,b]\times[0,1]\to{M}\end{equation} tal que para $u\in[a,b]$, $v\in[0,1]$,
\begin{align}h(u,0)&=\mc{C}(u)\\
h(u,1)&=h(a,v)=h(b,v)=p\end{align} que estrictamente es un 2-segmento (o 2-celda) de $M$ pero que puede pensarse como una colección de circuitos $\mc{C}_v(u)=h(u,v)$ para cada $v$, o mejor aún como una función continua que deforma $\mc{C}$ en el punto $p$ a través del parámetro $v$. Si tal mapeo existe, se dice que $\mc{C}$ es nulhomotópica u homotópica a una constante.

Ilustración en Wikipedia. Un ejemplo visualmente sencillo: $S^2$ es simplemente conexo (en dos dimensiones) porque es conexo y cualquier circuito es nulhomotópico.
Así pues, $M$ es simplemente-conexo si es conexo y cualquier circuito en $M$ es nulhomotópico. Nos interesaría entonces emplear el hecho de que la 1-forma cerrada $\phi$ está en una región $U$ simplemente-conexa de $M$. Considerando entonces un circuito $\mc{C}:[a,b]\to{U}$ y su nulhomotopía $h$, lo más inmediato es usar el teorema de Stokes (segunda igualdad),
\begin{equation}0=\int\limits_hd\phi=\int\limits_{\p{h}}\phi\label{stokes1}\end{equation} Aquí el calcular la frontera $\p{h}$ me resultó un tanto confuso; de cualquier modo lo entendí considerando el caso de un círculo en $\mathbb{R}^2$ con la nulhomotopía siendo un disco. Puedes verlo usando el siguiente botón o continuar si no lo consideras necesario.



Sean entonces $\alpha(u)=h(u,0)$, $\beta(v)=h(b,v)$, $\gamma(u)=h(u,1)$, $\delta(v)=h(a,v)$ los bordes de $h$, de modo que
\begin{equation}\p{h}=\alpha+\beta-\gamma-\delta\end{equation} y en particular nota que en una nulhomotopía, $\beta^\prime(v)=\gamma^\prime(u)=\delta^\prime(v)=0$, de modo que se tiene por (\ref{stokes1}) que
\begin{align}\int\limits_{\p{h}}\phi&=0\nonumber\\
&=\int\limits_\alpha\phi+\underbrace{\int\limits_\beta\phi-\int\limits_\gamma\phi-\int\limits_\delta\phi}_{=\int\limits_0^1\phi(\beta^\prime(v))\,dv-\int\limits_a^b\cdots\,=0}\nonumber\\
&=\int\limits_\alpha\phi=\int\limits_\mc{C}\phi\end{align}


es decir, obtenemos que la integral de una 1-forma cerrada $\phi$ a través de un circuito $\mc{C}$ en una región simplemente-conexa es cero,
\begin{equation}\oint\limits_\mc{C}\phi=0\end{equation} que no es más que decir que si tomamos dos puntos $p$ y $q$ y dos curvas que los unan, $\delta$ y $\eta$, de modo que $\mc{C}=\delta-\eta$,
\begin{equation}\int\limits_\delta\phi=\int\limits_\eta\phi\end{equation} i.e. la integral será independiente de los caminos $\delta$ y $\eta$. Usualmente también ésta se toma como una definición equivalente de una forma exacta, e.g. en cursos de termodinámica, donde se toma prácticamente como definición. Sabemos entonces que la integral sólo dependerá de $p$ y $q$; supongamos que fijamos $q$ y dejamos que $p$ sea cualquier punto en $U$, entonces podemos proponer una función $\varphi\in{C}^\infty(U)$ tal que
\begin{equation}\varphi(p)=\int\limits_\eta\phi\end{equation} Más generalmente, consideremos $\eta:[a,b]\to{U}$ y algún $t\in[a,b]$ de modo que tengamos en mente el segmento $\eta_t:[a,t]\to{U}$ y cualquier punto dinámico $\eta(t)$,
\begin{equation}\varphi\left(\eta(t)\right)=\int\limits_{\eta_t}\phi=\int_a^t\phi(\eta^\prime(u))\,du\label{poin1}\end{equation} Considerando $\eta(t)$ en coordenadas locales de modo que $d\varphi=\p_i\varphi\,dx^i$, sea entonces $f:U\to\mathbb{R}$ una función cualquiera de modo que $\frac{df(\eta(t))}{dt}=\frac{dx^i}{dt}\frac{\p{f}}{\p{x}^i}$, entonces $\eta^\prime(t)=\frac{dx^i(\eta(t))}{dt}\p_i$ en coordenadas locales, lo que nos permite calcular que
\begin{equation}d\varphi\left(\eta^\prime(t)\right)=\frac{\p\varphi}{\p{x}^i}\frac{dx^i}{dt}=\frac{d\varphi(\eta(t))}{dt}\end{equation} lo que entonces lleva por (\ref{poin1}) a que
\begin{equation}d\varphi(\eta^\prime(t))=\phi\left(\eta^\prime(t)\right)\end{equation} y $\eta^\prime(t)$ es un vector definido en cada punto de $\eta$ que a su vez es arbitraria siempre que su imagen y su último punto estén en la región simplemente conexa $U\subset{M}$, de modo entonces que en general
\begin{equation}d\varphi=\phi\end{equation} lo que prueba el lema para 1-formas.
Henri Poincaré dibujado por David Levine.
Fuente: www.nybooks.com/galleries/david-levine-illustrator

El lema de Poincaré naturalmente es válido para p-formas con $p\geq1$. El famoso libro de Nakahara, disponible en línea aquí, tiene una demostración sencilla que a lo más requiere la generalización de una nulhomotopía a un punto $p\in{U}$ como $H:U\times[0,1]\to{U}$ con $H(u,0)=u$ y $H(u,1)=p$ para $u\in{U}$ y la definición del pullback de una forma diferencial por una función. Seguramente también es posible generalizar los mismos pasos para p-formas que los que mostré para 1-formas, aunque probablemente sea más laborioso que la demostración de Nakahara; en general debe haber muchas formas y otras muy sencillas de probar el lema.

A fin de cuentas, de cualquier modo, el lema es prácticamente siempre, o lo que es lo mismo, es válido siempre localmente.

Traducción al cálculo vectorial en $\mathbb{R}^3$
Del lema de Poincaré surgen todas las propiedades lindas que se usan en termodinámica con derivadas parciales para las variables de estado; como sea, la situación es realmente más elaborada que esto, aunque a los físicos les sea poco útil esta formalidad.

En general todo espacio vectorial $V$ tiene un espacio dual $V^*$ en el sentido de que existen mapeos de $V$ en $\mathbb{R}$. En el caso de variedades, al menos siempre localmente, se puede proveer un isomorfismo (o difeomorfismo) entre ambos a través de la métrica. El caso de $\mathbb{R}^3$ es bastante lindo como motivación para aprender el lenguaje de las formas diferenciales, que si bien no cambian el contenido, hacen las cosas mucho más sencillas y elegantes. Un ejemplo es el electromagnetismo, que usualmente se formula usando cálculo vectorial, e.g. puedes consultar: Maxwell's equations in terms of differential forms (que en general también sirve para introducirse como físico a las formas diferenciales), y en general muchos temas en física matemática como las teorías de norma (GFT's) están formuladas en estos términos. Adelante sólo asumo primero tres dimensiones y luego paso a $\mathbb{R}^3$ (asumiendo coordenadas cartesianas).

La playera que se ha visto utilizan l@s jóvenes cool de hoy$$F=\frac{1}{2}F_{\mu\nu}dx^\mu\wedge{d}x^\nu$$
0-formas
Primero, en el caso de 0-formas o funciones $\varphi\in\Omega^0$, evidentemente el isomorfismo $\Omega^0\to\Omega^0=C^\infty$ es una identidad $\varphi\mapsto{\varphi}$.

1-formas
Para 1-formas $\phi\in\Omega^1$, se tiene localmente $\phi=\phi_idx^i$ y a través de una métrica, $g$ se obtiene
\begin{align}g^{-1}(\phi,\sigma)&=g^{ij}\phi_i\sigma_j\nonumber\\
&=g^{i\beta}\phi_i\sigma_\alpha\delta^\alpha_\beta\nonumber\\
&=g^{i\beta}\phi_i\p_\beta(\sigma_\alpha{d}x^\alpha)=\phi^i\p_i(\sigma)\end{align} esto es, $g^{-1}(\phi,\cdot)=g^{ij}\phi_i\p_j$, en general, $\phi\mapsto{g}^{-1}(\phi,\cdot)$. Ahora bien, considerando que $d:\Omega^p\to\Omega^{p+1}$, tenemos que $d\varphi\mapsto{g}^{ij}(\p_i\varphi)\p_j$ que en el caso del contradominio ${C}^\infty(\mathbb{R}^3,\mathbb{R}^3)$, con $g^{ij}=\delta^{ij}=\delta_{ij}$, se reduce a $d\varphi\mapsto\nabla\varphi$. Así, el lema de Poincaré en el cálculo vectorial Euclídeo se traduce en que campos conservativos son campos gradiente,
\begin{equation}\phi=d\varphi\longleftrightarrow\vec{\phi}=\nabla\varphi\end{equation} donde $\vec\phi={g}^{-1}(\phi,\cdot)$. La correspondencia mediante la métrica $g$ se llama el isomorfismo musical, que tiene tanto el isomorfismo $\sharp:\Omega^1\to{V}$ como su inversa $\flat:V\to\Omega^1$ (hasta donde sé, el nombre es simplemente por los símbolos de sostenido $\sharp$ y bemol $\flat$) y puede señalarse de manera más sencilla, e.g. en este caso el isomorfismo en términos de $\sharp$ es
\begin{equation}\phi\mapsto\phi^\sharp=g^{ij}\phi_i\p_j\end{equation}

2-formas
Para 2-formas $\omega\in\Omega^2$, localmente, $\omega=\omega_{ij}dx^i\wedge{d}x^j=\frac{\omega_{ij}}{2}(dx^i\otimes{d}x^j-dx^j\otimes{d}x^i)$. Ahora bien, aunque el isomorfismo musical puede extenderse en general para mandar $\bigotimes\limits^pT(M)$ en $\bigotimes\limits^pT^*(M)$ (que no es exactamente el espacio de p-formas) y viceversa, lo que nos interesa es mandar 2-formas en campos vectoriales o funciones. Si consideramos dos 1-formas $\alpha$ y $\beta$, localmente podemos formar la 2-forma
\begin{align}\alpha\wedge\beta&=\alpha_i\beta_j{d}x^i\wedge{d}x^j\nonumber\\
&=(\alpha_1\beta_2-\alpha_2\beta_1)dx^1\wedge{d}x^2+(\alpha_2\beta_3-\alpha_3\beta_2)dx^2\wedge{d}x^3+(\alpha_3\beta_1-\alpha_1\beta_3)dx^3\wedge{d}x^1\end{align} donde los coeficientes tienen exactamente la misma cara que los de un producto cruz de vectores 3-dimensional. El operador necesario en este caso es el dual (o estrella) de Hodge $\star:\Omega^p\to\Omega^{(n-p)}$, definido por
\begin{equation}\star(dx^{i_1}\wedge\cdots\wedge{d}x^{i_p})\equiv\frac{\sqrt{|g|}}{(n-p)!}{\epsilon^{i_1\cdots{i}_p}}_{j_1\cdots{j}_{n-p}}dx^{j_1}\wedge\cdots\wedge{d}x^{j_{n-p}}\end{equation} que entonces aquí mandará 2-formas en 1-formas a través de (asumo $\sqrt{|g|}=1$ en adelante)
\begin{equation}\star(dx^i\wedge{d}x^j)={\epsilon^{ij}}_kdx^k\end{equation} de modo que en tres dimensiones $\star(\alpha\wedge\beta)=\vec{\alpha}\times\vec{\beta}$ y entonces el isomorfismo $\Omega^2(\mathbb{R}^3)\to{C^\infty(\mathbb{R}^3,\mathbb{R}^3)}$ es (empleo $\{\mathrm{e}_i\}$ como la base de vectores)
\begin{equation}\omega\mapsto(\star\omega)^\sharp=\epsilon_{ijk}\omega_{ij}\mathrm{e}_k\end{equation} Si además $\omega$ es cerrada, también por lema de Poincaré $\omega=d\phi$ y así
\begin{equation}(\star\,d\phi)^\sharp=\epsilon_{ijk}\p_i\phi_j\mathrm{e}_k=\nabla\times\phi^\sharp\label{conm1}\end{equation} de modo que la versión equivalente del lema es $\vec{\omega}=\nabla\times\vec\phi$, i.e. la versión para campos rotacionales. Si nuevamente $\phi$ es cerrada y por el lema también exacta, se tiene la equivalencia de que los campos conservativos son también irrotacionales,
\begin{equation}\omega=d\phi=d^2\varphi=0\longleftrightarrow\vec\omega=\nabla\times\vec\phi=\nabla\times\nabla\varphi=0\end{equation}

3-formas
Finalmente la estrella de Hodge manda 3-formas $\psi\in\Omega^3$, localmente $\psi=\psi_{ijk}dx^i\wedge{d}x^j\wedge{d}x^k$ en 0-formas, entonces
\begin{equation}\psi\mapsto\star\psi=\epsilon^{ijk}\psi_{ijk}\end{equation} es un isomorfismo $\Omega^3\to\Omega^0=C^\infty$ inducido naturalmente. En este caso si $\psi=d\omega$, en $\mathbb{R}^3$,
\begin{equation}\star{d}\omega=\epsilon_{ijk}\p_k\omega_{ij}=\nabla\cdot(\star\omega)^\sharp\end{equation} de modo que el lema se traduce en $\star\psi=\nabla\cdot\vec\omega$; si aún a su vez $\omega=d\phi$, se tiene la equivalencia de que los campos rotacionales son libres de divergencia,
\begin{equation}\psi=d\omega=d^2\psi=0\longleftrightarrow\star\psi=\nabla\cdot\vec\omega=\nabla\cdot(\nabla\times\vec\phi)=0\end{equation} Nota de cualquier modo que también, en general para cualquier 1-forma $\zeta\in\Omega^1$ se puede formar
\begin{align}\star{d}\star\zeta&=\star{d}\left(\frac{1}{2}{\epsilon^{i}}_{jk}\zeta_idx^j\wedge{d}x^k\right)\nonumber\\
&=\star\left(\frac{1}{2}{\epsilon^{i}}_{jk}\p_\ell\zeta_i\,dx^\ell\wedge{d}x^j\wedge{d}x^k\right)\nonumber\\
&=\frac{1}{2}\epsilon^{\ell{j}k}{\epsilon^{i}}_{jk}\p_\ell\zeta_i=\delta^{\ell{i}}\p_\ell\zeta_i\stackrel{\mathbb{R}^3}{=}\nabla\cdot\zeta^\sharp\end{align} de manera que igualmente se puede construir $\star{d}\star{d}\varphi=\nabla\cdot\nabla\varphi$.

El complejo de De Rham
Esto usualmente se hace de manera inversa, es decir, pasando de las relaciones del cálculo vectorial a las de las formas diferenciales, de cualquier modo esta manera también es útil y asimismo sirve para notar la generalidad de las p-formas. El siguiente diagrama (formalmente llamado complejo de De Rham)
$$\matrix{ \Omega^0(\mathbb{R}^3) & \stackrel{d}{\longrightarrow} & \Omega^1(\mathbb{R}^3) & \stackrel{d}{\longrightarrow} & \Omega^2(\mathbb{R}^3) & \stackrel{d}{\longrightarrow} & \Omega^3(\mathbb{R}^3) \cr
\big\downarrow\small{\mathrm{Id}}& & \big\downarrow\small{\sharp} & & \big\downarrow\small{\sharp\circ\star} & & \big\downarrow\small{\star} \cr
C^\infty(\mathbb{R}^3) & \stackrel{\nabla}{\longrightarrow} & C^\infty(\mathbb{R}^3,\mathbb{R}^3) & \stackrel{\nabla\times}{\longrightarrow} & C^\infty(\mathbb{R}^3,\mathbb{R}^3) & \stackrel{\nabla\cdot}{\longrightarrow} & C^\infty(\mathbb{R}^3) \cr}$$ con
\begin{align}\mathrm{Id}(\varphi)&=\varphi\\
\sharp(\phi_idx^i)&=\phi_i\mathrm{e}_i\\
\sharp\circ\star(\omega_{ij}dx^i\wedge{dx}^j)&=\epsilon_{ijk}\omega_{ij}\mathrm{e}_k\\
\star(\psi_{ijk}dx^i\wedge{dx}^j\wedge{dx}^k)&=\epsilon^{ijk}\psi_{ijk}\end{align} encapsula de manera bastante concisa toda la información anterior. Como se vio, el diagrama conmuta, i.e. se llega al mismo lugar sin importar qué flechas se sigan.

El número de enlace de Gauss y el principio de incertidumbre electro-magnético

Hace un tiempo ya, leía la página de John Baez llamada Symmetries, Groups, and Categories en donde se cita este artículo:
Gauss Linking Number and Electro-magnetic Uncertainty Principle
Abhay Ashtekar, Alejandro Corichi

It is shown that there is a precise sense in which the Heisenberg uncertainty between fluxes of electric and magnetic fields through finite surfaces is given by (one-half $\hbar$ times) the Gauss linking number of the loops that bound these surfaces. To regularize the relevant operators, one is naturally led to assign a framing to each loop. The uncertainty between the fluxes of electric and magnetic fields through a single surface is then given by the self-linking number of the framed loop which bounds the surface.
Admito que desconocía este resultado, que Baez atribuye a Ashtekar y a Corichi, aunque es un tanto viejo (1997). Incluso tampoco había visto de cerca el número de enlace de Gauss, que es el invariante topológico de enlace de nudos más simple y cuyo alcance se dice es mucho mayor que sólo el de la física o las matemáticas, así que hace poco decidí leer acerca del tema y acá comparto un poquitín sobre ello (para el número de enlace sólo se requiere saber una pizquilla de electromagnetismo y/o cálculo vectorial, el resto lo tocaré de manera más superficial).

El número de enlace de Gauss
Consideremos un aro delgado por el que circula una corriente estacionaria $i$ (i.e. el caso estático) representado por una curva $\mc{C}^\prime$.


En este caso entonces en todos los puntos fuera de $\mc{C}^\prime$, la ley de Ampère-Maxwell se reduce a
\begin{equation}\nabla\times\vec{B}=0\end{equation} por lo que en esta región existe alguna $\psi$ tal que
\begin{equation}\vec{B}=-\nabla\psi\end{equation} En los cursos de electromagnetismo de licenciatura seguido se discute (o los alumnos deben investigar por su cuenta) las razones por las cuales este potencial escalar magnético $\psi$ es relativamente inútil; de cualquier modo aquí resultará en cierto modo relevante. Vale, en general, en magnetostática la forma más sencilla para determinar un campo $\vec{B}$ es la ley de Ampère "original" en forma integral,
\begin{equation}\oint\vec{B}\cdot{d}\vec{\ell}=\mu_0{i}\end{equation} de cualquier modo, si consideramos un circuito amperiano $\mc{C}$,


parametrizado por alguna función $\vec{r}:[a,b]\to\mathbb{R}^3$ con parámetro $\tau$ y tal que $\vec{r}(a)=\vec{r}(b)$, tenemos que
\begin{align}\mu_0{i}&=\oint\limits_\mc{C}\vec{B}(\vec{r})\cdot{d}\vec{r}=-\oint\limits_\mc{C}\nabla{\psi}(\vec{r})\cdot{d}\vec{r}\nonumber\\
&=-\int_a^b\nabla\psi\left(\vec{r}(\tau)\right)\cdot\dot{\vec{r}}(\tau)\,d\tau\nonumber\\
&=-\int_a^b\frac{d}{d\tau}\psi\left(\vec{r}(\tau)\right)\,d\tau\nonumber\\
&=\psi\left(\vec{r}(a)\right)-\psi\left(\vec{r}(b)\right)\end{align} y entonces el potencial $\psi$ es multivaluado, tomando múltiplos enteros de $\mu_0{i}$ por cada vuelta al circuito. Como se cita en el artículo de Ashtekar y Corichi, podemos interpretar este incremento del potencial como el trabajo $W$ hecho al mover un monopolo magnético a lo largo de $\mc{C}$ (aparentemente este argumento fue debido a Maxwell y no a Gauss como se señala). En general, podemos considerar deformar el aro $\mc{C}^\prime$ de forma que se enlace $n$ veces con el circuito amperiano $\mc{C}$. Estrictamente, para definir los enlaces o entrelazamientos entre ambas curvas, hay que considerar una superficie conexa cualquiera (a pesar de la ilustración) $\Sigma$ tal que $\p\Sigma=\mc{C}^\prime$ (o en su defecto $\p\Sigma=\mc{C}$) y contar las veces que $\mc{C}$ la intersecta (o $\mc{C}^\prime$ en el otro caso),


de modo que el trabajo o el incremento del potencial alrededor del circuito amperiano será
\begin{equation}W=n\mu_0{i}\label{potmulti1}\end{equation} Ahora bien, usualmente en los primeros cursos de electromagnetismo se tortura a los estudiantes con calcular a fuerza bruta el campo $\vec{B}$ en un punto $\vec{\mc{R}}$ cualquiera usando la ley de Biot-Savart, en este caso como
\begin{equation}\vec{B}(\vec{\mc{R}})=\frac{\mu_0i}{4\pi}\oint\limits_{\mc{C}^\prime}\frac{d\vec{r}^{\prime}\times(\vec{\mc{R}}-\vec{r}^\prime)}{|\vec{\mc{R}}-\vec{r}^\prime|^3}\end{equation} donde $\vec{r}^\prime$ son puntos en $\mc{C}^\prime$. Usando este resultado entonces se sigue también que
\begin{equation}W=\frac{\mu_0i}{4\pi}\oint\limits_\mc{C}\oint\limits_{\mc{C}^\prime}\frac{\left[d\vec{r}^{\prime}\times(\vec{r}-\vec{r}^\prime)\right]\cdot{d}\vec{r}}{|\vec{r}-\vec{r}^\prime|^3}\end{equation} Se define entonces
\begin{equation}\mc{G}\mc{L}(\mc{C},\mc{C}^\prime)\equiv\frac{1}{4\pi}\oint\limits_\mc{C}\oint\limits_{\mc{C}^\prime}\frac{\left[d\vec{r}^{\prime}\times(\vec{r}-\vec{r}^\prime)\right]\cdot{d}\vec{r}}{|\vec{r}-\vec{r}^\prime|^3}\label{gausslink2}\end{equation} como el llamado enlace de Gauss, que sabemos además, casi de manera gratuita por (\ref{potmulti1}), que es un entero positivo o nulo $n$ (siempre que $\mc{C}$ y $\mc{C}^\prime$ no se intersecten; no lo justifico, pero la cuestión seguramente es más sutil). Éstas dos últimas son, escritas ligeramente distinto, las dos primeras ecuaciones del artículo de Ashtekar y Corichi.

El número de enlace es relevante porque al ser un número entero, es también un invariante topológico al no depender de la forma de las curvas $\mc{C}$ y $\mc{C}^\prime$. Además, parece no tener relación alguna con la física que se usó para obtenerlo; de hecho se dice que Gauss simplemente lo introdujo para contar el número de veces que una curva cerrada circunda a otra curva cerrada en el espacio (aunque estaba motivado también por el magnetismo terrestre):
Una cuestión primordial en la interfase de la geometria situs y la geometria magnitudinis será la de contar los entrelazamientos de dos curvas cerradas o interminables.
Sean $x,y,z$ las coordenadas de un punto indeterminado en la primera curva; $x^\prime,y^\prime,z^\prime$ las de un punto en la segunda y sea
$$\iint\frac{(x^\prime-x)(dydz^\prime-dzdy^\prime)+(y^\prime-y)(dzdx^\prime-dxdz^\prime)+(z^\prime-z)(dxdy^\prime-dydx^\prime)}{\left[(x^\prime-x)+(y^\prime-y)^2+(z^\prime-z)^2\right]^\frac{3}{2}}=V$$ entonces esta integral tomada a lo largo de ambas curvas es
$$=4m\pi$$ siendo $m$ el número de entrelazamientos.
El valor es recíproco, i.e. se mantiene igual si las curvas se intercambian.
- traducción de la cita en Ricca & Nipoti, "Gauss Linking Number Revisited"
Y en efecto, tomando $\vec{r}=(x,y,z)$ y $\vec{r}^\prime=(x^\prime,y^\prime,z^\prime)$ en (\ref{gausslink2}) se tiene $4\pi\,\mc{G}\mc{L}(\mc{C},\mc{C}^\prime)=V$; además se puede comprobar que $\mc{G}\mc{L}(\mc{C},\mc{C}^\prime)=\mc{G}\mc{L}(\mc{C}^\prime,\mc{C})$. Al derivar este resultado, Gauss estaba pensando en ángulos sólidos, como se puede leer más en el artículo que cité de Ricca y Nipoti, sólo luego Maxwell elaboraría sobre esto con el argumento físico en base al trabajo que realiza el monopolo magnético.

Aunque no encontré la correspondencia entre Maxwell y Tait, esto es del Vol. II de A Treatise on Electricity and Magnetism.
La Fig. 4 muestra que también existe el caso en que $\mc{G}\mc{L}=0$ para dos curvas inseparables; el eslabón de Whitehead es otro ejemplo famoso.
Geometry of Position o Geometria Situs es el nombre vintage de la Topología.

De cualquier modo, de 1830 o 1860 a nuestra época hay una cantidad impresionante de matemáticas de por medio, por lo que es de esperar que existan numerosas generalizaciones y extensiones de este bello resultado. Sinceramente ignoro la gran mayoría; de cualquier modo algunos enlaces (en el espíritu de la física-matemática) que he encontrado relevantes son:

El principio de incertidumbre electro-magnético
Quizá en los cursos de E&M de licenciatura no se habla del número de enlace (o quizá dependa del profe) porque éste parece no tener importancia física alguna: al final se reduce al numerillo que le dice al alumno qué tantas vueltas está encerrando con su circuito amperiano cuando resuelve con ley de Ampère el problemita del campo $\vec{B}$ en las distintas regiones de un embobinado.
It turns out that the double integral $\mc{G}\mc{L}(L_1,L_2)$ does have a fundamental significance in electro-magnetism, which however, could not have been guessed before the advent of quantum field theory.
«Resulta que la integral doble $\mc{G}\mc{L}(L_1,L_2)$ sí tiene un papel fundamental en el electromagnetismo que, de cualquier modo, no hubiera podido ser descubierto antes de la aparición de la teoría cuántica de campo», dicen Ashtekar y Corichi en el artículo, que básicamente comienza con el paréntesis de Poisson
\begin{equation}\{B[\alpha],E[\beta]\}=\mc{G}\mc{L}(\alpha,\beta)\end{equation} (entre otras cosas, la ec. (1.4) es básicamente el teorema de Stokes usando $\vec{B}=\nabla\times\vec{A}$) y luego entonces proponen la segunda cuantización como
\begin{equation}\left[\hat{B}[\alpha],\hat{E}[\beta]\right]=i\hbar\,\mc{G}\mc{L}(\alpha,\beta)\end{equation} de modo que también que hay una incertidumbre de Heisenberg intrínseca en mediciones simultáneas de los campos eléctrico y magnético a través de superficies finitas que además depende del número de enlace de las fronteras de ambas superficies.

En el resto del artículo, los autores obtienen rigurosamente este resultado (que señalan es más bien al nivel del usual en física teórica que el de física matemática). No me puedo decir experto ni mucho menos, pero la cuestión parece ir algo así:

En general en una QFT los campos satisfacen un principio de incertidumbre con su momento conjugado en términos de promedios de ambos en distintas regiones espaciales (asumiendo tiempos iguales o al menos separación temporal). Básicamente los autores construyen un operador $\hat{E}[\beta]$ (e implícitamente también $\hat{B}[\alpha]$) bien definido en el espacio de Fock (la suma de espacios de Hilbert de los fotones) desplegando el campo (intento de traducción de smear; esto se hace en general en QFT, véase e.g. aquí la página 31 o más ampliamente aquí) con una distribución $f^{(\beta)}$ que luego determinan introduciendo reguladores como extender el circuito $\beta$ a un listón e introducir un corte ultravioleta para lidiar con una divergencia. Finalmente calculan el conmutador entre los operadores regulados y toman el límite para quitar los objetos reguladores (el listón, $\epsilon\to0$ y el corte ultravioleta, $\Lambda\to\infty$); extienden además el resultado a circuitos que se intersectan e incluso a cuando se trata del mismo circuito. En el caso más simple sin intersecciones, concluyen:

«La relación de incertidumbre $\displaystyle{\left(\Delta\hat{B}[\alpha]\right)\left(\Delta\hat{E}[\beta]\right)\geq\frac{\hbar}{2}\mc{G}\mc{L}(\alpha,\beta)}$ se afirma en el sentido de $\displaystyle{\lim_{\epsilon\to0}\frac{1}{\epsilon^2}\left(\lim_{\Lambda\to\infty}\left[\hat{B}[f^{(P_\alpha,\Lambda)}],\hat{E}[f^{(P_\beta,\Lambda)}]\right]\right)=i\hbar\,\mc{G}\mc{L}(\alpha,\beta)}$»

i.e. la incertidumbre electro-magnética proporcional al número de enlace está bien definida en los límites en que los operadores de ambos campos están bien definidos.

Finalmente, de nuevo, en esta nota de justo poco después de la fecha del artículo, John Baez escribe:
Quantum mechanics, electromagnetism, and knot theory are clearly quite tangled up here. Since the linking number was first discovered by Gauss in his work on magnetism, it's all quite fitting.


El teorema de Green y el profesor presuntuoso

Interpretación del teorema de Green.
Imagen:Math Insight
Hace poco tiempo me vi envuelto en una discusión con una profesora acerca del teorema de Green. Y bueno, estas cuestiones ocurren en todos lados, seguido nos topamos con profesores o en general autoridades, que quizá al sentirse comprometidas, no son capaces de aceptar que se equivocan o siquiera de intentar razonar; las cosas son -o no- porque así ellos lo deciden. Y quién sabe, pueden ser sólo malos días o qué sé yo. El meollo del asunto -como menciona el título de esta entrada- es pues, con el teorema de Green y la profesora presuntuosa. La profesora invalidó el resultado de un problema de examen porque mencionaba el uso del teorema de Green.

Bien, ya explico entonces la situación.

El problema pedía calcular $\displaystyle{\oint_{C^+}\mathbf{F}\cdot\mathrm{d}\mathbf{s}}$, donde ${\mathrm{d}\mathbf{s}}$ es el elemento de línea, ${C:\mathbb{R}\to\mathbb{R}^2}$ es una curva simple cerrada... ¡sí, en ${\mathbb{R}^2}$! y ${\mathbf{F}:\mathbb{R}^3\to\mathbb{R}^3}$. El alumno ha sugerido entonces utilizar el teorema de Green para resolver el problema, lo que casi le cuesta una mala nota, siendo que está en lo correcto.

El detalle es que en la literatura seguido se le llama teorema de Green en forma rotacional, o algo por el estilo, a la "aplicación del teorema de Green" en el espacio ${\mathbb{R}^3}$. A mi parecer es un tratamiento desafortunado, e incluso, en mi opinión, simplemente se debería tratar el tema como teorema de Stokes. Por supuesto me parece plausible el hablar de George Green, y mencionar el caso especial, pero creo que ahí debería quedar. Una situación similar sucede con las series de MacLaurin y las series de Taylor. El dilema es que suelen causar confusión entre alumnos primerizos y ahora hasta entre algunos profesores.

Supongamos para nuestro problema, que se tienen las funciones ${\mathbf{F}:\mathbb{R}^3\to\mathbb{R}^3}$ y ${f_1,f_2,f_3:\mathbb{R}^3\to\mathbb{R}}$ de clase ${C^1}$, de modo que ${\mathbf{F}=(f_1,f_2,f_3)}$. Aplicando el teorema de Kelvin-Stokes (en cursos básicos normalmente sólo se le llama teorema de Stokes, aunque Lord Kelvin comunicó esta forma del teorema a George Stokes) escribimos
$$\oint_{\partial{S}}\mathbf{F}\cdot\mathrm{d}\mathbf{s}=\iint\limits_S\left(\nabla\times\mathbf{F}\right)\cdot\mathbf{\hat{n}}\;\mathrm{d}S$$ donde S es alguna superficie en ${\mathbb{R}^3}$ cuya frontera es ${\partial{S}}$ y cuyo vector normal está dado por ${\mathbf{\hat{n}}}$; ${\mathrm{d}S}$ es el elemento de superficie. Para sentar ideas, se trata al espacio ${\mathbb{R}^3}$ como el dotado de ternas ${(x,y,z)}$, cuya base ortonormal se escribe ${\left\{\hat{\imath},\hat{\jmath},\hat{k}\right\}}$ y a ${\mathbb{R}^2}$ como un subespacio para el cual ${z=c}$ (constante). Con esto se tiene ya toda la información para resolver el problema, hagámoslo entonces; se tiene
$$\nabla\times\mathbf{F}=\left(\frac{\partial{f_2}}{\partial{z}}-\frac{\partial{f_3}}{\partial{y}}\right)\;\hat{\imath}+\left(\frac{\partial{f_3}}{\partial{x}}-\frac{\partial{f_1}}{\partial{z}}\right)\;\hat{\jmath}+\left(\frac{\partial{f_1}}{\partial{y}}-\frac{\partial{f_2}}{\partial{x}}\right)\;\hat{k}$$ sin embargo, no era necesario aventurarse a hacer esto, ya que se tiene la valiosa información de que ${z=c}$, por lo que notamos que ${\mathbf{\hat{n}}=\frac{\partial\mathbf{r}}{\partial{x}}\times\frac{\partial\mathbf{r}}{\partial{y}}=\hat{k}}$ donde $\mathbf{r}$ es una parametrización de S en este espacio. De aquí surge la llamada forma rotacional del teorema de Green, que se caracteriza por la identidad
$$\oint_{\partial{S}}\mathbf{F}\cdot\mathrm{d}\mathbf{s}=\iint\limits_D\left(\nabla\times\mathbf{F}\right)\cdot\hat{k}\;\mathrm{d}A$$ donde D es la región encerrada por ${\partial{S}}$ (es decir, una superficie plana) y ${\mathrm{d}A}$ el elemento de área de dicha región. Esto se considera una generalización en el espacio del teorema de Green, sin embargo sigue siendo simplemente un caso del teorema de Stokes. Regresando al dilema de la profesora, pues, se llega a la identidad
$$\oint_{\partial{S}}\mathbf{F}\cdot\mathrm{d}\mathbf{s}=\iint\limits_D\left(\frac{\partial{f_1}}{\partial{y}}-\frac{\partial{f_2}}{\partial{x}}\right)\;\mathrm{d}x\;\mathrm{d}y$$ que es precisamente la que caracteriza al teorema de Green. El argumento de la profesora, era que el teorema de Green pide funciones ${f_1,f_2:\mathbb{R}^2\to\mathbb{R}}$ (estrictamente de regiones simples a $\mathbb{R}$), es decir, involucrar un campo ${\mathbf{F}:\mathbb{R}^2\to\mathbb{R}^2}$, y así de fácil se estaba tomando la libertad de trasgredir la nota del compañero. Pues sí, estrictamente el teorema de Green así lo pide, sin embargo he ahí el problema con las etiquetas empleadas en la literatura que luego simplemente decidimos a memorizar cual pericos sin entender realmente cómo se están empleando y de dónde han surgido, pues el fallo no fue del alumno, sino de la profesora al penalizar algo que en esencia es correcto y no muestra ningún fallo en absoluto y que más bien muestra el poco entendimiento o cuidado que se tuvo desde un principio al redactar el problema.

Y pues sí, la discusión se tornó un poco intensa. En realidad la situación -en mi experiencia- es rara, pues casi siempre se antepone -y sobre todo al hacer matemáticas- la verdad antes que el orgullo de uno estar en lo correcto. Pero siempre hay personalidades peculiares o malos días o exceso de trabajo o demás estados extraños que no suelen favorecer. En fin.

El Teorema de la Divergencia, la Ley de Gauss y la Ley de Coulomb

En muchas ocasiones (no sé si ocurra en todos lados), en física, los primeros cursos que se dan prescinden de herramientas matemáticas necesarias para un entendimiento suficiente de la materia que se trata, por ejemplo un primer curso de mecánica clásica normalmente prescinde de la geometría diferencial de curvas, un primer curso de hidrodinámica o un primer curso de electromagnetismo prescinden del análisis vectorial, etc... Siempre me ha sido molesto el que se haga de ese modo, y en lo personal he pasado bastantes horas infernales luchando por entender situaciones que luego me resultarían tan inocentes (como la que expongo en esta entrada). Entiendo que seguido el prescindir del formalismo matemático ayuda a la intuición física, sin embargo cuando la situación se vuelve más abstracta y más general, el no usar correcta y hábilmente (si bien no necesariamente también formalmente) las herramientas matemáticas necesarias, se vuelve un dolor de cabeza innecesario y un impedimento que obliga a memorizar y a escribir símbolos simplemente por hacerlo (léase: aprobar cursos).

Un ejemplo claro es este vídeo, cuando se dicen cosas como "I did decently in physics and I remember (the balls fall at a constant speed)" o "Like... in real life?" ("He salido decentemente en física y recuerdo (que los balones caen con velocidad constante)" o "Como... ¿en la vida real?")

La gente suele aprehender más por memoria que por entendimiento, y aunque no digo que lo sea todo, poder argumentar lógicamente, por ejemplo, por qué la aceleración de los balones (caída libre) es independiente de su masa, es clave para lograr un entendimiento amplio de la situación. A pesar de mi patológico rechazo a la multitud, sé que las personas no son estúpidas y sé que disfrutan entender las cosas al igual que yo lo hago.
Ach, die Physik! Die ist ja für die Physiker viel zu schwer! (David Hilbert)
Como sea, aquí muestro la relación entre la ley de Coulomb del inverso del cuadrado de la distancia, la ley de Gauss, la correspondiente ecuación de Maxwell y el teorema de la divergencia, comenzando por los dos últimos; la razón de todo el preámbulo fue que en un curso introductorio de electrostática y magnetostática en que se trataba la ley de Gauss y la ley de Coulomb, siempre me resultó oscura y diarreicamente infernal la ley de Gauss y las misteriosas integrales con el maldito circulito en medio y cómo demonios las calculaba el profesor ¡¡¡!!!; el consejo que daría para leer esto entonces sin sentir náuseas, como yo, se sigue por obviedad.

Partiendo de la ecuación de Maxwell, $$\nabla\cdot\mathbf{E}=\frac{\rho}{\varepsilon_0}$$ donde $\rho$ es una densidad de carga (distribuida) sobre un volumen $V$; aplicando el teorema de la divergencia obtenemos $$\int\limits_V\nabla\cdot\mathbf{E}\,\mathrm{d}V=\frac{\rho}{\varepsilon_0}\int\limits_V\mathrm{d}V=\frac{\rho\,V}{\varepsilon_0}\,\Longrightarrow\,\oint\limits_S\mathbf{E}\cdot\mathrm{d}\mathbf{S}=\frac{\rho\,V}{\varepsilon_0}$$ donde $S\equiv\p{V}$ es la superficie frontera (cerrada) de $V$ y ya que ${\rho=\frac{q}{V}}$ $$\oint\limits_S\mathbf{E}\cdot\mathrm{d}\mathbf{S}=\frac{q}{\varepsilon_0}$$
Imagen (si ves este texto, recarga la página)
i.e. la Ley de Gauss con $q$ encerrada por la superficie $S$.

Ahora supóngase que el campo eléctrico que produce $q$ es esféricamente simétrico, i.e. ${\mathbf{E}=E(r)\,\mathbf{\hat{r}}}$ y la carga es estacionaria, en ese caso, tomando la superficie $S$ como una esfera de radio $r$ que encierra a $q$, $$\oint\limits_S\mathbf{E}\cdot\mathrm{d}\mathbf{S}=\oint\limits_S\left(\mathbf{E}\cdot\mathbf{\hat{r}}\right)\mathrm{d}S=r^2E(r)\int_0^{2\pi}\int_0^\pi\sin\varphi\,\mathrm{d}\varphi\,\mathrm{d}\theta=4\pi{r}^2\,E(r)$$ es decir $$E(r)=\frac{1}{4\pi\varepsilon_0}\frac{q}{r^2}\hspace{0.25in}\Longleftrightarrow\hspace{0.25in}\mathbf{E}=\frac{1}{4\pi\varepsilon_0}\frac{q}{r^2}\,\mathbf{\hat{r}}$$ que es (en términos de $E$) la famosísima Ley de Coulomb.
Imagen (si ves este texto, recarga la página)
Calcular lo anterior me ha servido mucho más que haber hecho X (MUCHOS) ejercicios y cálculos sin entender qué jodidos estaba haciendo y simplemente repitiéndome "El flujo eléctrico a través de una superficie cerrada es proporcional a la carga que encierra dicha superficie". Al menos en mi persona perdura mucho más la impresión que causa una demostración matemática (para descubrir la ley de Gauss y su forma diferencial, es decir, la ecuación de Maxwell, se hace en sentido opuesto por obviedad). Ignoro si Gauss formuló el teorema de la divergencia con física en su mente, aunque lo más probable sea que no, ya que toma en cuenta cualquier campo en ${\mathbb{R}^3}$. Fundamentalmente las matemáticas y la física son lo mismo; pero creo que se requiere tanta intuición e imaginación para descubrir nueva matemática, como método, razón y rigor para entender a la naturaleza.

Fuente de imágenes: Wikipedia

No olvides el Jacobiano

Hoy tuve una duda que en realidad no es difícil de esclarecer mas sí tal vez de demostrar. Sean $\mathcal{S}$ y ${\mathcal{S}^*}$ regiones en el espacio ${\{x,y,z\}\subseteq\mathbb{R}^3}$ y ${\{u,v,w\}\subseteq\mathbb{R}^3}$ respectivamente, en correspondencia mediante ${T:\mathcal{S}^*\rightarrow\mathcal{S}}$, con T de clase ${C^1}$ e inyectiva y ${\mathcal{S}=T\left(\mathcal{S}^*\right)}$, entonces para ${f:\mathcal{S}\rightarrow\mathbb{R}}$,
$$\iiint\limits_{\mathcal{S}}f\,\left(x,\,y,\,z\right)\mathrm{d}x\mathrm{d}y\mathrm{d}z=\iiint\limits_{\mathcal{S}^*}f\,\left[x(u,\,v,\,w),\,y(u,\,v,\,w),\,z(u,\,v,\,w)\right]\left|\frac{\partial{\left(x,\,y,\,z\right)}}{\partial{\left(u,\,v,\,w\right)}}\right|\mathrm{d}u\mathrm{d}v\mathrm{d}w$$ Claro que -al menos en mi experiencia- suelen ahorrarse los detalles de lo anterior o el origen del mismo y uno le debe creer religiosamente a los matemáticos.

Una pregunta natural es, ¿por qué es necesario el término ${\left|\frac{\partial{\left(x,\,y,\,z\right)}}{\partial{\left(u,\,v,\,w\right)}}\right|}$, es decir el Jacobiano de T? En dos variables, para regiones elementales $\mathcal{D}$ y ${\mathcal{D}^*}$ del plano, con ${T:\mathcal{D}^*\rightarrow\mathcal{D}}$ de clase ${C^1}$ e inyectiva y para ${f:\mathcal{D}\rightarrow\mathbb{R}}$, uno inocentemente supondría que
$$\iint\limits_{\mathcal{D}}f\,(x,\,y)\mathrm{d}x\mathrm{d}y\overset{?}{=}\iint\limits_{\mathcal{D}^*}f\,\left[x(u,\,v),\,y(u,\,v)\right]\mathrm{d}u\mathrm{d}v$$ pero T transforma regiones de un espacio a otro y el determinante que falta en el lado derecho de la ecuación es precisamente la medida de distorsión de esa transformación. Para aplicaciones ${T:\mathbb{R}^2\rightarrow\mathbb{R}^2}$ el jacobiano medirá la distorsión de un área y de manera análoga para ${T:\mathbb{R}^3\rightarrow\mathbb{R}^3}$ de un volumen. También la integral del valor absoluto del jacobiano será ya sea área, volumen o lo que le siga de las respectivas regiones en los respectivos espacios.

Esta es la parte difícil de demostrar, de cualquier modo se puede seguir la generalización desde el silvestre cálculo de una variable, donde se tiene para ${f:u\mapsto{x(u)}}$ de clase ${C^1}$ en ${[a,b]}$.
$$\int_{x(a)}^{x(b)}f(x)\,\mathrm{d}x=\int_a^{b}f\left[x(u)\right]\frac{\mathrm{d}x}{\mathrm{d}u}\,\mathrm{d}u$$ Sean ${\mathcal{I}^*=[a,b]}$, ${\mathcal{I}=[x(a),x(b)]}$ para f creciente e ${\mathcal{I}=[x(b),x(a)]}$ para f decreciente, entonces
$$\int\limits_{\mathcal{I}}f(x)\,\mathrm{d}x=\int\limits_{\mathcal{I}^*}f\left[x(u)\right]\left|\frac{\mathrm{d}x}{\mathrm{d}u}\right|\,\mathrm{d}u$$ de ahí se sigue fácilmente la generalización para cualquier espacio.