En esta sección se presentan ejercicios cuyo objetivo es introducir \(1\)-formas y (tal vez más importante) la integral de \(1\)-formas.
Al final de la sección concluiremos que las \(1\)-formas son bastante sencillas (van a resultar ser simplemente funciones lineales) pero lo importante es cómo las \(1\)-formas nos ayudan a definir una integral 1-dimensional (integral de línea).
De manera muy general, una integral 1-dimensional es una función que asigna números a objetos 1-dimensionales. Esta función no es cualquier función, sino que se le pide que cumpla ciertas condiciones de aditividad, orientabilidad y continuidad. Se empiezan con los objetos uno dimensionales más sencillos (los segmentos de recta) y con \(1\)-formas constantes (también las más sencillas).
Los objetos uno dimensionales más sencillos son los segmentos de rectas, así que es bueno tener una definición y notación para ellos.
Un segmento de recta dirigido en \(\mathbb{R}^n\) es un segmento donde se especifíca el punto inicial y el punto final.
Si \(P\) es el punto inicial y \(Q\) es el punto final, el segmento de \(P\) a \(Q\), denotado por \(\overrightarrow{PQ}\) es
\[ \overrightarrow{PQ}=\{(1-t)P+tQ: t\in [0,1]\} \]Una función \(\gamma: I \to \mathbb{R}^n\), donde \(I\) es un intervalo de \(\mathbb{R}\), se llama una parametrización de \(\overrightarrow{PQ}\) si \[ \overrightarrow{PQ}=\{ \gamma(t) : t\in I \}. \] Un mismo segmento puede tener varias parametrizaciones. Por ejemplo, \(\gamma(t)=(1-t)P+tQ\) es una parametrización de \(\overrightarrow{PQ}\), pero también los es \(\eta(t)=(1-t^2)P+t^2Q\).
Si \(\omega\) satisface estas condiciones se llama \(1\)-forma constante. Intuición: si uno se imagina que \(\omega\) "recorre" el segmento \(\seg{PQ}\), estas reglas no son tan misteriosas.
Supongamos que \(\omega\) es una \(1\)-forma constante que satisface:
\[ \omega[\seg{OR}]=-1, \, \omega[\seg{PQ}]=3, \]donde \(O\) denota a el origen, \(R=(2,0), P=(4,2)\) y \( Q=(4,6)\).
Ahora trasladamos \(\seg{RS}\) hacia \(\seg{PQ}\) de la siguiente forma:
\[ R+(2,2)=P, \, S+(2,2)=Q \]De la invarianza de \(\omega\) bajo traslaciones llegamos \(\omega[\seg{RS}]=\omega[\seg{PQ}]=3\) y concluimos
\[ \omega[\seg{OS}]=-1+3=2. \]
Además, ya que \(\omega\) es invariante bajo traslaciones, sumando \((1,0)\) llegamos a \( \omega[\seg{OP_{-1}}]=\omega[P_1O] \). De lo anterior concluimos que, para todo \(n\in \mathbb{Z}\), \[ \omega[\seg{OP_n}]=n\omega[\seg{OP_1}] \] Así, sólo resta encontrar el valor de \(\omega[\seg{OP_1}]\). Pero \[ \omega[\seg{OP_1}]+\omega[\seg{P_1P_2}]=\omega[\seg{OR}]=-1 \] y \(\omega[\seg{OP_1}]=\omega[\seg{P_1P_2}]\), por lo que \[ 2\omega[\seg{OP_1}]=-1 \Rightarrow \omega[\seg{OP_1}]=\frac{-1}{2} \]
Concluimos que, para todo \(n\in \mathbb{Z}\) \[ \omega[\seg{OP_n}]=-\frac{n}{2} \]
¿Sigue siendo válido el inciso anterior?
Este ejercicio es importante pues veremos en el siguiente ejercicio que toda acción de una \(1\)-forma constante se puede obtener de esta manera.
Este ejercicio es útil pues da una condición para que una función aditiva sea lineal.
Sea \(f: \mathbb{R}^n \to \mathbb{R}\) una función aditiva (ver Ejercicio 10.8 ). Prueba:
Sugerencia: empieza con \(r\) un natural, luego un entero y finalmente de la forma \(n/m\).
Una \(1\)-forma constante \(\omega\), se llama continua si \[ \lim_{P\to Q}\omega[\seg{PQ}]=0 \]
Prueba que si \(\omega\) es continua entonces \[ \lim_{P\to R}\omega[\seg{PQ}]=\omega[\seg{RQ}], \quad \lim_{Q\to R}\omega[\seg{PQ}]=\omega[\seg{PR}] \]
Sea \(\omega\) una \(1\)-forma constante y continua. Prueba que existe una función lineal \(f:\mathbb{R}^n \to \mathbb{R}\) tal que \[ \omega[\seg{PQ}]=f(Q)-f(P) \] Sugerencia: usa los ejercicios 10.9 y 10.11
Sea \(\omega\) una \(1\)-forma constante y continua en \(\mathbb{R}^3\). Entonces existen constantes \(A,B,C\in \mathbb{R}\) tal que para todo segmento \(\seg{PQ}\) en \(\mathbb{R}^3\): \[ \omega[\seg{PQ}]=A(x_1-x_0)+B(y_1-y_0)+C(z_1-z_0) \]
De manera más general, si \(\omega\) es una \(1\)-forma constante y continua en \(\mathbb{R}^n\), entonces existen constantes \(A_1,\dots, A_n \in \mathbb{R}\) tales que \[ \omega[\seg{PQ}]=\sum_{j=1}^n A_j(q_j-p_j) \] donde \(P=(p_1,\dots, p_n), Q=(q_1,\dots, q_n)\).
Por el ejercicio 1.14, existe una función lineal \(f: \mathbb{R}^3 \to \mathbb{R}\) tal que \[ \omega[\seg{PQ}]=f(Q)-f(P) \] Tomamos \[ A=f(1,0,0), B=f(0,1,0), C=f(0,1,0) \] Al ser \(f\) lineal tenemos que, para cualquier punto \((x,y,z)\) \begin{eqnarray} f(x,y,z)&=&xf(1,0,0)+yf(0,1,0)+zf(0,0,1)\\ &=&Ax+By+Cz \end{eqnarray} Por lo tanto \begin{eqnarray} f(Q)-f(P)&=&Aq_1+Bq_2+Cq_3-(Ap_1+Bp_2+Cp_3) \\ &=&A(q_1-p_1)+B(p_2-q_2)+C(q_3-p_3) \end{eqnarray} y concluimos \[ \omega(\seg{PQ})=A(q_1-p_1)+B(q_2-p_2)+C(p_3-q_3) \]
Dado \(V\), un espacio vectorial sobre \(\mathbb{R}\), denotamos
\[ V^*=\{\varphi: V \to \mathbb{R}: \textrm{\(\varphi\) es lineal }\} \]este conjunto es importante dentro de la teoría y se llama el dual de \(V\).
Sólo probaremos el segundo inciso.
Por \(\pi_j\) vamos a denotar la proyección sobre la coordenada \(j\), es decir \[ \pi_j(p_1,\dots p_n)=p_j. \] Sabemos que las \(\pi_j\) son funciones lineales, por lo tanto \(\beta:=\{\pi_1,\dots, \pi_n\} \subset (\mathbb{R}^n)^*\). Afirmamos que \(\beta\) es una base para \((\mathbb{R}^n)^*\)
Primero vamos a ver que \(\beta\) es linealmente independiente. Supongamos que \[ \varphi= c_1 \pi_1+\cdots c_n\pi_n \] es la función idénticamente cero, es decir, para toda \(P\in \mathbb{R}^n\) \[ 0=\varphi(P)=c_1\pi_1(P)+\cdots c_n\pi_n(P). \] Vamos a denotar por \(e_j\) el vector que tiene todas las entradas cero, excepto por la entrada \(j\), donde tiene un 1 (la base canónica). Tomando \(P=e_1\) notamos que \(\pi_j(P)=0\) si \(j\ne 1\) y \(\pi_1(P)=1\). Por lo tanto \[ 0=\varphi(P)=c_1\pi_1(P)+\cdots + c_n \pi_n(P)=c_1 \] por lo que \(c_1=0\). De manera similar, tomando \(P=e_j\), obtenemos que \(c_j=0\), para toda \(j=1,\dots, n\) y concluimos que \(\beta\) es linealmente independiente.
Ahora vamos a probar que \(\beta\) genera a \((\mathbb{R})^n\). Tomamos \(\psi \in (\mathbb{R}^n)^*\) fijo y arbitrario. Al ser \(\psi \) una función lineal tenemos que, para toda \(P=(p_1,\dots p_n)\in \mathbb{R}^n\): \[ \psi(P)=\psi(\sum_{j=1}^n p_j e_j )=\sum_{j=1}^n p_j \psi(e_j). \] Dentemos \(A_j=\psi(e_j)\). Con esta notación \[ \psi(P)=\sum_{j=1}^n A_j p_j. \] Pero notamos que, \(\pi_j(P)=p_j\), por lo que podemos reescribir la igualdad anterior como \[ \psi(P)=\sum_{j=1}^n A_j \pi_j(P), \quad \forall P\in \mathbb{R}^n, \] es decir, como funciones \(\psi\) y \(\sum_{j=1}A_j \pi_j\) son iguales, por lo que concluimos que \(\beta\) genera a \((\mathbb{R}^n)^*\).
Ahora sí, podemos dar la definición de lo que es una \(1\)-forma y hacer clara la distinción entre lo que es una \(1\)-forma y lo que hace.
Una \(1\)-forma constante y continua en \(\mathbb{R}^n\) es simplemente una función lineal de \(\mathbb{R}^n\) a \(\mathbb{R}\).
Ahora veamos la notación de las \(dx_j\). Recuerda que la función que se obtiene proyectando sobre la \(j\)-ésima coordenada de \(\mathbb{R}^n\) es una función lineal, la cual vamos a denotar (por el momento) por \(dx_j\), es decir \[ dx_j(P)=p_j \] donde \(P=(p_1,\dots, p_n)\).
Con esta notación, toda \(1\)-forma constante y continua, \(\omega\), es combinación lineal de las proyecciones: \[ \omega=A_1dx_1+\cdots + A_n dx_n \] de ahí sale la notación con las \(dx_j\).
Nota: en la siguiente sección la notación \(dx_j\) va a significar algo ligeramente distinto.
Finalmente, la \(1\)-forma \(\omega\) actua sobre el segmento \(\seg{PQ}\) como: \[ \int_{\seg{PQ}}\omega = A_1(q_1-p_1)+\cdots + A_n(q_n-p_n) \] En la notación anterior, \(\omega[\seg{PQ}]=\int_{\seg{PQ}}\omega\).
Con ésta notación se escribe: \[ \omega=A_1dx_1+A_2dx_2+\cdots +A_ndx_n \]
Por ejemplo \(\omega= ydx+ xdy\) es una 1-forma diferenciable en \(\mathbb{R}^2\) y \(\eta = \sqrt{y}dx+\sqrt{x}dy \) es una 1-forma diferenciable en \((0,\infty)\times (0,\infty)\). En estos ejemplos, tenemos que las 1-formas constantes, en el punto \((9,16)\in \mathbb{R}^2\), son respectivamente: \[ \omega_{(9,16)}=16dx+9dy, \quad \eta_{(9,16)}=4dx+3dy \]
Nota: si además las funciones \(A_1,\dots, A_n\) son clase \(C^k\) en \(U\) (para algún \(k=1,2,\dots\)) decimos que la 1-forma diferenciable es clase \(C^k\).
Es buen momento para ver la notación \(dx_j\) otra vez. En la sección pasada, justo al final en la conclusión, se usaba \(dx_j\) para denotar 1-forma constante que es la proyección sobre la \(j\)-ésima coordenada, es decir \[ dx_j(p_1,\dots, p_n)=p_j \] Pero de ahora en adelante \(dx_j\) va a denotar la 1-forma diferenciable tal que, a cada punto \(p\) del dominio, le asigna la 1-forma constante que es la proyección a la \(j\)-ésima coordenada. Por ejemplo, si escribieramos todos los parámetros para \(dx_j\) tendríamos \[ (dx_j)_{(q_1,\dots, q_n)}(p_1,\dots, p_n)=p_j \] donde \((q_1,\dots, q_n)\) es un punto cualquier.
Esta distinción puede pensarse como la que se hace entre una una constante y la función constante. Por ejemplo en la función \(f(x)=3\), la función \(f\) sería \(dx_j\) y el 3 sería la proyección en la coordenada j.
Primero encontremos \(R\) tal que \(\omega_{R} = 3dx + 4dy\). Entonces tenemos que resolver el siguiente sistema de ecuaciones:
\[ \left\{ \begin{array}{cccc} 2x & +y & = & 3 \\ -6x & -2y & = & 4 \\ \end{array} \right. \]El cual tiene como única solución \(x = -5 \) y \( y = 13\), es decir el punto \(R\) tal que \(\omega_{R} = 3dx + 4dy\), es \(R = (-5,13)\).
Ahora encontremos \(R\) tal que \(\omega_{R} = 0\). Nuevamente tenemos que resolver el siguiente sistema de ecuaciones:
\[ \left\{ \begin{array}{cccc} 2x & +y & = & 0 \\ -6x & -2y & = & 0 \\ \end{array} \right. \]No es difícil verificar que este sistema tiene como única solución a \(x = 0 \) y \( y = 0\), es decir el punto \(R\) tal que \( \omega_{R} = 0\), es \(R = (0,0)\).
Por último, encontremos \(R\) tal que \(\omega_{R} = dx\). Entonces el sistema de ecuaciones a resolver es el siguiente:
\[ \left\{ \begin{array}{cccc} 2x & +y & = & 1 \\ -6x & -2y & = & 0 \\ \end{array} \right. \]El cual tiene como única solución \(x = -1 \) y \( y = 3\), es decir el punto \(R\) tal que \(\omega_{R} = dx\), es \(R = (-1,3)\).
Considera la 1-forma diferenciable, \(\omega=3x^2dx+(y^2+1)dy\). Para los siguientes puntos \(P,Q,R\) y tomando la 1-forma constante \(\omega_R\) calcula \(\int_{\overrightarrow{PQ}} \omega_R \).
Sea \(U \subseteq \mathbb{R}^n\) un abierto. Dada \(f: U \to \mathbb{R}\), una función de clase \(C^1\), su derivada exterior, denotada \(df\), se define como la 1-forma diferenciable dada por \[ df= \partial_{x_1}f dx_1+ \partial_{x_2}f dx_2+\cdots + \partial_{x_n}f dx_n \] donde \(\partial_{x_j}f\) denota la derivada parcial de \(f\) con respecto a la variable \(x_j\).
Por ejemplo, si \(f(x,y,z)=xy+y^2z\), su derivada exterior es \[ df= y dx + (x+2yz)dy+ y^2 dz \] además, si \(P=(1,-2,\pi)\) entonces \[ (df)_P=-2dx+(1-4\pi)dy+4dz \]
Nota: para que \(df\) sea una 1-forma diferenciable (según la definición de 1-forma diferenciable ) debemos pedir que cada \(\partial_{x_j}f \), \(j=1,\dots, n\), sea diferenciable, lo cual pasa si la función \(f\) con la que empezamos es clase \(C^2\).
Resolvamos 1. Primero encontremos las parciales de \(f\) con respecto a \(x\), \(y\) y \(z\). Entonces sacando las parciales tenemos
\[ \begin{array}{ccccc} \partial_{x}f(x, y, z) & = & 2x & +y & +z \\ \partial_{y}f(x, y, z) & = & 2y & +x \\ \partial_{z}f(x, y, z)& = & 2z & +x \end{array} \] Lo cual nos permite tener la derivada exterior de \(f\), que esta dada por \[ df = (2x + y + z)dx + (2y + x)dy + (2z + x)dz \]Lo siguiente es encontrar los puntos \(P\) tal que \(df_{P} = 0\). Y para ello tenemos que resolver el siguiente sistema de ecuaciones:
\[ \left\{ \begin{array}{ccccc} 2x & +y & +z & = & 0 \\ x & +2y & & = & 0 \\ x & & +2z & = & 0 \end{array} \right. \]Tal sistema de ecuaciones tiene como única solución a \(x = 0\), \(y = 0 \) y \( z = 0\). Por lo tanto el punto \(P\) tal que \(df_{P} = 0\), es \(P = (0,0,0)\).
Ahora veamos 2. Nuevamente sacamos las parciales de \(f\) con respecto de \(x\) y \(y\), las cuales son,
\[ \begin{array}{ccc} \partial_{x}f(x, y) & = & ye^{xy} \\ \partial_{y}f(x, y) & = & xe^{xy} \\ \end{array} \]Lo cual nos permite tener la derivada exterior de \(f\), que esta dada por \[ df = ye^{xy} dx + xe^{xy} dy \] Lo siguiente es encontrar los puntos \(P\) tal que \(df_{P} = 0\). Y para ello tenemos que resolver el siguiente sistema de ecuaciones.
\[ \left\{ \begin{array}{ccccc} ye^{xy} & = & 0 \\ xe^{xy} & = & 0 \end{array} \right. \]Como \(e^{xy} > 0\) para toda \((x,y) \in \mathbb{R}^{2}\). Entonces la única solución al sistema de ecuaciones es \(x = 0\) y \(y = 0\). Por lo tanto el punto \(P\) tal que \(df_{P} = 0\), es \(P = (0,0)\).
Por último resolvamos 3. Sacamos las parciales de \(f\) con respecto de \(x_{1}, . . . , x_{n}\), las cuales son,
\[ \begin{array}{ccc} \partial_{x_{1}}f(x_{1}, x_{2}, . . . , x_{n}) & = & 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) \\ \partial_{x_{2}}f(x_{1}, x_{2}, . . . , x_{n}) & = & 2(x_{1} + x_{2}) \\ & \vdots & \\ \partial_{x_{n}}f(x_{1}, x_{2}, . . . , x_{n}) & = & 2(x_{1} + x_{n}) \end{array} \]Lo cual nos permite tener la derivada exterior de \(f\), que esta dada por \[ df = \left( 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) \right)dx_{1} + 2(x_{1} + x_{2})dx_{2} + . . . + 2(x_{1} + x_{n}) dx_{n} \]
Lo siguiente es encontrar los puntos \(P\) tal que \(df_{P} = 0\). Y para ello tenemos que resolver el siguiente sistema de ecuaciones.
\[ \left\{ \begin{array}{ccc} 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) & = & 0 \\ 2(x_{1} + x_{2}) & = & 0 \\ \vdots & & \\ 2(x_{1} + x_{n}) & = & 0 \end{array} \right. \]Como \(2(x_{1} + x_{i}) = 0\) para \(2 \leq i \leq n\), se sigue que \(\sum_{i=2}^{n}2(x_{1} + x_{i}) = 0\). Lo cual implica que \(8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) = 8x_{1}\). Pero por otro lado \( 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) = 0\), es decir \(x_{1} = 0\). Lo cual implica que para \(2 \leq i \leq n\), \(x_{i} = 0\) ya que \(2(x_{1} + x_{i}) = 0\) y \(x_{1} = 0\).
Por lo tanto la única solución al sistema de ecuaciones es \(x_{i} = 0\) para toda \(1 \leq i \leq n\). Es decir que el punto \(P\) tal que \(df_{P} = 0\), es \(P = (0,0, . . . ,0)\).
Por \(B_r(P)\) denotamos la bola abierta en \(\mathbb{R}^n\) centrada en \(P\) y de radio \(r\). Sea \(f:B_r(P) \to \mathbb{R}\) una función clase \(C^1\). Demuestra que si \(df =0 \) entonces \(f\) es una función constante.
Una 1-forma diferenciable \(\omega \) se llama exácta si existe una función diferenciable \(f\) tal que \[ df = \omega \] Si escribimos \(\omega = A_1 dx_1 + \cdots + A_n dx_n\), lo anterior equivale a encontrar una función \(f\) tal que \begin{equation}\label{Eqn:1-formaExacta} \partial_{x_1}f=A_1 , \cdots, \partial_{x_n} f=A_n \end{equation} En el fondo, decidir que una 1-forma \(\omega=A_1dx_1+\cdots +A_ndx_n\) es exácta es equivalente a decir que el campo vectorial \(\mathbb{F}=(A_1,\dots, A_n)\) es conservativo. A decir verda el nombre de exácta viene de ecuaciones diferenciales, como se menciona en el ejercicio siguiente.
Una ecuación diferencial de la forma \begin{equation}\label{Eqn:EcuDifExact} M(x,y)+N(x,y)\frac{dy}{dx}=0 \end{equation} se llama exácta, si existe una función escalar \(f(x,y) \) tal que \[ \partial_x f(x,y)=M(x,y) \quad \textrm{y} \quad \partial_y f(x,y)=N(x,y). \] Si es que pudíesemos multiplicar \eqref{Eqn:EcuDifExact} por \(dx\) tendríamos que el lado izquierdo es \(Mdx+Ndy\), una 1-forma diferencial. Lo anterior claro está es sólo un truco para recordar que a toda ecuación diferencial de la forma \eqref{Eqn:EcuDifExact} le podemos asociar una 1-forma. En esta notación la condición de que la ecuación diferencial sea exácta es lo mismo que la 1-forma sea exácta.
Supongamos que \(U \subseteq \mathbb{R}^2\) es un abierto y \(F,G: U \to \mathbb{R}\) son funciones clase \(C^1\) en \(U\) y que \(G\) nunca se anula en \(U \). Consideremos la ecuación diferencial \begin{equation}\label{Eqn:EcuDifExactEjer} F(x,y)-G(x,y)\frac{dy}{dx}=0 \end{equation} donde \(y\) denota una función que depende de \(x\). A ésta ecuación diferencial le asociamos la 1-forma \[ \omega = Fdx-Gdy \] Supongamos que existe una función clase \(C^1\), \(f:U \to \mathbb{R}\), tal que \(\omega=df\) (es decir, \(\omega\) es exácta). Prueba que las curvas de nivel de \(f\) son soluciones de la ecuación diferencial \eqref{Eqn:EcuDifExactEjer}.
Para las siguientes 1-formas diferenciables sobre \(\mathbb{R}^2\) encuentra cuales son exáctas y trata de escribirlas de la forma \(df\), donde \(f\) es una función clase \(C^1\).
Sea \(U \subseteq \mathbb{R}^n\) un subconjunto abierto y \(\omega = \sum_{j=1}^n A_jdx_j\) una 1-forma diferenciable sobre \( U \). Dada \(f: U\to \mathbb{R}\) una función clase \(C^1\) definimos el producto de \(f\) con \(\omega\) como la 1-forma diferenciable en \(U\) tal que, para \(P\in U\): \[ \eta_P= f(P)A_1(P)dx_1+f(P)A_2(P)dx_2+\cdots + f(P)A_n(P)dx_n. \] Prueba que si \(f,g:U \to \mathbb{R}\) son clase \(C^1\) en \(U\) entonces \[ d(fg)=fdg+g df \] donde \(df\) y \(dg\) denotan las derivadas exteriores de \(f\) y \(g\) respectivamente.
Inmediatamente de la Definición 2.7 se sigue que: \[ d (fg) = \partial_{x_1} (fg) dx_1 + \partial_{x_2} (fg) dx_2 + \cdots + \partial_{x_n}(fg) d_{x_n} \]
Sin embargo, para cada \( i=1,2,\ldots, n \) sabemos que \( \partial_{x_i} (fg) = f \partial_{x_i} (g) + g \partial_{x_i} (f)\), por lo tanto
\begin{align*} d(fg) &= \sum_{i=1}^n [ f \partial_{x_i} (g) + g \partial_{x_i} (f) ] dx_{i}\\ &= \sum_{i=1}^n f \partial_{x_i} (g) dx_{i} + \sum_{i=1}^n g \partial_{x_i} (f) dx_{i}\\ &= f dg + g df \end{align*} donde la última igualdad se tiene por la definición del producto de una función con una \(1\)- forma diferenciable.
Recordemos que el conjunto de funcions lineales que van de \(\mathbb{R}^n\) a \(\mathbb{R}\) está denotado por \((\mathbb{R}^n)^*\) (y es llamado el dual). Con ésta notación, una 1-forma diferenciable definida en el abierto \(U \subseteq \mathbb{R}^n\)es una función \begin{eqnarray*} \omega:U &\to & (\mathbb{R}^n)^* \\ P &\mapsto & \omega_P \end{eqnarray*} de tal forma que al escribir \(\omega_P\) como combinación lineal de la base \(\{dx_1,\dots, dx_n\}\) \[ \omega_P=A_1(P)dx_1+\cdots +A_n(P)dx_n \] las funciones \(A_j:U \to \mathbb{R}\), \(j=1,\dots, n\), son diferenciables en \(U\).
Para terminar queremos resaltar una observación que permite intercambiar el punto de vista entre 1-formas y campos vectoriales:
Vamos a motivar la definición de integral de línea a partir de la integral de 1-formas constantes. La discusión se centra en 1-formas en \(\mathbb{R}^3\) pero se puede extender de manera natural a cualquier \(\mathbb{R}^n\).
Si \(\omega=Adx+Bdy+Cdz\) es una 1-forma constante (y continua) en \(\mathbb{R}^3\) encontramos en la sección 1 que \[ \int_{\seg{PQ}}\omega =A(x_1-x_0)+B(y_1-y_0)+C(z_1-z_0) \] donde \(P=(x_0,y_0,z_0), Q=(x_1,y_1,z_1)\).
Partiendo de lo anterior ahora queremos definir \(\int_\gamma \omega \) (integral de línea) donde \(\gamma\) es una trayectoria parametrizada suave, \(\omega\) es una 1-forma diferenciable y queremos que siga satisfaciendo las propiedades 1, 2 (adivitidad) y 3 (respeta orientaciones) de la Definición 10.3. Nota: se verá más adelante que la propiedad 4 (invriante bajo traslaciones) sale automáticamente.
Para ser más específicos, vamos a suponer que \(U\) es un abierto, \(\omega = Adx+Bdy+Cdz\) es una 1-forma diferenciable en \(U\) y \(\gamma:[a,b] \to \mathbb{R}^3\) es una trayectoria parametrizada suave cuya traza está contenida en \(U\). Ya que sabemos cómo integrar sobre segmentos de recta, iniciamos aproximando \(\gamma\) con segmentos de recta. Supongamos que escribimos las funciones coordenadas de \(\gamma \) como: \[ \gamma(t)=(x(t), y(t), z(t)) \] y consideramos una partición de \([a,b]\), \(\{a=t_0<\cdots < t_n=b\} \). Para dicha partición denotamos \(P_i=\gamma(t_i)\), \(i=0,\dots, n\) y \(R_i=\gamma(t_i^*)\) donde \(t_i^*\) es un punto arbitrario de \([t_{i-1}, t_i]\). El punto \(R_i\) es el punto que vamos a utilizar para aproximar la 1-forma en el intervalo \([t_{i-1},t_{i}]\), es decir, en vez de tomar la 1-forma diferenciable \(\omega\) vamos a reemplazarla por la 1-forma constante \(\omega_{R_i}\). Entonces \[ \int_{\seg{P_{i-1}P_{i}}}\omega_{R_i}=A(R_i)(x(t_i)-x(t_{i-1})) +B(R_i)(y(t_i)-y(t_{i-1})) +C(R_i)(y(t_i)-y(t_{i-1})) \] y uno puede pensar a \begin{eqnarray*} \sum_{i=1}^n \int_{\seg{P_{i-1}P_i}}\omega_{R_i}&=&\sum_{i=1}^n A(R_i)(x(t_i)-x(t_{i-1})) \\ &+&\sum_{i=1}^nB(R_i)(y(t_i)-y(t_{i-1}))\\ &+&\sum_{i=1}^nC(R_i)(z(t_i)-z(t_{i-1})) \end{eqnarray*} como una aproximación de lo que debería de ser \(\int_{\gamma}\omega\). Si analizamos cada suma por separado, digamos la correspondiente a \(dx\), obtenemos \begin{equation}\label{Eqn:1} \sum_{i=1}^nA(R_i)(x(t_i)-x(t_{i-1}))=\sum_{i=1}^n A(\gamma(t_i^*))(x(t_{i-1})-x(t_i)). \end{equation} Lo que descubrio la gente es que \eqref{Eqn:1} se parece a una suma de Riemann. Recordemos que si \(f:[a,b]\to \mathbb{R}\) es una función continua en \([a,b]\), una suman de Riemann para \(f\) es: \[ \sum_{i=1}^n f(t_i^*)(t_i-t_{i-1}) \] donde las \(t_i\) y \(t_{i}^*\) son como antes. Además, si suponemos que la partición es homogenea (o que la norma de la partición tiende a cero), se tiene el siguiente teorema
\[ \lim_{n\to \infty}\sum_{i=1}^n f(t_i^*)(t_i-t_{i-1})=\int_a^b f(t)dt \]
(es en esta identidad donde la continuidad de \(f\) es esencial).Para ver a \eqref{Eqn:1} como una suma de Riemann el ingrediente crucial es el Teorema del Valor Medio para derivadas, pues al ser \(x:[a,b]\to \mathbb{R}\) una función de clase \(C^1\) tenemos que existe \(a_i\in [t_{i-1}, t_i]\) para el cual \[ x(t_i)-x(t_{i-1})=x'(a_i)(t_i-t_{i-1}) \] por lo que \eqref{Eqn:1} puede reescribirse como (tomando \(t_i^*=a_i\)) \[ \sum_{i=1}^n A(\gamma(a_i))x'(a_i)(t_i-t_{i-1}) \] Tomando \(f(t)=A(\gamma(t))x'(t)\) concluimos que \[ \lim_{n\to \infty} \sum_{i=1}^n A(\gamma(a_i))x'(a_i)(t_i-t_{i-1})= \int_{a}^b A(\gamma(t))x'(t)dt. \] De manera similar, existen \(b_i,c_i\in [t_{i-1},t_i] \) tales que: \[ \lim_{n\to \infty} \sum_{i=1}^n B(\gamma(b_i))y'(b_i)(t_i-t_{i-1})= \int_{a}^b B(\gamma(t))y'(t)dt. \] \[ \lim_{n\to \infty} \sum_{i=1}^n C(\gamma(c_i))z'(c_i)(t_i-t_{i-1})= \int_{a}^b C(\gamma(t))z'(t)dt. \] Todo el trabajo anterior justifica que definamos \[ \int_\gamma \omega =\int_{a}^b A(\gamma(t))x'(t)+B(\gamma(t))y'(t) + C(\gamma(t))z'(t)dt \]
Sea \(U \subseteq \mathbb{R}^n\) un abierto, \(\omega=\sum_{j=1}^n A_j dx_j\) una 1-forma continua en \(U\) y \(\gamma(t)=(\gamma_1(t), \dots, \gamma_n(t))\), \(t\in [a,b]\) una trayectoria parametrizada suave cuya traza esté contenida en \(U\). Definimos la integral de línea de \(\omega\) a lo largo de \(\gamma \) como \[ \int_\gamma \omega :=\int_a^b \sum_{j=1}^n A_j(\gamma(t))\gamma_j'(t)dt \]
Sea \(U\subset \mathbb{R}^n\) un abierto convexo y \(\omega\) una 1-forma constante y continua en \(U\). Entonces para todos \(P,Q\in U\) y \(S\in \mathbb{R}^n\) tal que \(P_S=P+S, Q_S=Q+S \in U\) se tiene que \[ \int_{\overrightarrow{PQ}} \omega = \int_{\overrightarrow{P_SQ_S}}\omega \]
Calcula las siguientes integrales de línea de las 1-formas sobre las curvas dadas.
Queremos ver que la integral de Riemann \[ \int_a^b f(x)dx, \] donde \(f:[a,b]\to \mathbb{R}\) es una función continua, se puede ver como un integral de una 1-forma.
Primero notamos que, las 1-formas constantes en \([a,b]\) son de la forma \(Adx\), pues estamos en un espacio de una dimensión (el intervalo). Así, una 1-forma en general se puede escribir \[ \omega=Adx \] donde \(A\) es una función \(A:[a,b]\to \mathbb{R}\) y \(dx\) es la 1-forma tal que \[ \int_{\seg{PQ}} dt= P-Q \] donde \(P,Q\in [a,b]\).
Ahora, resulta que las curvas suaves en \([a,b]\) son sencillas, simplemente van a conectar dos puntos del intervalo y sólo pueden viajar en el intervalo \([a,b]\). Por ejemplo \(\alpha:[a,b] \to [a,b]\) con \(\alpha(t)=t\), tiene como traza el intervalo \([a,b]\) y, según la Definición 4.2 \[ \int_\alpha \omega= \int_a^b A(\alpha(t))\alpha'(t)dt =\int_a^b A(t)dt \] siempre y cuando \(A\) sea continua. Así recuperamos la integra usual.
Usando la integral de 1-formas constantes sobre segmentos de recta: \[ \int_{\seg{PQ}}A_1dx_1+\cdots +A_ndx_n=\sum_{j=1}^n A_j(q_j-p_j) \] (con \(P=(p_1,\dots, p_n\)) y \(Q=(q_1,\dots, q_n)\)) definimos la integral de línea de 1-formas diferenciables sobre trayectorias parametrizadas suaves: \[ \int_\alpha A_1dx_1+\cdots +A_ndx_n=\int_a^b \sum_{j=1}^nA_j(\alpha(t))\alpha_j'(t)dt \]
Con esta definición tenemos propiedades similares a las de la integral de 1-formas constantes: