Cálculo CUATRO

§ 10

\(1-\textrm{Formas}\)

Introducción

En esta sección se presentan ejercicios cuyo objetivo es introducir \(1\)-formas y (tal vez más importante) la integral de \(1\)-formas.

Al final de la sección concluiremos que las \(1\)-formas son bastante sencillas (van a resultar ser simplemente funciones lineales) pero lo importante es cómo las \(1\)-formas nos ayudan a definir una integral 1-dimensional (integral de línea).

De manera muy general, una integral 1-dimensional es una función que asigna números a objetos 1-dimensionales. Esta función no es cualquier función, sino que se le pide que cumpla ciertas condiciones de aditividad, orientabilidad y continuidad. Se empiezan con los objetos uno dimensionales más sencillos (los segmentos de recta) y con \(1\)-formas constantes (también las más sencillas).

Video

Definición

Los objetos uno dimensionales más sencillos son los segmentos de rectas, así que es bueno tener una definición y notación para ellos.

Un segmento de recta dirigido en \(\mathbb{R}^n\) es un segmento donde se especifíca el punto inicial y el punto final.

Si \(P\) es el punto inicial y \(Q\) es el punto final, el segmento de \(P\) a \(Q\), denotado por \(\overrightarrow{PQ}\) es

\[ \overrightarrow{PQ}=\{(1-t)P+tQ: t\in [0,1]\} \]

Una función \(\gamma: I \to \mathbb{R}^n\), donde \(I\) es un intervalo de \(\mathbb{R}\), se llama una parametrización de \(\overrightarrow{PQ}\) si \[ \overrightarrow{PQ}=\{ \gamma(t) : t\in I \}. \] Un mismo segmento puede tener varias parametrizaciones. Por ejemplo, \(\gamma(t)=(1-t)P+tQ\) es una parametrización de \(\overrightarrow{PQ}\), pero también los es \(\eta(t)=(1-t^2)P+t^2Q\).

Definición (informal)

Sin definir qué es, vamos a denotar por \(\omega\) a una \(1\)-forma. La idea es que \(\omega\) va a hacer algo a los segmentos dirigidos, el resultado de este algo es un número real. Por \(\omega[\seg{PQ}]\) vamos a denotar dicho resultado. No va a ser una asignación arbitraria si no que debe de seguir las siguientes reglas:
  1. \( \omega[\overrightarrow{PP}]=0\);
  2. (aditividad) si \(P,Q,R\) son tres puntos en \(\mathbb{R}^n\) entonces \[ \omega[\seg{PQ}]+\omega[\seg{QR}]=\omega[\seg{PR} ] \]
  3. (respeta orientaciones) \(\omega[\overrightarrow{QP}]= -\omega[\overrightarrow{PQ}]\).
  4. (invariante bajo traslaciones) Si \(S\) es un vector fijo y denotamos \(P_S=P+S\), \(Q_S=Q+S\) entonces \[ \omega[\seg{PQ}]=\omega[\seg{P_SQ_S}] \]

Si \(\omega\) satisface estas condiciones se llama \(1\)-forma constante. Intuición: si uno se imagina que \(\omega\) "recorre" el segmento \(\seg{PQ}\), estas reglas no son tan misteriosas.

Ejercicio

Supongamos que \(\omega\) es una \(1\)-forma constante que satisface:

\[ \omega[\seg{OR}]=-1, \, \omega[\seg{PQ}]=3, \]

donde \(O\) denota a el origen, \(R=(2,0), P=(4,2)\) y \( Q=(4,6)\).

  • Encuentra el valor de \(\omega[\seg{OS}]\), donde \(S=(2,4)\).
  • Para todo \(n\in \mathbb{Z}\) encuentra el valor de \(\omega[\seg{OP_n}]\), donde \(P_n=(n,0)\).
  • Ejercicio

    Este ejercicio da un ejemplo usando el trabajo. Supongamos que tenemos una campo vectorial constante \(\mathbb{F}(x,y,z)=(A,B,C)\), que representa una fuerza en \(\mathbb{R}^3\). Mover una partícula desde \((x_0,y_0,z_0)\) a \((x_1,y_0,z_0)\), dentro de este campo, representa un trabajo dado por \(A(x_1-x_0)\). De manera similar \(B(y_1-y_0)\) representa el trabajo de moverla desde \( (x_0,y_0,z_0)\) a \( (x_0,y_1,z_0)\) y \( C(z_1-z_0)\) desde \((x_0,y_0,z_0)\) a \((x_0,y_0,z_1)\). En general, moverla desde \( (x_0,y_0,z_0)\) a \((x_1,y_1,z_1)\) representa un trabajo dado por \[ A(x_1-x_0)+B(y_1-y_0)+C(z_1-z_0) \] Define \[ \omega[\seg{PQ}]=A(x_1-x_0)+B(y_1-y_0)+C(z_1-z_0) \] donde \(P=(x_0,y_0,z_0)\) y \(Q=(x_1,y_2,z_1)\). Prueba que \(\omega\) satisface todas las condiciones de la Definición 10.4 .

    Ejercicio

    Considera la función dada por \[ \omega[\seg{PQ}]=x_1^2-x_0^2 \] donde \(P=(x_0,y_0,z_0)\) y \(Q=(x_1,y_1,z_1)\).
    1. Prueba que \(\omega \) cumple todas, excepto una, de las reglas de Definición 10.4 .
    2. Si en la definición de \(\omega\) tomamos ahora \(x_1^n-x_0^n\) (donde \(n\) es un natural arbitrario) en lugar de \(x_1^2-x_0^2\):

      ¿Sigue siendo válido el inciso anterior?

    Ejercicio

    Una función \(f:\mathbb{R}^n \to \mathbb{R}\) se llama aditiva si satisface que, para cualesquiera dos puntos \(R\) y \(S\) se cumple \(f(R+S)=f(R)+f(S)\). Define la acción de \(\omega\) por \[ \omega[\seg{PQ}]:=f(Q)-f(P). \] donde \(f\) es aditiva. Prueba que esta función satisface todas las condiciones de la Definición 10.4 .

    Este ejercicio es importante pues veremos en el siguiente ejercicio que toda acción de una \(1\)-forma constante se puede obtener de esta manera.

    Ejercicio

    Sea \(\omega\) una \(1\)-forma constante en \(\mathbb{R}^n\).
    1. Por \(O\) denotamos al origen (el vector cero en \(\mathbb{R}^n\)). Prueba \[ \omega[\seg{OP}]+\omega[\seg{OQ}]=\omega[\seg{O(P+Q)}] \]
    2. Define \(f:\mathbb{R}^n \to \mathbb{R}\) por \(f(P)=\omega[\seg{OP}]\). Prueba que \(f\) es una función aditiva y que \[ \omega[\seg{PQ}]=f(Q)-f(P) \]

    Nota

    Los dos ejercicios anteriores muestran que hay una relación estrecha entre funciones aditivas (más adelante se verá que se pueden suponer lineales) y \(1\)-formas, es decir, entre la \(\omega \) y la \(f\).

    Ejercicio

    Este ejercicio es útil pues da una condición para que una función aditiva sea lineal.

    Sea \(f: \mathbb{R}^n \to \mathbb{R}\) una función aditiva (ver Ejercicio 10.8 ). Prueba:

    1. \(f(0)=0\),
    2. \(f(-P)=-f(P)\),
    3. para todo \(r\in \mathbb{Q}\) y \(P\in \mathbb{R}^n\), \(f(rP)=rf(P)\).

      Sugerencia: empieza con \(r\) un natural, luego un entero y finalmente de la forma \(n/m\).

    4. Si además suponemos que \(f\) es continua prueba que \(f\) es una función lineal sobre \(\mathbb{R}\).

    Ejercicio

    Una \(1\)-forma constante \(\omega\), se llama continua si \[ \lim_{P\to Q}\omega[\seg{PQ}]=0 \]

    Prueba que si \(\omega\) es continua entonces \[ \lim_{P\to R}\omega[\seg{PQ}]=\omega[\seg{RQ}], \quad \lim_{Q\to R}\omega[\seg{PQ}]=\omega[\seg{PR}] \]

    Ejercicio

    Sea \(\omega\) una \(1\)-forma constante y continua. Prueba que existe una función lineal \(f:\mathbb{R}^n \to \mathbb{R}\) tal que \[ \omega[\seg{PQ}]=f(Q)-f(P) \] Sugerencia: usa los ejercicios 10.9 y 10.11

    Ejercicio

    Sea \(\omega\) una \(1\)-forma constante y continua en \(\mathbb{R}^3\). Entonces existen constantes \(A,B,C\in \mathbb{R}\) tal que para todo segmento \(\seg{PQ}\) en \(\mathbb{R}^3\): \[ \omega[\seg{PQ}]=A(x_1-x_0)+B(y_1-y_0)+C(z_1-z_0) \]

    De manera más general, si \(\omega\) es una \(1\)-forma constante y continua en \(\mathbb{R}^n\), entonces existen constantes \(A_1,\dots, A_n \in \mathbb{R}\) tales que \[ \omega[\seg{PQ}]=\sum_{j=1}^n A_j(q_j-p_j) \] donde \(P=(p_1,\dots, p_n), Q=(q_1,\dots, q_n)\).

    Por el ejercicio 1.14, existe una función lineal \(f: \mathbb{R}^3 \to \mathbb{R}\) tal que \[ \omega[\seg{PQ}]=f(Q)-f(P) \] Tomamos \[ A=f(1,0,0), B=f(0,1,0), C=f(0,1,0) \] Al ser \(f\) lineal tenemos que, para cualquier punto \((x,y,z)\) \begin{eqnarray} f(x,y,z)&=&xf(1,0,0)+yf(0,1,0)+zf(0,0,1)\\ &=&Ax+By+Cz \end{eqnarray} Por lo tanto \begin{eqnarray} f(Q)-f(P)&=&Aq_1+Bq_2+Cq_3-(Ap_1+Bp_2+Cp_3) \\ &=&A(q_1-p_1)+B(p_2-q_2)+C(q_3-p_3) \end{eqnarray} y concluimos \[ \omega(\seg{PQ})=A(q_1-p_1)+B(q_2-p_2)+C(p_3-q_3) \]

    Ejercicio

    Dado \(V\), un espacio vectorial sobre \(\mathbb{R}\), denotamos

    \[ V^*=\{\varphi: V \to \mathbb{R}: \textrm{\(\varphi\) es lineal }\} \]

    este conjunto es importante dentro de la teoría y se llama el dual de \(V\).

    1. Demuestra que \(V^*\) es un espacio vectorial.
    2. Demuestra que \((\mathbb{R}^n)^*\) tiene dimensión \(n\). Sugerencia: considera las proyecciones de \(\mathbb{R}^n\) a \(\mathbb{R}\).

    Sólo probaremos el segundo inciso.

    Por \(\pi_j\) vamos a denotar la proyección sobre la coordenada \(j\), es decir \[ \pi_j(p_1,\dots p_n)=p_j. \] Sabemos que las \(\pi_j\) son funciones lineales, por lo tanto \(\beta:=\{\pi_1,\dots, \pi_n\} \subset (\mathbb{R}^n)^*\). Afirmamos que \(\beta\) es una base para \((\mathbb{R}^n)^*\)

    Primero vamos a ver que \(\beta\) es linealmente independiente. Supongamos que \[ \varphi= c_1 \pi_1+\cdots c_n\pi_n \] es la función idénticamente cero, es decir, para toda \(P\in \mathbb{R}^n\) \[ 0=\varphi(P)=c_1\pi_1(P)+\cdots c_n\pi_n(P). \] Vamos a denotar por \(e_j\) el vector que tiene todas las entradas cero, excepto por la entrada \(j\), donde tiene un 1 (la base canónica). Tomando \(P=e_1\) notamos que \(\pi_j(P)=0\) si \(j\ne 1\) y \(\pi_1(P)=1\). Por lo tanto \[ 0=\varphi(P)=c_1\pi_1(P)+\cdots + c_n \pi_n(P)=c_1 \] por lo que \(c_1=0\). De manera similar, tomando \(P=e_j\), obtenemos que \(c_j=0\), para toda \(j=1,\dots, n\) y concluimos que \(\beta\) es linealmente independiente.

    Ahora vamos a probar que \(\beta\) genera a \((\mathbb{R})^n\). Tomamos \(\psi \in (\mathbb{R}^n)^*\) fijo y arbitrario. Al ser \(\psi \) una función lineal tenemos que, para toda \(P=(p_1,\dots p_n)\in \mathbb{R}^n\): \[ \psi(P)=\psi(\sum_{j=1}^n p_j e_j )=\sum_{j=1}^n p_j \psi(e_j). \] Dentemos \(A_j=\psi(e_j)\). Con esta notación \[ \psi(P)=\sum_{j=1}^n A_j p_j. \] Pero notamos que, \(\pi_j(P)=p_j\), por lo que podemos reescribir la igualdad anterior como \[ \psi(P)=\sum_{j=1}^n A_j \pi_j(P), \quad \forall P\in \mathbb{R}^n, \] es decir, como funciones \(\psi\) y \(\sum_{j=1}A_j \pi_j\) son iguales, por lo que concluimos que \(\beta\) genera a \((\mathbb{R}^n)^*\).

    Nota

    Ahora sí, podemos dar la definición de lo que es una \(1\)-forma y hacer clara la distinción entre lo que es una \(1\)-forma y lo que hace.

    Una \(1\)-forma constante y continua en \(\mathbb{R}^n\) es simplemente una función lineal de \(\mathbb{R}^n\) a \(\mathbb{R}\).

    Ahora veamos la notación de las \(dx_j\). Recuerda que la función que se obtiene proyectando sobre la \(j\)-ésima coordenada de \(\mathbb{R}^n\) es una función lineal, la cual vamos a denotar (por el momento) por \(dx_j\), es decir \[ dx_j(P)=p_j \] donde \(P=(p_1,\dots, p_n)\).

    Con esta notación, toda \(1\)-forma constante y continua, \(\omega\), es combinación lineal de las proyecciones: \[ \omega=A_1dx_1+\cdots + A_n dx_n \] de ahí sale la notación con las \(dx_j\).

    Nota: en la siguiente sección la notación \(dx_j\) va a significar algo ligeramente distinto.

    Finalmente, la \(1\)-forma \(\omega\) actua sobre el segmento \(\seg{PQ}\) como: \[ \int_{\seg{PQ}}\omega = A_1(q_1-p_1)+\cdots + A_n(q_n-p_n) \] En la notación anterior, \(\omega[\seg{PQ}]=\int_{\seg{PQ}}\omega\).

    Definición

    1. Sea \( S \) un subconjunto \(\mathbb{R}^n\). Una 1-forma en \(S \), denotada por \(\omega\), es una función tal que a cada punto \(P\) de \(S\) le asocia una 1-forma constante denotada \(\omega_P\). Si escribimos a la 1-forma en coordenadas \(dx_j\) obtenemos \[ \omega_P=A_1(P)dx_1+A_2(P)dx_2 + \cdots + A_n(P)dx_n \] donde las \(A_j\) son funciones \(A_j :S \to \mathbb{R}\), \(j=1,\dots, n\).
    2. Si todas las funciones \(A_1,\dots, A_n:S\to \mathbb{R}\) son continuas en \(S\) decimos que \(\omega\) es una 1-forma continua.
    3. Si \(S=U\), un conjunto abierto de \(\mathbb{R}^n\) y las todas funciones \(A_1,\dots, A_n:U\to \mathbb{R}\) son diferenciables, decimos que \(\omega\) es una 1-forma diferenciable en \(U\).

    Con ésta notación se escribe: \[ \omega=A_1dx_1+A_2dx_2+\cdots +A_ndx_n \]

    Por ejemplo \(\omega= ydx+ xdy\) es una 1-forma diferenciable en \(\mathbb{R}^2\) y \(\eta = \sqrt{y}dx+\sqrt{x}dy \) es una 1-forma diferenciable en \((0,\infty)\times (0,\infty)\). En estos ejemplos, tenemos que las 1-formas constantes, en el punto \((9,16)\in \mathbb{R}^2\), son respectivamente: \[ \omega_{(9,16)}=16dx+9dy, \quad \eta_{(9,16)}=4dx+3dy \]

    Nota: si además las funciones \(A_1,\dots, A_n\) son clase \(C^k\) en \(U\) (para algún \(k=1,2,\dots\)) decimos que la 1-forma diferenciable es clase \(C^k\).

    Video

    Nota

    Es buen momento para ver la notación \(dx_j\) otra vez. En la sección pasada, justo al final en la conclusión, se usaba \(dx_j\) para denotar 1-forma constante que es la proyección sobre la \(j\)-ésima coordenada, es decir \[ dx_j(p_1,\dots, p_n)=p_j \] Pero de ahora en adelante \(dx_j\) va a denotar la 1-forma diferenciable tal que, a cada punto \(p\) del dominio, le asigna la 1-forma constante que es la proyección a la \(j\)-ésima coordenada. Por ejemplo, si escribieramos todos los parámetros para \(dx_j\) tendríamos \[ (dx_j)_{(q_1,\dots, q_n)}(p_1,\dots, p_n)=p_j \] donde \((q_1,\dots, q_n)\) es un punto cualquier.

    Esta distinción puede pensarse como la que se hace entre una una constante y la función constante. Por ejemplo en la función \(f(x)=3\), la función \(f\) sería \(dx_j\) y el 3 sería la proyección en la coordenada j.

    Ejercicio

    Considera la 1-forma diferenciable, \(\omega = (2x+y)dx-(6x+2y)dy\). Encuentra los puntos \(R\) para los cuales:
    1. \(\omega_R= 3dx+4dy\).
    2. \(\omega_R = 0 \).
    3. \(\omega_R= dx \).

    Primero encontremos \(R\) tal que \(\omega_{R} = 3dx + 4dy\). Entonces tenemos que resolver el siguiente sistema de ecuaciones:

    \[ \left\{ \begin{array}{cccc} 2x & +y & = & 3 \\ -6x & -2y & = & 4 \\ \end{array} \right. \]

    El cual tiene como única solución \(x = -5 \) y \( y = 13\), es decir el punto \(R\) tal que \(\omega_{R} = 3dx + 4dy\), es \(R = (-5,13)\).

    Ahora encontremos \(R\) tal que \(\omega_{R} = 0\). Nuevamente tenemos que resolver el siguiente sistema de ecuaciones:

    \[ \left\{ \begin{array}{cccc} 2x & +y & = & 0 \\ -6x & -2y & = & 0 \\ \end{array} \right. \]

    No es difícil verificar que este sistema tiene como única solución a \(x = 0 \) y \( y = 0\), es decir el punto \(R\) tal que \( \omega_{R} = 0\), es \(R = (0,0)\).

    Por último, encontremos \(R\) tal que \(\omega_{R} = dx\). Entonces el sistema de ecuaciones a resolver es el siguiente:

    \[ \left\{ \begin{array}{cccc} 2x & +y & = & 1 \\ -6x & -2y & = & 0 \\ \end{array} \right. \]

    El cual tiene como única solución \(x = -1 \) y \( y = 3\), es decir el punto \(R\) tal que \(\omega_{R} = dx\), es \(R = (-1,3)\).

    Ejercicio

    Considera la 1-forma diferenciable, \(\omega=3x^2dx+(y^2+1)dy\). Para los siguientes puntos \(P,Q,R\) y tomando la 1-forma constante \(\omega_R\) calcula \(\int_{\overrightarrow{PQ}} \omega_R \).

    1. \(P=(0,0), Q=(1,1), R= (1/2,1/2) \).
    2. \(P=(0,4), Q=(2,2), R= (-1,-1) \).
    3. \(P=(0,y), Q=(x,y+1), R=(a,b) \) .

  • Siguiendo la Definición 2.1, en este caso se tiene que \[ \omega_{(1/2,1/2)} = 3(1/2)^2 dx + ((1/2)^2 + 1) dy = \frac{3}{4} dx + \frac{5}{4} dy \] Luego, de la conclusión en la Sección 1 se sigue: \[ \int_{\seg{PQ}}\omega_{(1/2,1/2)} = \frac{3}{4}(1 -0)+ \frac{5}{4}(1-0) = \frac{3}{4}+ \frac{5}{4} = 2 \] donde \( P=(0,0), Q=(1,1) \)
  • Similarmente, para este inciso se obtiene que: \( \omega_{(-1,-1)} = 3dx + 2dy \) y \(\displaystyle\int_{\seg{PQ}}\omega_{(-1,-1)} = 2\)
  • Finalmente, y de manera análoga se verífica que: \( \omega_{(a,b)} = 3a^{2} dx + (b^{2} + 1) dy\) y \(\displaystyle\int_{\seg{PQ}}\omega_{(a,b)} = 3 a^{2} x + (b^2 + 1)\)
  • Ejercicio

    Considera las 1-formas diferenciables \(\omega=xdx+ydy\) y \(\eta=ydx+xdy\). Toma puntos cualesquiera \(P=(x_0,y_0), Q=(x_1,y_1)\) y denota por \(R\) a su punto medio. Paras las 1-formas constantes \(\omega_R\) y \(\eta_R\) prueba que \begin{eqnarray*} \int_{\seg{PQ}}\omega_R &=&\frac{1}{2}(x_1^2-x_0^2+y_1^2-y_0^2 ) \\ \int_{\seg{PQ}}\eta_R &=& \frac{1}{2}(x_1y_1-x_0y_0) \end{eqnarray*}

    Ejercicio

    Considera las 1-formas diferenciable \(\omega = -ydx+xdy\) y \(\eta=ydx+xdy\). Por \(P_1,P_2, P_3\) y \(P_4\) denotamos los vértices de un rectángulo centrado en el origen y por \(R_i\) el punto medio de \(\seg{P_{i}P_{i+1}} \), \(i=1,2,3,4 \) donde por conveción ponemos \(P_5=P_1\). Prueba que:
    1. \[ \sum_{i=1}^4 \int_{\overrightarrow{ P_iP_{i+1} } }\omega_{R_i} = 2A \] donde \(A\) es el área del rectángulo.
    2. \[ \sum_{i=1}^4 \int_{\overrightarrow{P_iP_{i+1}}}\eta_{R_i} =0 \]

    Definición

    Sea \(U \subseteq \mathbb{R}^n\) un abierto. Dada \(f: U \to \mathbb{R}\), una función de clase \(C^1\), su derivada exterior, denotada \(df\), se define como la 1-forma diferenciable dada por \[ df= \partial_{x_1}f dx_1+ \partial_{x_2}f dx_2+\cdots + \partial_{x_n}f dx_n \] donde \(\partial_{x_j}f\) denota la derivada parcial de \(f\) con respecto a la variable \(x_j\).

    Por ejemplo, si \(f(x,y,z)=xy+y^2z\), su derivada exterior es \[ df= y dx + (x+2yz)dy+ y^2 dz \] además, si \(P=(1,-2,\pi)\) entonces \[ (df)_P=-2dx+(1-4\pi)dy+4dz \]

    Nota: para que \(df\) sea una 1-forma diferenciable (según la definición de 1-forma diferenciable ) debemos pedir que cada \(\partial_{x_j}f \), \(j=1,\dots, n\), sea diferenciable, lo cual pasa si la función \(f\) con la que empezamos es clase \(C^2\).

    Ejercicio

    Para cada una de las siguientes funciones, encuentra la derivada exterior y encuentra los puntos \(P\) para los cuales \(df_P=0\).
    1. \(f(x,y,z)= x^2+y^2+z^2 +xy+xz \).
    2. \(f(x,y)=e^{xy}\).
    3. \(f(x_1,\dots, x_n) = \sum_{i=1}^n (x_1+x_i)^2\).

    Resolvamos 1. Primero encontremos las parciales de \(f\) con respecto a \(x\), \(y\) y \(z\). Entonces sacando las parciales tenemos

    \[ \begin{array}{ccccc} \partial_{x}f(x, y, z) & = & 2x & +y & +z \\ \partial_{y}f(x, y, z) & = & 2y & +x \\ \partial_{z}f(x, y, z)& = & 2z & +x \end{array} \] Lo cual nos permite tener la derivada exterior de \(f\), que esta dada por \[ df = (2x + y + z)dx + (2y + x)dy + (2z + x)dz \]

    Lo siguiente es encontrar los puntos \(P\) tal que \(df_{P} = 0\). Y para ello tenemos que resolver el siguiente sistema de ecuaciones:

    \[ \left\{ \begin{array}{ccccc} 2x & +y & +z & = & 0 \\ x & +2y & & = & 0 \\ x & & +2z & = & 0 \end{array} \right. \]

    Tal sistema de ecuaciones tiene como única solución a \(x = 0\), \(y = 0 \) y \( z = 0\). Por lo tanto el punto \(P\) tal que \(df_{P} = 0\), es \(P = (0,0,0)\).

    Ahora veamos 2. Nuevamente sacamos las parciales de \(f\) con respecto de \(x\) y \(y\), las cuales son,

    \[ \begin{array}{ccc} \partial_{x}f(x, y) & = & ye^{xy} \\ \partial_{y}f(x, y) & = & xe^{xy} \\ \end{array} \]

    Lo cual nos permite tener la derivada exterior de \(f\), que esta dada por \[ df = ye^{xy} dx + xe^{xy} dy \] Lo siguiente es encontrar los puntos \(P\) tal que \(df_{P} = 0\). Y para ello tenemos que resolver el siguiente sistema de ecuaciones.

    \[ \left\{ \begin{array}{ccccc} ye^{xy} & = & 0 \\ xe^{xy} & = & 0 \end{array} \right. \]

    Como \(e^{xy} > 0\) para toda \((x,y) \in \mathbb{R}^{2}\). Entonces la única solución al sistema de ecuaciones es \(x = 0\) y \(y = 0\). Por lo tanto el punto \(P\) tal que \(df_{P} = 0\), es \(P = (0,0)\).

    Por último resolvamos 3. Sacamos las parciales de \(f\) con respecto de \(x_{1}, . . . , x_{n}\), las cuales son,

    \[ \begin{array}{ccc} \partial_{x_{1}}f(x_{1}, x_{2}, . . . , x_{n}) & = & 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) \\ \partial_{x_{2}}f(x_{1}, x_{2}, . . . , x_{n}) & = & 2(x_{1} + x_{2}) \\ & \vdots & \\ \partial_{x_{n}}f(x_{1}, x_{2}, . . . , x_{n}) & = & 2(x_{1} + x_{n}) \end{array} \]

    Lo cual nos permite tener la derivada exterior de \(f\), que esta dada por \[ df = \left( 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) \right)dx_{1} + 2(x_{1} + x_{2})dx_{2} + . . . + 2(x_{1} + x_{n}) dx_{n} \]

    Lo siguiente es encontrar los puntos \(P\) tal que \(df_{P} = 0\). Y para ello tenemos que resolver el siguiente sistema de ecuaciones.

    \[ \left\{ \begin{array}{ccc} 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) & = & 0 \\ 2(x_{1} + x_{2}) & = & 0 \\ \vdots & & \\ 2(x_{1} + x_{n}) & = & 0 \end{array} \right. \]

    Como \(2(x_{1} + x_{i}) = 0\) para \(2 \leq i \leq n\), se sigue que \(\sum_{i=2}^{n}2(x_{1} + x_{i}) = 0\). Lo cual implica que \(8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) = 8x_{1}\). Pero por otro lado \( 8x_{1} + \sum_{i=2}^{n}2(x_{1} + x_{i}) = 0\), es decir \(x_{1} = 0\). Lo cual implica que para \(2 \leq i \leq n\), \(x_{i} = 0\) ya que \(2(x_{1} + x_{i}) = 0\) y \(x_{1} = 0\).

    Por lo tanto la única solución al sistema de ecuaciones es \(x_{i} = 0\) para toda \(1 \leq i \leq n\). Es decir que el punto \(P\) tal que \(df_{P} = 0\), es \(P = (0,0, . . . ,0)\).

    Ejercicio

    Por \(B_r(P)\) denotamos la bola abierta en \(\mathbb{R}^n\) centrada en \(P\) y de radio \(r\). Sea \(f:B_r(P) \to \mathbb{R}\) una función clase \(C^1\). Demuestra que si \(df =0 \) entonces \(f\) es una función constante.

    Definición

    Una 1-forma diferenciable \(\omega \) se llama exácta si existe una función diferenciable \(f\) tal que \[ df = \omega \] Si escribimos \(\omega = A_1 dx_1 + \cdots + A_n dx_n\), lo anterior equivale a encontrar una función \(f\) tal que \begin{equation}\label{Eqn:1-formaExacta} \partial_{x_1}f=A_1 , \cdots, \partial_{x_n} f=A_n \end{equation} En el fondo, decidir que una 1-forma \(\omega=A_1dx_1+\cdots +A_ndx_n\) es exácta es equivalente a decir que el campo vectorial \(\mathbb{F}=(A_1,\dots, A_n)\) es conservativo. A decir verda el nombre de exácta viene de ecuaciones diferenciales, como se menciona en el ejercicio siguiente.

    Ejercicio

    Una ecuación diferencial de la forma \begin{equation}\label{Eqn:EcuDifExact} M(x,y)+N(x,y)\frac{dy}{dx}=0 \end{equation} se llama exácta, si existe una función escalar \(f(x,y) \) tal que \[ \partial_x f(x,y)=M(x,y) \quad \textrm{y} \quad \partial_y f(x,y)=N(x,y). \] Si es que pudíesemos multiplicar \eqref{Eqn:EcuDifExact} por \(dx\) tendríamos que el lado izquierdo es \(Mdx+Ndy\), una 1-forma diferencial. Lo anterior claro está es sólo un truco para recordar que a toda ecuación diferencial de la forma \eqref{Eqn:EcuDifExact} le podemos asociar una 1-forma. En esta notación la condición de que la ecuación diferencial sea exácta es lo mismo que la 1-forma sea exácta.

    Supongamos que \(U \subseteq \mathbb{R}^2\) es un abierto y \(F,G: U \to \mathbb{R}\) son funciones clase \(C^1\) en \(U\) y que \(G\) nunca se anula en \(U \). Consideremos la ecuación diferencial \begin{equation}\label{Eqn:EcuDifExactEjer} F(x,y)-G(x,y)\frac{dy}{dx}=0 \end{equation} donde \(y\) denota una función que depende de \(x\). A ésta ecuación diferencial le asociamos la 1-forma \[ \omega = Fdx-Gdy \] Supongamos que existe una función clase \(C^1\), \(f:U \to \mathbb{R}\), tal que \(\omega=df\) (es decir, \(\omega\) es exácta). Prueba que las curvas de nivel de \(f\) son soluciones de la ecuación diferencial \eqref{Eqn:EcuDifExactEjer}.

    Ya que suponemos que \(df = Fdx- Gdy\), se sigue (de la definición de derivada exterior) que \[ \partial_x f = F \quad \textrm{y} \quad \partial_y f=-G \] en \( U \). Ahora consideremos una curva de nivel de \(f\) \[ S=\{(x,y): f(x,y)=c\} \] y tomemos un punto \( (x_0,y_0)\in S\) arbitrario. Ya que \(G\) no se anula en \(U\) y \(\partial_yf(x_0,y_0)=-G(x_0,y_0)\ne 0\) por el teorema de la función inversa existe una vecindad de \(x_0\) y una función \(y\), definida y diferenciable en ésta vecindad tal que \[ f(x,y(x))=c. \] Derivando la ecuación anterior con respecto a \(x\) (usando la regla de la cadena ) llegamos a que \begin{eqnarray*} 0&= \partial_xf(x,y(x))+\partial_yf(x,y(x))y'(x)=F(x,y(x))-G(x,y(x))\frac{dy(x)}{dx} \end{eqnarray*} y por lo tanto \(y\) es una solución para \eqref{Eqn:EcuDifExactEjer}.

    Ejercicio

    Para las siguientes 1-formas diferenciables sobre \(\mathbb{R}^2\) encuentra cuales son exáctas y trata de escribirlas de la forma \(df\), donde \(f\) es una función clase \(C^1\).

    1. \(3y dx+ 3xdy \).
    2. \( 7xdx+6ydy \).
    3. \( -ydx + x dy \).

    Ejercicio

    Sea \(U \subseteq \mathbb{R}^n\) un subconjunto abierto y \(\omega = \sum_{j=1}^n A_jdx_j\) una 1-forma diferenciable sobre \( U \). Dada \(f: U\to \mathbb{R}\) una función clase \(C^1\) definimos el producto de \(f\) con \(\omega\) como la 1-forma diferenciable en \(U\) tal que, para \(P\in U\): \[ \eta_P= f(P)A_1(P)dx_1+f(P)A_2(P)dx_2+\cdots + f(P)A_n(P)dx_n. \] Prueba que si \(f,g:U \to \mathbb{R}\) son clase \(C^1\) en \(U\) entonces \[ d(fg)=fdg+g df \] donde \(df\) y \(dg\) denotan las derivadas exteriores de \(f\) y \(g\) respectivamente.

    Inmediatamente de la Definición 2.7 se sigue que: \[ d (fg) = \partial_{x_1} (fg) dx_1 + \partial_{x_2} (fg) dx_2 + \cdots + \partial_{x_n}(fg) d_{x_n} \]

    Sin embargo, para cada \( i=1,2,\ldots, n \) sabemos que \( \partial_{x_i} (fg) = f \partial_{x_i} (g) + g \partial_{x_i} (f)\), por lo tanto

    \begin{align*} d(fg) &= \sum_{i=1}^n [ f \partial_{x_i} (g) + g \partial_{x_i} (f) ] dx_{i}\\ &= \sum_{i=1}^n f \partial_{x_i} (g) dx_{i} + \sum_{i=1}^n g \partial_{x_i} (f) dx_{i}\\ &= f dg + g df \end{align*} donde la última igualdad se tiene por la definición del producto de una función con una \(1\)- forma diferenciable.

    Nota

    Recordemos que el conjunto de funcions lineales que van de \(\mathbb{R}^n\) a \(\mathbb{R}\) está denotado por \((\mathbb{R}^n)^*\) (y es llamado el dual). Con ésta notación, una 1-forma diferenciable definida en el abierto \(U \subseteq \mathbb{R}^n\)es una función \begin{eqnarray*} \omega:U &\to & (\mathbb{R}^n)^* \\ P &\mapsto & \omega_P \end{eqnarray*} de tal forma que al escribir \(\omega_P\) como combinación lineal de la base \(\{dx_1,\dots, dx_n\}\) \[ \omega_P=A_1(P)dx_1+\cdots +A_n(P)dx_n \] las funciones \(A_j:U \to \mathbb{R}\), \(j=1,\dots, n\), son diferenciables en \(U\).

    Para terminar queremos resaltar una observación que permite intercambiar el punto de vista entre 1-formas y campos vectoriales:

    "Hay una biyección entre 1-formas diferenciables y campos vectoriales diferenciables"
    Para ver esto, recordemos que un campo vectorial, definido en \(U\subseteq \mathbb{R}^n\), es una función vectorial \(\mathbb{F}:U\to \mathbb{R}^n\) y es diferenciable si, cuando escribimos sus coordenadas \(\mathbb{F}=(f_1,\dots, f_n)\), las funciones \(f_1,\dots, f_n\), son funciones diferenciables en \(U\). Entonces la biyección entre 1-formas diferenciables en \(U\) y campos vectoriales diferenciable en \(U\) está dada por: \[ \omega= A_1dx_1+\cdots +A_ndx_n \Leftrightarrow \mathbb{F}=(A_1,\dots, A_n) \]

    Nota

    La integral de 1-formas

    Vamos a motivar la definición de integral de línea a partir de la integral de 1-formas constantes. La discusión se centra en 1-formas en \(\mathbb{R}^3\) pero se puede extender de manera natural a cualquier \(\mathbb{R}^n\).

    Si \(\omega=Adx+Bdy+Cdz\) es una 1-forma constante (y continua) en \(\mathbb{R}^3\) encontramos en la sección 1 que \[ \int_{\seg{PQ}}\omega =A(x_1-x_0)+B(y_1-y_0)+C(z_1-z_0) \] donde \(P=(x_0,y_0,z_0), Q=(x_1,y_1,z_1)\).

    Partiendo de lo anterior ahora queremos definir \(\int_\gamma \omega \) (integral de línea) donde \(\gamma\) es una trayectoria parametrizada suave, \(\omega\) es una 1-forma diferenciable y queremos que siga satisfaciendo las propiedades 1, 2 (adivitidad) y 3 (respeta orientaciones) de la Definición 10.3. Nota: se verá más adelante que la propiedad 4 (invriante bajo traslaciones) sale automáticamente.

    Para ser más específicos, vamos a suponer que \(U\) es un abierto, \(\omega = Adx+Bdy+Cdz\) es una 1-forma diferenciable en \(U\) y \(\gamma:[a,b] \to \mathbb{R}^3\) es una trayectoria parametrizada suave cuya traza está contenida en \(U\). Ya que sabemos cómo integrar sobre segmentos de recta, iniciamos aproximando \(\gamma\) con segmentos de recta. Supongamos que escribimos las funciones coordenadas de \(\gamma \) como: \[ \gamma(t)=(x(t), y(t), z(t)) \] y consideramos una partición de \([a,b]\), \(\{a=t_0<\cdots < t_n=b\} \). Para dicha partición denotamos \(P_i=\gamma(t_i)\), \(i=0,\dots, n\) y \(R_i=\gamma(t_i^*)\) donde \(t_i^*\) es un punto arbitrario de \([t_{i-1}, t_i]\). El punto \(R_i\) es el punto que vamos a utilizar para aproximar la 1-forma en el intervalo \([t_{i-1},t_{i}]\), es decir, en vez de tomar la 1-forma diferenciable \(\omega\) vamos a reemplazarla por la 1-forma constante \(\omega_{R_i}\). Entonces \[ \int_{\seg{P_{i-1}P_{i}}}\omega_{R_i}=A(R_i)(x(t_i)-x(t_{i-1})) +B(R_i)(y(t_i)-y(t_{i-1})) +C(R_i)(y(t_i)-y(t_{i-1})) \] y uno puede pensar a \begin{eqnarray*} \sum_{i=1}^n \int_{\seg{P_{i-1}P_i}}\omega_{R_i}&=&\sum_{i=1}^n A(R_i)(x(t_i)-x(t_{i-1})) \\ &+&\sum_{i=1}^nB(R_i)(y(t_i)-y(t_{i-1}))\\ &+&\sum_{i=1}^nC(R_i)(z(t_i)-z(t_{i-1})) \end{eqnarray*} como una aproximación de lo que debería de ser \(\int_{\gamma}\omega\). Si analizamos cada suma por separado, digamos la correspondiente a \(dx\), obtenemos \begin{equation}\label{Eqn:1} \sum_{i=1}^nA(R_i)(x(t_i)-x(t_{i-1}))=\sum_{i=1}^n A(\gamma(t_i^*))(x(t_{i-1})-x(t_i)). \end{equation} Lo que descubrio la gente es que \eqref{Eqn:1} se parece a una suma de Riemann. Recordemos que si \(f:[a,b]\to \mathbb{R}\) es una función continua en \([a,b]\), una suman de Riemann para \(f\) es: \[ \sum_{i=1}^n f(t_i^*)(t_i-t_{i-1}) \] donde las \(t_i\) y \(t_{i}^*\) son como antes. Además, si suponemos que la partición es homogenea (o que la norma de la partición tiende a cero), se tiene el siguiente teorema

    \[ \lim_{n\to \infty}\sum_{i=1}^n f(t_i^*)(t_i-t_{i-1})=\int_a^b f(t)dt \]

    (es en esta identidad donde la continuidad de \(f\) es esencial).

    Para ver a \eqref{Eqn:1} como una suma de Riemann el ingrediente crucial es el Teorema del Valor Medio para derivadas, pues al ser \(x:[a,b]\to \mathbb{R}\) una función de clase \(C^1\) tenemos que existe \(a_i\in [t_{i-1}, t_i]\) para el cual \[ x(t_i)-x(t_{i-1})=x'(a_i)(t_i-t_{i-1}) \] por lo que \eqref{Eqn:1} puede reescribirse como (tomando \(t_i^*=a_i\)) \[ \sum_{i=1}^n A(\gamma(a_i))x'(a_i)(t_i-t_{i-1}) \] Tomando \(f(t)=A(\gamma(t))x'(t)\) concluimos que \[ \lim_{n\to \infty} \sum_{i=1}^n A(\gamma(a_i))x'(a_i)(t_i-t_{i-1})= \int_{a}^b A(\gamma(t))x'(t)dt. \] De manera similar, existen \(b_i,c_i\in [t_{i-1},t_i] \) tales que: \[ \lim_{n\to \infty} \sum_{i=1}^n B(\gamma(b_i))y'(b_i)(t_i-t_{i-1})= \int_{a}^b B(\gamma(t))y'(t)dt. \] \[ \lim_{n\to \infty} \sum_{i=1}^n C(\gamma(c_i))z'(c_i)(t_i-t_{i-1})= \int_{a}^b C(\gamma(t))z'(t)dt. \] Todo el trabajo anterior justifica que definamos \[ \int_\gamma \omega =\int_{a}^b A(\gamma(t))x'(t)+B(\gamma(t))y'(t) + C(\gamma(t))z'(t)dt \]

    Video

    Definición

    Sea \(U \subseteq \mathbb{R}^n\) un abierto, \(\omega=\sum_{j=1}^n A_j dx_j\) una 1-forma continua en \(U\) y \(\gamma(t)=(\gamma_1(t), \dots, \gamma_n(t))\), \(t\in [a,b]\) una trayectoria parametrizada suave cuya traza esté contenida en \(U\). Definimos la integral de línea de \(\omega\) a lo largo de \(\gamma \) como \[ \int_\gamma \omega :=\int_a^b \sum_{j=1}^n A_j(\gamma(t))\gamma_j'(t)dt \]

    Ejercicio

    Sea \(U\subset \mathbb{R}^n\) un abierto convexo y \(\omega\) una 1-forma constante y continua en \(U\). Entonces para todos \(P,Q\in U\) y \(S\in \mathbb{R}^n\) tal que \(P_S=P+S, Q_S=Q+S \in U\) se tiene que \[ \int_{\overrightarrow{PQ}} \omega = \int_{\overrightarrow{P_SQ_S}}\omega \]

    Ejercicio

    Calcula las siguientes integrales de línea de las 1-formas sobre las curvas dadas.

    1. \(\alpha\) es el segmento de recta que va de \(P=(1,1)\) a \(Q=(3,5)\) y \[ \omega= (2x-y)dx+(y-x)dy \]
    2. \(\alpha\) es la parte de la parábola \(y=x^2\) que va de \((-1,1)\) a \((1,1)\) y \[ \omega=(x^2-y^2)dx+(xy-1)dy \]
    3. \(\alpha=(t,t^2,t)\), \(t\in [0,1]\) y \[ \omega = (xz)dx - (z^2)dy+ (x+y)dz \]
    4. \(\alpha\) es la circunferencia de radio \(r\) centrada en el origen, recorrida en el sentido positivo y \[ \omega= \frac{x+y}{x^2+y^2}dx + \frac{x-y}{x^2+y^2}dy \]

    1. El segmento de recta de \( P = (1,1)\) a \( Q=(3,5) \), queda determinado por la curva \(\alpha \colon [0,1] \to \mathbb{R}^2 \), definida como \[\alpha(t) = (\alpha_1(t), \alpha_2(t)) := ((1-t) + 3t, (1-t) + 5t)= (1+2t, 1+4t).\] De acuerdo a la Definición 2.1 como las funciones \( A_1(x,y) := 2x - y\) y \(A_2(x,y) := y-x \) son clase \( C^1\) en \( \mathbb{R}^2\), \(\omega= (2x-y)dx+(y-x)dy \) es una \( 1\)-forma diferenciable clase \( C^1 \) en todo \( \mathbb{R}^2 \). Además, es claro que \( \alpha\) es una curva suave cuya traza siempre se encuentra contenida en \(\mathbb{R}^2 \). Por lo tanto, siguiendo la Definición 4.2 se tiene que: \begin{align*} \int_\alpha \omega &:=\int_0^1 [A_1(\alpha(t))\alpha_1'(t) + A_2(\alpha(t))\alpha_2'(t) ] dt\\ &= \int_0^1 A_1(\alpha(t))\alpha_1'(t) dt + \int_0^1 A_2(\alpha(t))\alpha_2'(t) dt\\ &= \int_0^1 2dt + \int_0^1 8t dt\\ &= 2(1) + 8(1/2)\\ &= 6 \end{align*}
    2. \(\alpha\) es la parte de la parábola \(y = x^{2}\) que va de \((-1, 1) \) a \( (1, 1)\) y \[ \omega = (x^{2} - y^{2})dx + (xy - 1)dy \] Una parametrización para esta curva puede ser la función \(\alpha : [-1, 1] \subseteq \mathbb{R} \rightarrow \mathbb{R}^{2}\) definida como: \[ \alpha(t) = (x(t), y(t)) = (t, t^{2}) . \] Es claro que \(\alpha\) es una curva suave y, que en efecto, parametriza a la parábola \(y = x^{2}\) que va de \((-1, 1) \) a \( (1, 1)\). Lo siguiente es obtener la derivada de \(\alpha\), la cual es: \[ \alpha^{\prime}(t) = (x^{\prime} (t), y^{\prime}(t)) = (1, 2t) \] donde \(t \in (-1, 1)\). Entonces la integral de línea de \(\omega\) a lo largo de \(\alpha\) es: \begin{align*} \int_{\alpha}\omega & = \int_{-1}^{1}(x(t)^{2} - y(t)^{2})x^{\prime}(t) + (x(t)y(t) - 1)y^{\prime}(t) \\ & = \int_{-1}^{1} \left[(t^{2} - t^{4}) + (t\cdot t^{2} - 1)\cdot(2t)\right] dt \\ & = \int_{-1}^{1} \left[ t^{4} + t^{2} - 2t \right] dt \\ & = \dfrac{16}{15} \end{align*} Por lo tanto \(\int_{\alpha}\omega = \frac{16}{15}\).

    Ejercicio

    Calcula \(\int_\alpha \omega\) para las siguientes 1-formas y curvas.
    1. \(\alpha\) es el triángulo con vértices \((0,0), (1,1), (-1,1)\), recorrido en el sentido positivo y \[ \omega= (x+y)dx+(x-y)dy \]
    2. \(\alpha\) es el cuadrado con vértices \( (1,1), (-1,1) , (-1,-1), (1,-1)\), recorrido en el sentido positivo y \[ \omega= -ydx+xdy \]
    3. \(\alpha\) es el cuadrado con vértices \((2,0), (0,2), (-2,0), (0,-2)\), recorrido en el sentido positivo y \[ \omega= \frac{dx+dy}{|x|+|y|} \]
    4. \(\alpha\) es la curva dada por \(\{(x,y):\max\{|x|,|y|=1\}\}\) recorrida en el sentido positivo y \[ \omega= \frac{2xy}{|x|+|y|}dx+ \frac{x}{|x|+|y|}dy \]

    1. Sea \( \beta \colon [0,3] \to \mathbb{R}^{2} \) definida por \[ \beta(t) : = \begin{cases} \beta_1(t)= (\beta_{1_1}(t), \beta_{1_2}(t)):= (t,t) & \text{ si } t \in [0,1]\\ \beta_2(t)=(\beta_{2_1}(t), \beta_{2_2}(t)) := (3-2t,1) & \text{ si } t \in [1,2]\\ \beta_3(t) = (\beta_{3_1}(t), \beta_{3_2}(t)):= (t -3,3-t) & \text{ si } t \in [2,3] \end{cases} \] No es difícil ver que \(\beta\) es una curva suave a trozos y que en efecto \(\beta\) tiene como traza el triángulo con vértices \(P:= (0,0), Q:=(1,1)\) y \(R:=(-1,1)\), recorrido en el sentido positivo. Entonces para la forma diferencial de clase \( C^{1}\) \( \omega :=(x+y)dx+(x-y)dy \) haciendo \( A_{1}(x,y):= x+y \) y \( A_{2}(x,y):= x-y \) de la Definición 4.7 se tiene que: \[ \begin{align*} \int_\beta \omega &= \sum_{j=1}^3 \int_{\beta_j} \omega\\ &= \sum_{j=1}^3 \int_{j-1}^{j} \sum_{i=1}^2 A_{i}(\beta_{j}(t))\beta_{j_i}'(t)dt \\ &= 1 - 2 + 1\\ &= 0 \end{align*} \]
    2. Primero parametricemos los segmentos del cuadrado con vértices \(P_{1} = (1,1), P_{2} = (-1, 1), P_{3} = (-1, -1) \text{ y } P_{4} = (1, -1)\). Sean \(\alpha_{i} : [0,1] \subseteq \mathbb{R} \rightarrow \mathbb{R}^{2}\) con \(i = 1, 2, 3, 4\) funciones definidas como: \begin{eqnarray*} \alpha_{1}(t) = (x_{1}(t), y_{1}(t)) = (1 - 2t, 1) & \Rightarrow & \alpha_{1}^{\prime}(t) = (x_{1}^{\prime}(t), y_{1}^{\prime}(t)) = (- 2, 0) \\ \alpha_{2}(t) = (x_{2}(t), y_{2}(t)) = (-1, 1 - 2t) & \Rightarrow & \alpha_{2}^{\prime}(t) = (x_{2}^{\prime}(t), y_{2}^{\prime}(t)) = (0, -2) \\ \alpha_{3}(t) = (x_{3}(t), y_{3}(t)) = (2t -1, -1) & \Rightarrow & \alpha_{3}^{\prime}(t) = (x_{3}^{\prime}(t), y_{3}^{\prime}(t)) = ( 2, 0) \\ \alpha_{4}(t) = (x_{4}(t), y_{4}(t)) = (1, 2t - 1) & \Rightarrow & \alpha_{4}^{\prime}(t) = (x_{4}^{\prime}(t), y_{4}^{\prime}(t)) = (0, 2) \end{eqnarray*} Observamos que cada \(\alpha_{i}\) parametriza un segmento del cuadrado. Por ejemplo, \(\alpha_{1}\) parametriza el segmento \(\overrightarrow{P_{1}P_{2}}\), \(\alpha_{2}\) parametriza el segmento \(\overrightarrow{P_{2}P_{3}}\), \(\alpha_{3}\) parametriza el segmento \(\overrightarrow{P_{3}P_{4}}\) y \(\alpha_{4}\) parametriza el segmento \(\overrightarrow{P_{4}P_{1}}\). A partir de tales funciones \(\alpha_{i}\) podemos parametrizar el cuadrado de la siguiente manera. Sea \(\alpha : [0, 4] \subseteq \mathbb{R} \rightarrow \mathbb{R}^{2}\) una función definida como: \begin{equation*} \alpha (t) = \left\{ \begin{array}{cccc} \alpha_{1}(t) & \text{ si } t \in [0, 1] \\ \alpha_{2}(t - 1) & \text{ si } t \in [1, 2] \\ \alpha_{3}(t - 2) & \text{ si } t \in [2,3] \\ \alpha_{4}(t - 3) & \text{ si } t \in [3,4] \end{array} \right. \end{equation*} La función \(\alpha\) es una curva suave a trozos. Entonces podemos calcular la integral de línea de \(\omega\) a lo largo de \(\alpha\), \begin{equation} \int_{\alpha}\omega = \sum_{i = 1}^{4}\int_{\alpha_{\vert_{[i -1, i]}}} \omega \end{equation} donde \(\alpha_{\vert_{[i -1, i]}}\) es la restricción de \(\alpha\) en el intervalo \([i -1, i]\). Es importante notar que \(\alpha_{\vert_{[i -1, i]}}\) es equivalente a \(\alpha_{i}\) y además tienen la misma orientación. Por lo tanto, por el Ejercicio 4.4 se tiene que para cada \(i \in \lbrace 1, 2, 3, 4 \rbrace\) \begin{equation} \int_{\alpha_{\vert_{[i -1, i]}}}\omega = \int_{\alpha_{i}}\omega \end{equation} Entonces por (1) y (2) se sigue que \begin{eqnarray*} \int_{\alpha}\omega & = & \sum_{i = 1}^{4} \int_{\alpha_{i}}\omega \\ & = & \sum_{i = 1}^{4} \int_{0}^{1} -y_{i}\cdot x_{i}^{\prime} + x_{i}\cdot y_{i}^{\prime} \\ & = & \int_{0}^{1}[-(1)\cdot (-2) + (1 - 2t) \cdot 0 ] dt + \int_{0}^{1}[-(1 - 2t)\cdot 0 + (-1) \cdot (-2) ] dt \\ & & + \int_{0}^{1}[-(-1)\cdot (2) + (2t - 1) \cdot 0 ] dt + \int_{0}^{1}[-(2t - 1)\cdot (0) + 1 \cdot 2 ] dt \\ & = & 4 \int_{0}^{1}2 dt = 8 \end{eqnarray*} Por lo tanto \(\int_{\alpha}\omega = 8\).

    Nota

    La integral de línea extiende la integral usual.

    Queremos ver que la integral de Riemann \[ \int_a^b f(x)dx, \] donde \(f:[a,b]\to \mathbb{R}\) es una función continua, se puede ver como un integral de una 1-forma.

    Primero notamos que, las 1-formas constantes en \([a,b]\) son de la forma \(Adx\), pues estamos en un espacio de una dimensión (el intervalo). Así, una 1-forma en general se puede escribir \[ \omega=Adx \] donde \(A\) es una función \(A:[a,b]\to \mathbb{R}\) y \(dx\) es la 1-forma tal que \[ \int_{\seg{PQ}} dt= P-Q \] donde \(P,Q\in [a,b]\).

    Ahora, resulta que las curvas suaves en \([a,b]\) son sencillas, simplemente van a conectar dos puntos del intervalo y sólo pueden viajar en el intervalo \([a,b]\). Por ejemplo \(\alpha:[a,b] \to [a,b]\) con \(\alpha(t)=t\), tiene como traza el intervalo \([a,b]\) y, según la Definición 4.2 \[ \int_\alpha \omega= \int_a^b A(\alpha(t))\alpha'(t)dt =\int_a^b A(t)dt \] siempre y cuando \(A\) sea continua. Así recuperamos la integra usual.

    Conclusión

    Usando la integral de 1-formas constantes sobre segmentos de recta: \[ \int_{\seg{PQ}}A_1dx_1+\cdots +A_ndx_n=\sum_{j=1}^n A_j(q_j-p_j) \] (con \(P=(p_1,\dots, p_n\)) y \(Q=(q_1,\dots, q_n)\)) definimos la integral de línea de 1-formas diferenciables sobre trayectorias parametrizadas suaves: \[ \int_\alpha A_1dx_1+\cdots +A_ndx_n=\int_a^b \sum_{j=1}^nA_j(\alpha(t))\alpha_j'(t)dt \]

    Con esta definición tenemos propiedades similares a las de la integral de 1-formas constantes:

    1. la integral sobre puntos es cero: \[ \int_{\gamma} A_1dx_1+\cdots +A_ndx_n=0 \] cuando \(\gamma\) es un punto. Esto es consecuencia directa de la Definición 10.31 , \[ \int_{\gamma}\omega =\int_a^b \sum_{j=1}^n A(\gamma(t))\gamma_j'(t) dt \] pues si \(\gamma\) es un punto, digamos \(P_0\), tenemos \(\gamma(t)=P_0\) para toda \(t\) y por lo tanto \(\gamma_j'(t)=0\) para toda \(t\) y \(j\).
    2. Aditividad \[ \int_{\alpha\vee \beta} \omega = \int_\alpha \omega+ \int_\beta \omega \] siempre y cuando el punto final de \(\alpha\) coincida con el punto inicial de \(\beta\). Esta propiedad es el Teorema 5.31
    3. La integral respeta orientaciones: \[ \int_{\alpha} \omega = -\int_\beta \omega \] siempre que \(\alpha\) sea equivalente a \(\beta\) con orientaciones distintas. Esta propiedad es el Lema 5.9