Cálculo CUATRO

§ 12

Funciones bilineales alternantes

Introducción

En la sección 9 vimos que las nociones geométricas sobre la integral de 2-formas constantes nos llevan a las funciones bilineales alternantes. En esta sección se estudian las funciones bilineales desde el punto de vista de álgebra lineal. De especial importancia es encontrar una base explícita para el espacio de las funciones bilineales alternantes.

Recordamos que denotamos:

\[ \Lambda^2(\mathbb{R}^n):=\{\varphi:\mathbb{R}^n\times \mathbb{R}^n \to \mathbb{R}| \textrm{\(\varphi\) es bilineal y alternante }\} \]

Ejercicio

Prueba que, con las operaciones usuales de suma de funciones y multiplicación escalar, \(\Lambda^2(\mathbb{R}^n)\) es un espacio vectorial.

Tenemos que \(\Lambda^{2}(\mathbb{R}^{n})\) es un subconjunto del espacio vectorial de las funciones definidas en \(\mathbb{R}^{n}\times \mathbb{R}^{n}\) que toman valores reales, a este espacio vectorial lo denotaremos por \(F(\mathbb{R}^{n}\times \mathbb{R}^{n}, \mathbb{R})\). Para demostrar que \(\Lambda^{2}(\mathbb{R}^{n})\) es un espacio vectorial, basta demostar que \(\Lambda^{2}(\mathbb{R}^{n})\) es un subespacio vectorial de \(F(\mathbb{R}^{n}\times \mathbb{R}^{n}, \mathbb{R})\).

Entonces primero demostremos que \(0 \in \Lambda^{2}(\mathbb{R}^{n})\), donde \(0\) denota a la función constante cero.

Sean \(P, Q, R \in \mathbb{R}^{n}\) y sean \(c, d \in \mathbb{R}\), entonces \(0(cP + dQ, R) = 0 \) y \( c\cdot 0(P, R) + d \cdot 0(Q, R) = c \cdot 0 + d \cdot 0 = 0\), es decir \[ 0(P + Q, R) = c \cdot 0(P, R) + d \cdot 0(Q, R) \] De manera análoga, \(0(P , cR + dQ) = c\cdot0(P, R) + d\cdot0(P, Q)\). Además \(0(P, Q) = -0(Q, P)\) ya que \(0(P, Q)= 0(Q,P) = 0.\)

Por lo tanto, \(0 \in \Lambda^{2}(\mathbb{R}^{n})\).

Sean \(\varphi, \phi \in \Lambda^{2}(\mathbb{R}^{n})\) y \(a \in \mathbb{R}\). Veamos que \(\varphi + a\phi \in \Lambda^{2}(\mathbb{R}^{n}).\)

Sean \(P, Q, R \in \mathbb{R}^{n}\), y sean \(c, d \in \mathbb{R}\). Entonces, \begin{eqnarray*} (\varphi + a\phi) (cP + dQ, R) & := & \varphi (cP + dQ, R) + a\phi(cP + dQ, R) \\ & := & \varphi (cP + dQ, R) + a\phi(cP + dQ, R) \\ & = & c\varphi (P, R) + d\varphi(Q, R) + a( c\phi(P,R) + d\phi(Q,R) ) \\ & = & c( \varphi (P, R) + a \phi(P,R)) + d(\varphi(Q, R) + a \phi(Q,R) ) \\ & = & c(\varphi + a\phi)(P,R) + d(\varphi + a\phi)(Q, R) \end{eqnarray*}

De manera análoga, se tiene que \[(\varphi + a\phi)(P, cQ+ dR) = c(\varphi(P,Q) + a\phi(P,Q)) + d((\varphi(P,R) + a\phi(P,R)).\]

Por otro lado, usando la altenancia de \(\varphi\) y \(\phi\), \[(\varphi + a\phi)(P,R) = \varphi(P,R) + a\phi(P,R) = -\varphi(R,P) - a\phi(R,P) = -(\varphi + a\phi)(R, P) .\]

Por lo tanto, \(\varphi + a\phi \in \Lambda^{2}(\mathbb{R}^{n}).\)

Por lo tanto, \(\Lambda^{2}(\mathbb{R}^{n})\) es un subespacio vectorial.

Ejercicio

Recuerda que por el Ejercicio 9.14 podemos pensar al determinante cómo un elemento de \(\Lambda^{2}(\mathbb{R}^2)\).

Demuestra que, para toda \(\varphi\in \Lambda^2(\mathbb{R}^2)\) existe una constante \(c\in \mathbb{R}\) tal que \[ \varphi=c\det \] En otras palabra, \(\Lambda^2(\mathbb{R}^2)\) es un espacio vectorial de dimensión 1 y la función determinante forma una base.

Sugerencia: por \(e_1,e_2\) denota la base canónica de \(\mathbb{R}^2\). Usando las propiedades de bilinealidad desarrolla \[ \varphi(x_1e_1+y_1e_2,x_2e_1+y_2e_2) \] para encontar la \(c\) tal que \[ \varphi(x_1e_1+y_1e_2,x_2e_1+y_2e_2)=c(x_1y_2-x_2y_1) \]

Ejercicio

Sea \(T:\mathbb{R}^m \to \mathbb{R}^n\) una función lineal y \(\varphi\in \Lambda^2(\mathbb{R}^n)\). Define una nueva función \(\psi: \mathbb{R}^m\times \mathbb{R}^m \to \mathbb{R} \) por \[ \psi(P,Q)=\varphi(T(P), T(Q)) \]

  1. Prueba que \(\psi \in \Lambda^2(\mathbb{R}^m)\).
  2. Considera el caso \(n=2, m=3\) y \(\varphi =\det\). Tomando \(T\) como: (1) la proyección en el plano \(x,y\); (2) la proyección en el plano \(x,z\); (3) la proyección en el plano \(y,z\); calcula la regla de correspondencia de cada una de las \(\psi\) resultantes.

Ejercicio

Toma \(\varphi\in \Lambda^2(\mathbb{R}^2)\) como \(\varphi =\det\).

Define \(T_i:\mathbb{R}^3\to \mathbb{R}^2\), \(i=1,2,3\) por \[ T_1(x,y,z)=(y,z), \quad T_2(x,y,z)=(x,y), \quad T_3(x,y,z)=(x,y) \] y define \(\psi_i \in \Lambda^2(\mathbb{R}^3)\) por \[ \psi_i(P,Q)=\varphi(T_i(P), T_i(Q)), \quad i=1,2,3. \] (ver Ejercicio anterior ).

Toma \(\psi= 3\psi_1-2 \psi_2+5\psi_3 \). Calcula \(\psi(P,Q)\) para \(P=(1,1,2), Q=(2,1,-1)\).

Definición

Dadas dos funciones lineales \(f,g:\mathbb{R}^n \to \mathbb{R}\) definimos su producto cuña o producto exterior como la función \(f\wedge g: \mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R}\) dada por \begin{eqnarray*} (f \wedge g) (P,Q) = \frac{1}{2}\det \left[ \begin{array}{cc} f(P) & g(P)\\ f(Q) & g(Q) \end{array} \right] \end{eqnarray*}

Ejercicio

Sean \(f,g,h:\mathbb{R}^n\to \mathbb{R}\) funciones lineales y \(c\) una constante.

Prueba:

  1. \(f\wedge 0 = 0\).
  2. \(f\wedge g \in \Lambda^2(\mathbb{R}^n)\).
  3. \(f\wedge g = - g \wedge f\).
  4. \(f\wedge f =0\).
  5. \( (f+ch)\wedge g= f\wedge g+ c (h\wedge g), \quad f \wedge (g+ch)=f\wedge g+ c (f\wedge h). \)

Ejercicio

Sean \(f,g:\mathbb{R}^n \to \mathbb{R}\) dos funciones lineales. Prueba que \(f\wedge g\) es la función idénticamente cero si y sólo si existe un escalar \(c\) tal que \(f=cg\).

Nota

Recuerda que por \(dx_i\), \(i=1,\dots, n\), denotamos a la función de \(\mathbb{R}^n\) a \(\mathbb{R}\) dada por \[ dx_i(x_1,\dots, x_n)=x_i \] Es decir, \(dx_i\) es la proyección en la \(i\)-ésima coordenada. También recuerda que \(dx_i\) es lineal.

Con las funciones \(dx_i\) y el producto cuña obtenemos toda una familia de funciones bilineales \begin{equation}\label{Eqn:todosProductosCuna} dx_i \wedge dx_j, \quad i,j=1,\dots, n. \end{equation} Esta familia es importante por que de ella se puede extraer una base para \(\Lambda^2(\mathbb{R}^n)\).

Primero notamos que \(dx_i\wedge dx_i=0\) y \(dx_i\wedge dx_j=-dx_j\wedge dx_i\). Así que en términos de conjuntos linealmente independientes el conjunto \eqref{Eqn:todosProductosCuna} tiene elementos que podemos eliminar. Después de dicha eliminación nos queda: \begin{equation}\label{Eqn:baseProductosCuna} dx_i\wedge dx_j, \quad 1 \leq i < j \leq n. \end{equation}

Por ejemplo, en dimensión \(3\) queda \[ dx_1\wedge dx_2, \quad dx_1\wedge dx_3,\quad dx_2\wedge dx_3 \]

El propósito de los ejercicios que siguen es probar que el conjunto dado por \eqref{Eqn:baseProductosCuna} es una base para \(\Lambda^2(\mathbb{R}^n)\).

Ejercicio

Sea \(n\geq 2\) un entero. Por \(\{e_i\}_{1=1}^n\) denotamos la base canónica de \(\mathbb{R}^n\). Fija \(i,j \in \{1,\dots, n\}\) con \(i < j \). Prueba que \[ (dx_i\wedge dx_j)(e_k,e_l) = \left\{ \begin{array}{cc} 1/2 & k=i, l=j \\ -1/2 & k=j, l=i \\ 0 & \textrm{en otro caso} \end{array} \right. \]

Sean \(i,j \in \lbrace 1, . . . , n \rbrace\) con \(i < j\). Si \(k=i \) y \( l=j, \) entonces \begin{equation*} (dx_i \wedge dx_j)(e_i, e_j) = \frac{1}{2}\det \left[ \begin{array}{cccc} dx_i(e_i) & dx_j(e_i) \\ dx_i(e_j) & dx_j(e_j) \end{array} \right] = \frac{1}{2}\det \left[ \begin{array}{cccc} 1 & 0 \\ 0 & 1 \end{array} \right] = \frac{1}{2}. \end{equation*}

Si \(k=j \) y \( l=i\), entonces \((dx_i \wedge dx_j)(e_j, e_i) = -(dx_j \wedge dx_i)(e_j, e_i)= -1/2\).

En cualquier otro caso, \(dx_i(e_k) = dx_i(e_l) = 0\) y \(dx_j(e_k) = dx_j(e_l) = 0\). Por lo tanto, \((dx_i \wedge dx_j)(e_k, e_l) = 0\).

Ejercicio

Prueba que el subconjunto \[ \{dx_i\wedge dx_j: 1\leq i < j \leq n\} \subset \Lambda^2(\mathbb{R}^n) \] es linealmente independiente.

Sugerencia: si tenemos una combinación lineal igualada a cero \[ \sum_{1\leq i < j \leq n} \alpha_{i,j}dx_i\wedge dx_j=0 \] valua la función anterior en parejas de la forma \((e_k,e_l)\) y usa el Ejercicio 10.10.

Ejercicio

Sean \(\varphi, \psi \in \Lambda^2(\mathbb{R}^n)\). Prueba que las funciones \(\varphi\) y \(\psi\) son iguales si y sólo si \[ \varphi(e_k, e_l)=\psi(e_k,e_l) \] para todos \(1\leq k < l \leq n\).

Ejercicio

Sea \(\varphi \in \Lambda^2(\mathbb{R}^n)\) fija y arbitraria. Para \(1\leq i< j \leq n\) denota \(\beta_{i,j}:=\varphi(e_i,e_j)\). Prueba que \[ \varphi = \sum_{1 \leq i < j \leq n}\beta_{i,j} dx_i \wedge dx_j \]

Sugerencia: usa el Ejercicio 10.12 para probar que la igualdad de funciones que se pide.

Ejercicio

Denotamos \(\mathbb{Z}^+=\{1,2,\dots\}\). Fija \(n\in \mathbb{Z}^+\) con \(n\geq 2\). Prueba que la cardinalidad de \begin{equation}\label{Eqn:conjuntoAux} \{(i,j)\in \mathbb{Z}^+\times \mathbb{Z}^+: 1\leq i< j \leq n\} \end{equation} es \(\sum_{k=1}^{n-1} k\) .

Concluye que la cardindalidad de \[ \{dx_i\wedge dx_j : 1 \leq i < j \leq n\} \] es \(\frac{n(n-1)}{2}\).

Sugerencia: dibuja el conjunto \eqref{Eqn:conjuntoAux} como subconjunto de \(\mathbb{Z}^+\times \mathbb{Z}^+\).

Ejercicio

Prueba que el conjunto \[ \{ dx_i\wedge dx_j : 1\leq i < j \leq n \} \] es una base para \(\Lambda^2(\mathbb{R}^n)\).

Concluye que \(\Lambda^2(\mathbb{R}^n)\) es un espacio vectorial de dimensión \(\frac{n(n-1)}{2}\).

Nota en particular que \(\Lambda^2(\mathbb{R}^2)\) tiene dimensión \(\frac{n(n-1)}{2}=\frac{2(2-1)}{2}=1\), lo cual concuerda con el ejercicio Ejercicio 10.3

Definición

Dada una matriz \(A\), por \(A[i,j]\) denotamos su entrada \((i,j)\) (\(i\)-ésimo renglón, \(j\)-ésima columna). La matriz transpuesta de \(A\), denotada \(A^t\) se define como la matriz con entradas \[ A^t[i,j]:=A[j,i]. \] Es decir, es la matriz que obtenemos al intercambiar renglones y columnas de \(A\).

Una matriz \(A\in M_n(\mathbb{R})\) se llama anti-simétrica si \(A^t=-A\).

Nota

Con la ayuda de las matrices anti-simétricas es posible dar otra descripción de las funciones bilineales alternantes. Los ejercicios que siguen están dirigidos a mostrar esta descripción.

Ejercicio

Sean \(A,B\in M_n(\mathbb{R})\) y \(c\in \mathbb{R}\) una constante. Prueba:

  1. \[ (AP)\cdot Q= P\cdot (A^tQ), \quad \forall P,Q\in \mathbb{R}^n \] donde \(AP\) denota el producto de la matriz \(A\) por el vector \(P\) y \(\cdot\) indica el producto punto.
  2. \[ (cA+B)^t=cA^t+B^t \]
  3. \(A\) es anti-simétrica si y sólo si \(A[i,i]=0\) para toda \(i=1,\dots, n\) y \(A[j,i]=-A[i,j]\) para toda \(1\leq i < j \leq n\).
  4. Inciso 1.

    Primero escribimos las coordenadas de \(P\) y \(Q\) como \[ P=(p_1,\dots, p_n), \quad Q=(q_1,\dots, q_n). \]

    Primero vamos a desarrollar \( (AP)\cdot Q\). Por simplicidad denotamos \(AP=R=(r_1,\dots,r_n).\) Por la definición del producto de matriz por vector tenemos \[ r_i=\sum_{j=1}^n A[i,j]p_j \] Entonces \begin{eqnarray} (AP)\cdot Q&=&R\cdot Q \nonumber \\ &=&\sum_{i=1}^n r_iq_i \nonumber \\ &=& \sum_{i=1}^n \sum_{j=1}^n A[i,j]p_jq_i \label{Eqn:aux1PropiedadesAdjunto} \end{eqnarray}

    Ahora vamos a desarrollar \( P\cdot (A^tQ) \) de manera similar.

    Por definición del producto de una matriz por vector, tomando \(A^tQ=S=(s_1,\dots, s_n)\), tenemos \[ s_i=\sum_{j=1}^n A^t[i,j]q_j=\sum_{j=1}^n A[j,i]q_j \] nota que en la última igualdad se utilizó la definición de \(A^t\).

    Finalmente \begin{eqnarray} P\cdot (A^tQ)&=&P\cdot S \nonumber\\ &=& \sum_{i=1}^n p_i s_i \nonumber \\ &=& \sum_{i=1}^n\sum_{j=1}^n A[j,i]p_iq_j \label{Eqn:aux2PropiedadesAdjunto} \end{eqnarray}

    Comparando \eqref{Eqn:aux1PropiedadesAdjunto} y \eqref{Eqn:aux2PropiedadesAdjunto} obtenemos el inciso 1.

    Inciso 2.

    Para probar la igualadad entre las matrices debemos probar que iguales entrada por entrada.

    Por la definición de la transpuesta \[ (cA+B)^t[i,j]=(cA+B)[j,i]. \] Por la definición de la suma y multiplicación escalar de matrices tenemos \begin{equation}\label{Eqn:aux3PropiedadesAdjunto} (cA+B)[j,i]=cA[j,i]+B[j,i]. \end{equation}

    De manera similar, \begin{equation}\label{Eqn:aux4PropiedadesAdjunto} (cA^t+B^t)[i,j]=cA^t[i,j]+B^t[i,j]=cA[j,i]+B[j,i] \end{equation}

    Comparando \eqref{Eqn:aux3PropiedadesAdjunto} y \eqref{Eqn:aux4PropiedadesAdjunto} concluimos que \( (cA+B)^t=cA^t+B^t\).

    Inciso 3.

    Por definición, \(A\) es anti-simétrica si y sólo si, para toda \(1\leq i,j\leq n\), \[ A^t[i,j]=-A[i,j] \Leftrightarrow A[j,i]=-A[j,i] \] Pero notamos que, cuando \(i=j\), \(A[i,i]=-A[i,i]\) lo que implica \(A[i,i]=0\). Además, la condición \(A[j,i]=-A[i,j]\), para toda \(1\leq i,j \leq n\) implica que los valores de \(A[i,j]\), para \( j \leq i\) están completamente determinados por los valores de \(A[i,j]\), con \(i < j\). Por lo que \begin{eqnarray*} & A[j,i]=-A[j,i] \quad \forall i,j, \textrm{con} \quad 1\leq i,j \leq n \\ & \Updownarrow \\ & \left\{ \begin{array}{cc} A[i,i]=0, & \forall i, \textrm{con} \quad 1\leq i \leq n \\ A[i,j]=-A[j,i], & \forall i,j, \textrm{con} \quad 1\leq i < j \leq n \end{array} \right\} \end{eqnarray*} lo cual prueba el inciso 3.

Ejercicio

Prueba que el subconjunto \[ \{A\in M_n(\mathbb{R}^n): \textrm{\(A\) es anti-simétrica}\} \] es un subespacio de \(M_n(\mathbb{R}^n)\).

Ejercicio

Fija \(n\geq 2\). Dados \(i,j\in \{1,\dots, n\}\), por \(E_{i,j}\) denotamos a la matriz de \(n\times n\) que tiene todas las entradas cero, excepto por la del renglón \(i\) y columno \(j\), donde tiene un 1.

Prueba que:

  1. \( \{ E_{i,j}-E_{j,i}: 1\leq i < j \leq n\} \) es una base para el subespacio de matrices anti-simétricas.
  2. La dimensión del subespacio de matrices anti-simétricas es \(\frac{n(n-1)}{2}\).

Ejercicio

Sea \(A\in M_n(\mathbb{R})\) una matriz anti-simétrica. Define \(\varphi: \mathbb{R}^n\times \mathbb{R}^n \to \mathbb{R}\) por \[ \varphi(P,Q)=(AP)\cdot (Q) \]

Prueba que \(\varphi \in \Lambda^2(\mathbb{R}^n)\).

Sugerencia: para probar que \(\varphi\) es alternante usa el Ejercicio 10.18.

Ejercicio

Continuando con la misma notación que en el ejercicio anterior, encuentra una matriz \(A\) de \(2\times 2\) tal que \[ (AP)\cdot Q= \det[P,Q],\quad \forall P,Q\in\mathbb{R}^2 \]

Conclusión

El conjunto \[ \Lambda^2(\mathbb{R}^n)=\{\varphi: \mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R} : \textrm{\(\varphi\) es bilineal y alternante}\} \] forma un espacio y con la ayuda del producto cuña tenemos que el conjunto \[ dx_i\wedge dx_j, \quad 1 \leq i < j \leq n, \] forma una base. Es decir, para toda \(\varphi\in \Lambda^2(\mathbb{R}^n)\) existen constantes \(A_{i,j}\in \mathbb{R}\), con \(1\leq i< j \leq n\), tal que \[ \varphi=\sum_{1\leq i < j \leq n} A_{i,j}dx_i \wedge dx_j \] La descripción anterior será útil para definir 2-formas no constantes.

Las matrices anti-simétricas también dan otra descripción del espacio de funciones bilineales alternantes. No es coincidencia de que ambos espacios tengan las misma dismensión. Se puede mostrar que como espacios vectoriales son isomorfos. Un isomorfismo se puede dar de la siguiente manera.

Si \(A\) es una matriz anti-simétrica definimos la función bilineal alternante como \[ \varphi_A(P,Q)=(AP)\cdot Q \]

Si \(\varphi\) es una función bilineal alternante entonces la matriz \(A_\varphi\) dada por \[ A_\varphi[i,j]=\varphi(i,j) \] resulta se una matriz anti-simétrica.