Cálculo TRES

§ 2

Matrices y determinantes

Definición

La transpuesta de una matriz de $2\times 2$ se define como: $$ \left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right]^t = \left[ \begin{array}{cc} a_{1,1}& a_{2,1}\\ a_{1,2} & a_{2,2} \end{array} \right] $$

Ejercicio

Sen $A,B$ dos matrices de $2\times 2$ y $\alpha \in \mathbb{R}$. Demuestra que $(\alpha A+B)^t=\alpha A^t+B^t$.

Definición

El determinante de una matriz de \(2\times 2\) se define como

$$ \det\left[ \begin{array}{cc} a_{1,1} & a_{1,2}\\ a_{2,1} & a_{2,2} \end{array} \right]= a_{1,1}a_{2,2}-a_{1,2}a_{2,1} $$

Ejercicio

Sea $A$ una matriz de $2\times 2$. Demuestra que $\det(A)=\det(A^t)$.

Ejercicio

Propiedad alternante del determinante.

Demuestra que $$ \det\left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right] = -\det \left[ \begin{array}{cc} a_{2,1} & a_{2,2}\\ a_{1,1} & a_{1,2} \end{array} \right] $$ Ahora, utilizando la relación entre la transpuesta y el determinante prueba que: $$ \det \left[\begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array}\right] = -\det \left[\begin{array}{cc} a_{1,2} & a_{1,1}\\ a_{2,2} & a_{2,1} \end{array} \right] $$

Ejercicio

Sea $\alpha$ un escalar. Demuestra que $$ \det\left[ \begin{array}{cc} \alpha a_{1,1} & a_{1,2}\\ \alpha a_{2,1} & a_{2,2} \end{array} \right] = \alpha\det\left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right] $$

Ejercicio

Demuestra que $$ \det\left[ \begin{array}{cc} a_{1,1}+v_1 & a_{1,2} \\ a_{2,1}+v_2 & a_{2,2} \end{array} \right]= \det\left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right] + \det\left[ \begin{array}{cc} v_1 & a_{1,2}\\ v_2 & a_{2,2} \end{array} \right] $$

Nota

Las propiedades anteriores se pueden resumir de la siguiente forma.

Vamos a pensar al determinante como una función de las columnas de la matriz. Es decir, dados vectores \(w_1,\dots, w_n\in \mathbb{R}^n\) \[ \det(w_1,\dots, w_n) \] denota el determinante de la matriz que se obtiene al tomar los vectores \(w_i\) como columnas de la matriz.

Con ésta notación los ejercicios previos prueban que \begin{eqnarray*} \det(w_1+\alpha v,w_2)&=&\det(w_1,w_2)+\alpha \det(v,w_2) \\ \det(w_1,\beta u +w_2)&=& \beta \det(w_1,u)+\det(w_1,w_2)\\ \det(w_1,w_2)&=&-\det(w_2,w_1) \end{eqnarray*} donde \(u,v\in \mathbb{R}^n\) y \(\alpha,\beta \in \mathbb{R}\).

Las primeras dos condiciones se abrevian diciendo que el determinante, en las matrices de \(2\times 2\) es bilineal. La tercera condición se llama alternante.

En general el determinante, en las matrices de \(n\times n\), puede definirse como la función \(\det:M_n(\mathbb{R})\to \mathbb{R}\) que satisface

  1. es multilineal \begin{eqnarray*} \det(w_1,\dots, w_i+\alpha v,\dots, w_n)&=&\alpha \det(w_1,\dots, v, \dots, w_n)\\ &+& \det(w_1,\dots, w_i,\dots, w_n) \end{eqnarray*}
  2. es alternante \begin{eqnarray*} \det(w_1,\dots, w_{i-1},w_i,\dots, w_n)=-\det(w_1,\dots, w_i,w_{i-1},\dots,w_n) \end{eqnarray*} para cualesquiera vectores adyacentes \(w_{i-1}, w_i\).
  3. el determinante de la matriz identidad es 1.

Ejercicio

Sea $A$ una matriz de $3 \times 3$. Supongamos que dos renglones de $A$ son iguales. Demuestra que $\det(A)=0$.

Sugerencia: utiliza la propiedad alternante del determinante.

Ejercicio

Considera los vectores $v=(v_1,v_2,v_3), w=(w_1,w_2,w_3)$. Dados escalares $\alpha, \beta$ construye el vector $u=\alpha v+ \beta w$. Demuestra que $$ \det\left[ \begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right]=0 $$

Definición

En $\mathbb{R}^3$ existe un producto que toma dos vectores y como resultado arroja un nuevo vector. Se llama producto curz y se define como \begin{eqnarray*} p\times q&=&( p_2q_3-p_3q_2, -(p_1q_3-p_3q_1), p_1q_2-p_2q_1 ) \\ &=& \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ q_1 & q_2 & q_3 \end{array} \right] \end{eqnarray*} donde \(\hat{i}=(1,0,0)\, \hat{j}=(0,1,0), \hat{k}=(0,0,1)\).

Ejercicio

Prueba que $$ \hat{i}\times \hat{j}= \hat{k}, \quad \hat{j} \times \hat{k}=\hat{i}, \quad \hat{k}\times \hat{i}=j. $$

Ejercicio

Demuestra las siguientes propiedades del producto cruz.

  1. $p\times q= - q\times p$.
  2. $p\times p=0$ para todo vector $p$.
  3. $p\times (\beta v+u)=\beta p\times v+ p\times u $.

Inciso 1.

Calculando directamente \begin{eqnarray*} p\times q&= & \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ q_1 & q_2 & q_3 \end{array} \right] \\ &=& ( p_2q_3-p_3q_2, -(p_1q_3-p_3q_1), p_1q_2-p_2q_1 ) \\ q\times p&=& \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ q_1 & q_2 & q_3 \\ p_1 & p_2 & p_3 \end{array} \right] \\ &=&( q_2p_3-q_3p_2, -(q_1p_3-q_3p_1), q_1p_2-q_2p_1 ) \end{eqnarray*} y comparando las dos ecuaciones anteriores se obtiene \(p\times q= -q\times p\).

Inciso 2.

\begin{eqnarray*} p\times p &= & \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ p_1 & p_2 & p_3 \end{array} \right] \\ &=& (p_2p_3-p_3p_2,-(p_1p_3-p_3p_1),p_1p_2-p_2p_1)\\ &=&0 \end{eqnarray*}

Inciso 3.

Directamente \begin{eqnarray*} p\times (\beta v+ u)&= & \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ \beta v_1+u_1 & \beta v_2+ u_2 &\beta v_3+ u_3 \end{array} \right] \\ &=&( p_2(\beta v_3+u_3)-p_3(\beta v_2+u_2)) \hat{i} \\ &-& (p_1(\beta v_3+u_3)-p_3(\beta v_1+u_1)) \hat{j} \\ &+& (p_1(\beta v_2+u_2)-p_2(\beta v_1+u_1)) \hat{k} \\ &=& \beta( p_2v_3-p_3v_2 )\hat{i}+ (p_2u_3-p_3u_2)\hat{i} \\ &-& \beta (p_1v_3-p_3v_1)\hat{j}- (p_1u_3-p_3u_1)\hat{j} \\ &+& \beta(p_1v_2-p_2v_1)\hat{k}+ (p_1u_2-p_2u_1)\hat{k} \\ &=& \beta (p\times v)+ p\times u \end{eqnarray*}

Ejercicio

Triple producto

Demuetra la siguiente indentidad $$ ( u\times v)\cdot w =\det\left[ \begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right] $$

Directamente \begin{eqnarray*} (u\times v)\cdot w&=& (u_2v_3-u_3v_2,-(u_1v_3-u_3v_1),u_1v_2-u_2v_1 )\cdot (w_1,w_2,w_3) \\ &=& (u_2v_3 - u_3v_2)w_1-(u_1v_3-u_3v_1)w_2+(u_1v_2 - u_2v_1)w_3 \end{eqnarray*}

Expandiendo el determinante por el tercer renglón \begin{eqnarray*} \det \left[\begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right]&=& w_1 \det \left[ \begin{array}{cc} u_2 & u_3 \\ v_2 & v_3 \end{array} \right] \\ &-& w_2 \det \left[ \begin{array}{cc} u_1 & u_3 \\ v_1 & v_3 \end{array} \right] \\ &+& w_3 \det \left[ \begin{array}{cc} u_1 & u_2 \\ v_1 & v_2 \end{array} \right]\\ &=& w_1(u_2v_3-u_3v_2)-w_2(u_1v_3-u_3v_1)+w_3(u_1v_2-u_2v_1) \end{eqnarray*}

Ejercicio

Usando el Ejercicio 2.14 prueba que $u\times v$ es perpendicular tanto a $u$ como a $v$.

Ejercicio

Sean $p,q\in \mathbb{R}^3$.

  1. Demuestra $$\|p\times q\|^2=\|p\|^2\|q\|^2-(p\cdot q)^2$$

    Sugerencia: expande ambos lados en las coordenadas de $p$ y $q$.

  2. Usando la ecuación \(\langle p, q\rangle = \|p\|\|q\|\cos(\theta)\) y en inciso anterior prueba: \begin{equation}\label{Eqn:NormaProductoCruz} \|p \times q\|=\|p\|\|q\||\sen(\theta)| \end{equation} donde $\theta\in [0,\pi]$, es el ángulo entre $p$ y $q$.

Inciso 1.

Calculando directamente \begin{eqnarray*} \|p\times q\|^2&=&(p_2q_3-p_3q_2)^2 \\ &+&(p_1q_3-p_3q_1)^2 \\ &+&(p_1q_2-p_2q_1)^2 \\ &=& p_2^2q_3^2-2p_2p_3q_2q_3+ p_3^2q_2^2 \\ &+& p_1^2q_3^2-2p_1p_3q_1q_3 + p_3^2q_1^2 \\ &+& p_1^2q_2^2-2p_1p_2q_1q_2+p_2^2q_1^2 \end{eqnarray*}

\begin{eqnarray*} \|p\|^2\|q\|^2&=& (p_1^2+p_2^2+p_3^2)(q_1^2+q_2^2+q_3^2)\\ &=& p_1^2q_1^2+p_2^2q_1^2+p_3^2q_1^2 \\ &+& p_1^2q_2^2+p_2^2q_2^2+p_3^2q_2^2 \\ &+&p_1^2q_3^2+p_2^2q_3^2+p_3^2q_3^2 \end{eqnarray*}

\begin{eqnarray*} -(p\cdot q)^2&=&-(p_1q_1+p_2q_2+p_3q_3)^2 \\ &=& -p_1^2q_1^2-p_2^2p_2^2-p_3^2q_3^2 \\ &-& 2p_1p_2q_1q_2-2p_1p_3q_1q_3-p_2p_3q_2q_3 \end{eqnarray*}

Inciso 2.

Por el inciso 1 y usando \(p\cdot q= \|p\|\|q\|\cos(\theta)\) \begin{eqnarray*} \|p\times q\|^2&=& \|p\|^2\|q\|^2- (p\cdot q)^2 \\ &=&\|p\|^2\|q\|^2- \|p\|^2\|q\|^2\cos^2(\theta) \\ &=& \|p\|^2\|q\|^2(1-\cos^2(\theta)) \\ &=& \|p\|^2\|q\|^2\sen^2(\theta) \end{eqnarray*} sacando raíz cuadrada obtenemos \[ \|p\times q\| = \|p\|\|q\| |\sen(\theta)| \]

Definición

Dos vectores $p,q\in \mathbb{R}^n$, distintos de cero, se llaman linealmente independientes si uno no es multiplo escalar del otro. Son linealmente dependientes si uno es multiplo escalar del otro.

Ejercicio

Demuestra que $p \times q =0$ sii $p$ o $q$ son iguales a cero o $p$ y $q$ son linealmente dependientes.

Sugerencia: usa ecuación \eqref{Eqn:NormaProductoCruz}.

Ejercicio

Demuestra que el área del paralelogramo generado por $p, q \in \mathbb{R}^3$ está dada por $\|p\times q\|$.

Anteriormente se demostró que $\| p \times q\| = \|p\| \|q\| \sen(\theta)$, donde $\theta$ es el ángulo comprendido entre $p$ y $q$. Por otro lado, el área de un paralelogramo está dada por $A = base \times altura$, de manera que si denotamos a la base como el lado determinado por el vector $p$ entonces la altura está dada por $\|q\| \sen(\theta)$ y el área es \begin{equation*} A = \|p\| \|q\| \sen(\theta) = \| p \times q\|. \end{equation*}

Ejercicio

El volumen del paralelepipedo generado por $u,v,w$ está dado por $$ \left| \det\left[ \begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right] \right| $$

Sugerencia: por la fórmula del triple producto el valor absoluto anterior es igual a $| (u\times v)\cdot w |$. Despues usar \(\langle p, q\rangle = \|p\|\|q\|\cos(\theta)\) y la interpretación de $\|u\times v\|$ como el área generada por el paralelogramo generado por $u$ y $v$.

Ejercicio

Ecuación del plano, forma normal. Sean $u\ne 0, v\ne 0$, dos vectores en $\mathbb{R}^3$, linealmente independientes. Considera la ecuación paramétrica $$ p=p_0+tu+sv $$ con $p_0=(x_0,y_0,z_0)$. Sea $(A,B,C)=u\times v$. Demuestra que todo punto $p=(x,y,z)$ en el plano generado por $u$ y $v$ satisface $$ A(x-x_0)+B(y-y_0)+C(z-z_0)=0. $$ Al vector $(A,B,C)$ se le llama un vector normal al plano.

Tomamos \(p=(x,y,z)\) un punto cualquiera en el plano. Por lo tanto existen escalares \(a,b\in \mathbb{R}\) tal que \[ p=p_0+bu+av \] Restando \(p_0\) en ambos aldos llegamos a \(p-p_0=bu+av\) y por las propiedades del producto cruz obtenemos \begin{eqnarray*} \langle p-p_0, u\times v \rangle &=& \langle bu+av, u\times v\rangle \\ &=& b \langle u, u\times v \rangle + a \langle v , u\times v\rangle \\ &=& 0 \end{eqnarray*} Finalmente escribiendo la ecuación \(\langle p-p_0, u\times v \rangle =0 \) en términos de sus coordenadas llegamos a \begin{eqnarray*} 0&=&(x-x_0,y-y_0,z-z_0)\cdot (A,B,C)\\ &=& A(x-x_0)+B(y-y_0)+C(z-z_0). \end{eqnarray*}

Ejercicio

Sean $u,v\in \mathbb{R}^3$, no cero y linealmente independientes.

  1. Demuestra que el conjunto $\{u,v, u\times v\}$ es linealmente independiente.
  2. Es un hecho, no lo demuestres, que un conjunto linealmente independiente de tres vectores genera $\mathbb{R}^3$. Usando lo anterior muestra que, si $p$ es perpendicular a $u\times v$, entonces existen $s,t\in \mathbb{R}$ tales que $p=su+tv$ (es decir, $p$ está en el plano generado por $u$ y $v$).

Inciso 1.

Tomamos escalares \(a,b,c\in \mathbb{R}\) con la propiedad de que \[ au+bv+c(u\times v) =0. \] Debemos de probar que \(a=b=c=0\).

Al tomar producto interior de la expresión anterior con el vector \(u\times v\) y usando la perpendicularidad con \(u\) y \(v\) (Ejercicio 2.15) obtenemos \[ 0=\langle au+bv+c(u\times v), u\times v\langle= c \|u\times v \|^2 \] por lo que \(c=0\) ó \(\|u\times v\| =0\). Pero \(u\times v \ne 0\) (al ser \(\{u,v\}\) linealmente independientes Ejercicio 2.18). Por lo tanto \(c=0\).

Ya que \(c=0\) podemos reescribir \[ 0=au+bv+c(u\times v)=au+bv. \] Esta ecuación y el hecho de que \(\{u,v\}\) es lineamente independiente implica que \(a=b=0\).

Inciso 2.

Ya que el conjunto \(\{u,v,u\times v\}\) es linealmente independiente dado \(p\in \mathbb{R}^3\) existen escalares \(r,s,t \in \mathbb{R}\) tal que \[ p=r(u\times v)+ su+tv \] En ésta igualdad tomamos producto interior con \(u\times v\) para obtener \[ \langle p, u\times v\rangle = r \|u\times v\|^2 \] pero si \(p\) es perpendicular a \(u\times v\) tenemos que \(\langle p, u\times v\rangle =0\) lo que implica \(0=r \|u\times v\|^2\) pero \(u\times v \ne 0\) por lo que \(r=0\). Por lo tanto \[ p=r(u\times v)+ su+tv = su+tv. \]

Ejercicio

  1. Demuestra $$ (u\times v) \times w= (u \cdot w) v - (v \cdot w ) u $$ $$ u\times (v\times w)= (u \cdot w )v -(u \cdot v ) w $$
  2. Usando las identidades anteriores demuestra la identidad de Jacobi, que dice $$ (u\times v)\times w+ (v\times w)\times u+ (w\times u)\times v=0. $$
  3. Después, demuestra que $(u\times v)\times w=u\times (v\times w)$ sii $(u\times w)\times v=0$. Por lo tanto, el producto cruz no es asociativo.

Notación

Dada $A$, una matriz de $n\times m$, por $A_{i,j}$, denotamos a la entrada $i,j$ de $A$. Por $A(i:)$ dentoamos el renglón $i$ de $A$ y por $A(:j)$ denotamos la columna $j$ de $A$.

Definición

Dada una matriz de $n\times m$, la matriz transpuesta, denotada $A^t$, es la matriz de $m\times n$, cuyas entradas están dadas por $(A^t)_{i,j}=A_{j,i}$.

Proposición

Sea $A$ una matriz de $n\times n$. Entonces $\det(A)=\det(A^t)$. Nota: esta resultado implica que las propiedades que se pueden probar para renglones tienen su contraparte en columnas.

Proposición

Sea $A$ una matrz de $n \times n $ y sea $A'$ la matriz que se obtiene de $A$ al intercambiar dos renglones (o columnas). Entonces $$ \det(A')=-\det(A). $$

Proposición

Dada una matriz $A$, de $n\times n$, y un escalar $\alpha$, constuye $A'$ multiplicando todas las entradas de una columna fija por $\alpha$. Entonces $$ \det(A')=\alpha \det(A). $$

Proposición

Sea $A$ una matriz de $n\times n$ y sean $i,k$ números enteros fijos y arbitrarios entre $1$ y $n$. Si la matriz $A'$ se construye reemplazando $A(i:)$ por $A(i:)+A(k:)$, entonces $$ \det(A)=\det(A'). $$

Definición

Decimos que un vector $u$ es combinación lineal de los vectores $v^{(1)},\dots, v^{(n)}$ si existen escalares $\alpha_1,\dots, \alpha_n$ tales que $$ u=\sum_{i=1}^n \alpha_i v^{(i)}. $$ Por ejemplo, $(1,0)$ es combinación lineal de $(-1,1)$ y $(1,1)$ pues $$ (1,0)=\frac{-1}{2}(-1,1)+\frac{1}{2}(1,1). $$

Proposición

Sea $A$ una matriz de $n\times n$. Supon que un renglón de $A$ es combinación lineal de algunos otros renglones de $A$. Entonces $\det(A)=0$.