La transpuesta de una matriz de $2\times 2$ se define como: $$ \left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right]^t = \left[ \begin{array}{cc} a_{1,1}& a_{2,1}\\ a_{1,2} & a_{2,2} \end{array} \right] $$
Sen $A,B$ dos matrices de $2\times 2$ y $\alpha \in \mathbb{R}$. Demuestra que $(\alpha A+B)^t=\alpha A^t+B^t$.
El determinante de una matriz de \(2\times 2\) se define como
$$ \det\left[ \begin{array}{cc} a_{1,1} & a_{1,2}\\ a_{2,1} & a_{2,2} \end{array} \right]= a_{1,1}a_{2,2}-a_{1,2}a_{2,1} $$
Sea $A$ una matriz de $2\times 2$. Demuestra que $\det(A)=\det(A^t)$.
Demuestra que $$ \det\left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right] = -\det \left[ \begin{array}{cc} a_{2,1} & a_{2,2}\\ a_{1,1} & a_{1,2} \end{array} \right] $$ Ahora, utilizando la relación entre la transpuesta y el determinante prueba que: $$ \det \left[\begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array}\right] = -\det \left[\begin{array}{cc} a_{1,2} & a_{1,1}\\ a_{2,2} & a_{2,1} \end{array} \right] $$
Sea $\alpha$ un escalar. Demuestra que $$ \det\left[ \begin{array}{cc} \alpha a_{1,1} & a_{1,2}\\ \alpha a_{2,1} & a_{2,2} \end{array} \right] = \alpha\det\left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right] $$
Demuestra que $$ \det\left[ \begin{array}{cc} a_{1,1}+v_1 & a_{1,2} \\ a_{2,1}+v_2 & a_{2,2} \end{array} \right]= \det\left[ \begin{array}{cc} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array} \right] + \det\left[ \begin{array}{cc} v_1 & a_{1,2}\\ v_2 & a_{2,2} \end{array} \right] $$
Las propiedades anteriores se pueden resumir de la siguiente forma.
Vamos a pensar al determinante como una función de las columnas de la matriz. Es decir, dados vectores \(w_1,\dots, w_n\in \mathbb{R}^n\) \[ \det(w_1,\dots, w_n) \] denota el determinante de la matriz que se obtiene al tomar los vectores \(w_i\) como columnas de la matriz.
Con ésta notación los ejercicios previos prueban que \begin{eqnarray*} \det(w_1+\alpha v,w_2)&=&\det(w_1,w_2)+\alpha \det(v,w_2) \\ \det(w_1,\beta u +w_2)&=& \beta \det(w_1,u)+\det(w_1,w_2)\\ \det(w_1,w_2)&=&-\det(w_2,w_1) \end{eqnarray*} donde \(u,v\in \mathbb{R}^n\) y \(\alpha,\beta \in \mathbb{R}\).
Las primeras dos condiciones se abrevian diciendo que el determinante, en las matrices de \(2\times 2\) es bilineal. La tercera condición se llama alternante.
En general el determinante, en las matrices de \(n\times n\), puede definirse como la función \(\det:M_n(\mathbb{R})\to \mathbb{R}\) que satisface
Sea $A$ una matriz de $3 \times 3$. Supongamos que dos renglones de $A$ son iguales. Demuestra que $\det(A)=0$.
Sugerencia: utiliza la propiedad alternante del determinante.
Considera los vectores $v=(v_1,v_2,v_3), w=(w_1,w_2,w_3)$. Dados escalares $\alpha, \beta$ construye el vector $u=\alpha v+ \beta w$. Demuestra que $$ \det\left[ \begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right]=0 $$
Prueba que $$ \hat{i}\times \hat{j}= \hat{k}, \quad \hat{j} \times \hat{k}=\hat{i}, \quad \hat{k}\times \hat{i}=j. $$
Demuestra las siguientes propiedades del producto cruz.
Inciso 1.
Calculando directamente \begin{eqnarray*} p\times q&= & \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ q_1 & q_2 & q_3 \end{array} \right] \\ &=& ( p_2q_3-p_3q_2, -(p_1q_3-p_3q_1), p_1q_2-p_2q_1 ) \\ q\times p&=& \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ q_1 & q_2 & q_3 \\ p_1 & p_2 & p_3 \end{array} \right] \\ &=&( q_2p_3-q_3p_2, -(q_1p_3-q_3p_1), q_1p_2-q_2p_1 ) \end{eqnarray*} y comparando las dos ecuaciones anteriores se obtiene \(p\times q= -q\times p\).
Inciso 2.
\begin{eqnarray*} p\times p &= & \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ p_1 & p_2 & p_3 \end{array} \right] \\ &=& (p_2p_3-p_3p_2,-(p_1p_3-p_3p_1),p_1p_2-p_2p_1)\\ &=&0 \end{eqnarray*}
Inciso 3.
Directamente \begin{eqnarray*} p\times (\beta v+ u)&= & \det\left[ \begin{array}{ccc} \hat{i} & \hat{j} & \hat{k} \\ p_1 & p_2 & p_3 \\ \beta v_1+u_1 & \beta v_2+ u_2 &\beta v_3+ u_3 \end{array} \right] \\ &=&( p_2(\beta v_3+u_3)-p_3(\beta v_2+u_2)) \hat{i} \\ &-& (p_1(\beta v_3+u_3)-p_3(\beta v_1+u_1)) \hat{j} \\ &+& (p_1(\beta v_2+u_2)-p_2(\beta v_1+u_1)) \hat{k} \\ &=& \beta( p_2v_3-p_3v_2 )\hat{i}+ (p_2u_3-p_3u_2)\hat{i} \\ &-& \beta (p_1v_3-p_3v_1)\hat{j}- (p_1u_3-p_3u_1)\hat{j} \\ &+& \beta(p_1v_2-p_2v_1)\hat{k}+ (p_1u_2-p_2u_1)\hat{k} \\ &=& \beta (p\times v)+ p\times u \end{eqnarray*}
Demuetra la siguiente indentidad $$ ( u\times v)\cdot w =\det\left[ \begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right] $$
Directamente \begin{eqnarray*} (u\times v)\cdot w&=& (u_2v_3-u_3v_2,-(u_1v_3-u_3v_1),u_1v_2-u_2v_1 )\cdot (w_1,w_2,w_3) \\ &=& (u_2v_3 - u_3v_2)w_1-(u_1v_3-u_3v_1)w_2+(u_1v_2 - u_2v_1)w_3 \end{eqnarray*}
Expandiendo el determinante por el tercer renglón \begin{eqnarray*} \det \left[\begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right]&=& w_1 \det \left[ \begin{array}{cc} u_2 & u_3 \\ v_2 & v_3 \end{array} \right] \\ &-& w_2 \det \left[ \begin{array}{cc} u_1 & u_3 \\ v_1 & v_3 \end{array} \right] \\ &+& w_3 \det \left[ \begin{array}{cc} u_1 & u_2 \\ v_1 & v_2 \end{array} \right]\\ &=& w_1(u_2v_3-u_3v_2)-w_2(u_1v_3-u_3v_1)+w_3(u_1v_2-u_2v_1) \end{eqnarray*}
Usando el Ejercicio 2.14 prueba que $u\times v$ es perpendicular tanto a $u$ como a $v$.
Sean $p,q\in \mathbb{R}^3$.
Sugerencia: expande ambos lados en las coordenadas de $p$ y $q$.
Inciso 1.
Calculando directamente \begin{eqnarray*} \|p\times q\|^2&=&(p_2q_3-p_3q_2)^2 \\ &+&(p_1q_3-p_3q_1)^2 \\ &+&(p_1q_2-p_2q_1)^2 \\ &=& p_2^2q_3^2-2p_2p_3q_2q_3+ p_3^2q_2^2 \\ &+& p_1^2q_3^2-2p_1p_3q_1q_3 + p_3^2q_1^2 \\ &+& p_1^2q_2^2-2p_1p_2q_1q_2+p_2^2q_1^2 \end{eqnarray*}
\begin{eqnarray*} \|p\|^2\|q\|^2&=& (p_1^2+p_2^2+p_3^2)(q_1^2+q_2^2+q_3^2)\\ &=& p_1^2q_1^2+p_2^2q_1^2+p_3^2q_1^2 \\ &+& p_1^2q_2^2+p_2^2q_2^2+p_3^2q_2^2 \\ &+&p_1^2q_3^2+p_2^2q_3^2+p_3^2q_3^2 \end{eqnarray*}
\begin{eqnarray*} -(p\cdot q)^2&=&-(p_1q_1+p_2q_2+p_3q_3)^2 \\ &=& -p_1^2q_1^2-p_2^2p_2^2-p_3^2q_3^2 \\ &-& 2p_1p_2q_1q_2-2p_1p_3q_1q_3-p_2p_3q_2q_3 \end{eqnarray*}
Inciso 2.
Por el inciso 1 y usando \(p\cdot q= \|p\|\|q\|\cos(\theta)\) \begin{eqnarray*} \|p\times q\|^2&=& \|p\|^2\|q\|^2- (p\cdot q)^2 \\ &=&\|p\|^2\|q\|^2- \|p\|^2\|q\|^2\cos^2(\theta) \\ &=& \|p\|^2\|q\|^2(1-\cos^2(\theta)) \\ &=& \|p\|^2\|q\|^2\sen^2(\theta) \end{eqnarray*} sacando raíz cuadrada obtenemos \[ \|p\times q\| = \|p\|\|q\| |\sen(\theta)| \]
Dos vectores $p,q\in \mathbb{R}^n$, distintos de cero, se llaman linealmente independientes si uno no es multiplo escalar del otro. Son linealmente dependientes si uno es multiplo escalar del otro.
Demuestra que $p \times q =0$ sii $p$ o $q$ son iguales a cero o $p$ y $q$ son linealmente dependientes.
Sugerencia: usa ecuación \eqref{Eqn:NormaProductoCruz}.
Demuestra que el área del paralelogramo generado por $p, q \in \mathbb{R}^3$ está dada por $\|p\times q\|$.
Anteriormente se demostró que $\| p \times q\| = \|p\| \|q\| \sen(\theta)$, donde $\theta$ es el ángulo comprendido entre $p$ y $q$. Por otro lado, el área de un paralelogramo está dada por $A = base \times altura$, de manera que si denotamos a la base como el lado determinado por el vector $p$ entonces la altura está dada por $\|q\| \sen(\theta)$ y el área es \begin{equation*} A = \|p\| \|q\| \sen(\theta) = \| p \times q\|. \end{equation*}
El volumen del paralelepipedo generado por $u,v,w$ está dado por $$ \left| \det\left[ \begin{array}{ccc} u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \\ w_1 & w_2 & w_3 \end{array} \right] \right| $$
Sugerencia: por la fórmula del triple producto el valor absoluto anterior es igual a $| (u\times v)\cdot w |$. Despues usar \(\langle p, q\rangle = \|p\|\|q\|\cos(\theta)\) y la interpretación de $\|u\times v\|$ como el área generada por el paralelogramo generado por $u$ y $v$.
Ecuación del plano, forma normal. Sean $u\ne 0, v\ne 0$, dos vectores en $\mathbb{R}^3$, linealmente independientes. Considera la ecuación paramétrica $$ p=p_0+tu+sv $$ con $p_0=(x_0,y_0,z_0)$. Sea $(A,B,C)=u\times v$. Demuestra que todo punto $p=(x,y,z)$ en el plano generado por $u$ y $v$ satisface $$ A(x-x_0)+B(y-y_0)+C(z-z_0)=0. $$ Al vector $(A,B,C)$ se le llama un vector normal al plano.
Tomamos \(p=(x,y,z)\) un punto cualquiera en el plano. Por lo tanto existen escalares \(a,b\in \mathbb{R}\) tal que \[ p=p_0+bu+av \] Restando \(p_0\) en ambos aldos llegamos a \(p-p_0=bu+av\) y por las propiedades del producto cruz obtenemos \begin{eqnarray*} \langle p-p_0, u\times v \rangle &=& \langle bu+av, u\times v\rangle \\ &=& b \langle u, u\times v \rangle + a \langle v , u\times v\rangle \\ &=& 0 \end{eqnarray*} Finalmente escribiendo la ecuación \(\langle p-p_0, u\times v \rangle =0 \) en términos de sus coordenadas llegamos a \begin{eqnarray*} 0&=&(x-x_0,y-y_0,z-z_0)\cdot (A,B,C)\\ &=& A(x-x_0)+B(y-y_0)+C(z-z_0). \end{eqnarray*}
Sean $u,v\in \mathbb{R}^3$, no cero y linealmente independientes.
Inciso 1.
Tomamos escalares \(a,b,c\in \mathbb{R}\) con la propiedad de que \[ au+bv+c(u\times v) =0. \] Debemos de probar que \(a=b=c=0\).
Al tomar producto interior de la expresión anterior con el vector \(u\times v\) y usando la perpendicularidad con \(u\) y \(v\) (Ejercicio 2.15) obtenemos \[ 0=\langle au+bv+c(u\times v), u\times v\langle= c \|u\times v \|^2 \] por lo que \(c=0\) ó \(\|u\times v\| =0\). Pero \(u\times v \ne 0\) (al ser \(\{u,v\}\) linealmente independientes Ejercicio 2.18). Por lo tanto \(c=0\).
Ya que \(c=0\) podemos reescribir \[ 0=au+bv+c(u\times v)=au+bv. \] Esta ecuación y el hecho de que \(\{u,v\}\) es lineamente independiente implica que \(a=b=0\).
Inciso 2.
Ya que el conjunto \(\{u,v,u\times v\}\) es linealmente independiente dado \(p\in \mathbb{R}^3\) existen escalares \(r,s,t \in \mathbb{R}\) tal que \[ p=r(u\times v)+ su+tv \] En ésta igualdad tomamos producto interior con \(u\times v\) para obtener \[ \langle p, u\times v\rangle = r \|u\times v\|^2 \] pero si \(p\) es perpendicular a \(u\times v\) tenemos que \(\langle p, u\times v\rangle =0\) lo que implica \(0=r \|u\times v\|^2\) pero \(u\times v \ne 0\) por lo que \(r=0\). Por lo tanto \[ p=r(u\times v)+ su+tv = su+tv. \]
Dada $A$, una matriz de $n\times m$, por $A_{i,j}$, denotamos a la entrada $i,j$ de $A$. Por $A(i:)$ dentoamos el renglón $i$ de $A$ y por $A(:j)$ denotamos la columna $j$ de $A$.
Dada una matriz de $n\times m$, la matriz transpuesta, denotada $A^t$, es la matriz de $m\times n$, cuyas entradas están dadas por $(A^t)_{i,j}=A_{j,i}$.
Sea $A$ una matriz de $n\times n$. Entonces $\det(A)=\det(A^t)$. Nota: esta resultado implica que las propiedades que se pueden probar para renglones tienen su contraparte en columnas.