Una función $F:\mathbb{R}^n \to \mathbb{R}^m$ se llama lineal si, para todo $\alpha \in \mathbb{R}$ y todos $p,q\in \mathbb{R}^n$ $$ F(\alpha p +q)=\alpha F(p)+F(q). $$
Supon que $f:\mathbb{R}^2 \to \mathbb{R}$ es lineal y que $f(0,1)=3, f(1,1)=-1$. Calcula
La idea es escrbir \((1,5)\) como una suma de la forma \[ (1,5)=a(0,1)+b(1,1) \] Resolviendo el sistema anterior tenemos \begin{eqnarray*} 1=b \\ 5=a+b \end{eqnarray*} por lo tanto \(b=1\) y \(a=4\). Con esta información y usando la linealidad de \(f\) obtenemos \[ f(1,5)=f(a(0,1)+b(1,1))=af(0,1)+b(1,1)=4(3)+ 1(-1)=11. \]
Demuestra que si $F$ es una función lineal, $F(0)=0$.
Usando que \(F\) abre sumas: \[ F(0)=F(0+0)=F(0)+F(0) \Rightarrow 0=F(0). \]
Sea $\sigma$ una permutación del conjunto $\{1,2,3\}$. Define $F:\mathbb{R}^3\to \mathbb{R}^3$ por $F(p_1,p_2,p_3)=(p_{\sigma(1)}, p_{\sigma(2)}, p_{\sigma(3)})$. Prueba que $F$ es una función lineal.
El Ejercicio 1.22 prueba que, dado un vector fijo \(v\in \mathbb{R}^3\), la función \(f:\mathbb{R}^3 \to \mathbb{R}\) dada por \[ f(p)=\langle v.p\rangle \] es lineal. Este ejercicio prueba que toda función lineal de \(\mathbb{R}^3 \) a \(\mathbb{R}\) se puede escribir de esta forma.
Sea $f:\mathbb{R}^3 \to \mathbb{R}$ una función lineal. Demuestra que existe un vector $v\in \mathbb{R}^3$ tal que $f(p)=\langle v, p \rangle$, para toda $p\in \mathbb{R}^3$.
Sugerencia: $v=(f(\hat{i}), f(\hat{j}), f(\hat{k}))$.
Para \(p=(p_1,p_2,p_3)\in \mathbb{R}\) arbitrario escribimos \[ p=p_1\hat{i}+p_2\hat{k}+p_3\hat{k} \] Usando la linealidad de \(f\) obtenemos \[ f(p)=p_1f(\hat{i})+p_2f(\hat{j})+p_3f(\hat{k}) \] Finalmente notamos que la última expresión se puede escribir como un producto interior \[ p_1f(\hat{i})+p_2f(\hat{j})+p_3f(\hat{k})=\langle (p_1,p_2,p_3), (f(\hat{i}),f(\hat{j}),f(\hat{k})) \] por lo que \(f(p)=\langle p, v \rangle\), con \(v=(f(\hat{i}),f(\hat{j}),f(\hat{k})\).
Sean $u,v\in \mathbb{R}^3$ dos vectores con la pripiedad de que $\langle v,p \rangle = \langle u,p \rangle$ para toda $p\in \mathbb{R}^3$. Demuestra que $u=v$.
Nota: dada una función lineal, \(f:\mathbb{R}^3\to \mathbb{R}\), el Ejercicio 3.5 asegura que existe \(v\in \mathbb{R}\) tal que \(f(p)=\langle p, v\rangle\). Como consecuencia de éste ejercicio obtenemos que dicho vector \(v\) es único.
Supongamos que \(\langle v,p\rangle = \langle u,p\rangle \) para todo punto \(p\in \mathbb{R}\). Usando las propiedades del producto interior lo anterior es equivalente a \(\langle v-u, p \rangle =0\) para todo \(p\). En particular, tomando \(p=v-u\) llegamos a \[ 0=\langle v-u , v-u \rangle =\|v-u\|^2 \] y por las propiedades de la norma conclimos que \(u=v\).
Este Teorema generaliza el ejericio anterior. Es decir, demuestra que para toda función lineal $f:\mathbb{R}^n \to \mathbb{R}$ existe un único vector $v\in \mathbb{R}^n$ tal que $f(p)=\langle v, p \rangle$, para todo $p$.
Existencia.
Por \(\{ \mathbb{e}_i \}_{i=1}^n\) denotamos la base canónica de \(\mathbb{R}^n\). Escribiendo \(p\) como combinación lineal de los \(\{\mathbb{e}\}_{i=1}^n\) tenemos \[ p=\sum_{i=1}^n p_i \mathbb{e}_i \] Aplicando \(f\) en ambos lados y suando la linealidad obtenemos \begin{eqnarray*} f(p)=\sum_{i=1}^n p_i f(\mathbb{e}_i) \end{eqnarray*} la cual se puede escribir como un producto interior \[ \langle p, v\rangle \] si tomamos \(v=(f(\mathbb{e}_1), f(\mathbb{e}_2),\dots, f(\mathbb{e}_n)\).
Unicidad.
Supongamos que existe un \(u\in \mathbb{R}^n\) tal que \[ f(p)=\langle v, p \rangle = \langle u, p \rangle \] para todo \(p\in \mathbb{R}^n\). Lo anterior se puede escribir como \[ \langle v-u,p\rangle=0, \] para todo \(p\). Finalmente tomando \(p=v-u\) obtenemos \(\|v-u\|=0\), por lo tanto \(u=v\).
Sean $F,G: \mathbb{R}^3 \to \mathbb{R}^m$ dos funciones lineales tales que $F(\hat{i})=G(\hat{i})$, $F(\hat{j})=G(\hat{j})$ y $F(\hat{k})=G(\hat{k})$. Demuestra que $F=G$.
Para probar la igualdad de las funciones debemos de probar que para todo punto \(p\in \mathbb{R}^3\), \(F(p)=G(p)\). Para probarlo escribirmos a \(p\) como un combinación lineal de los vectores \(\{\hat{i},\hat{j},\hat{k} \}\) y aplicamos \(F\) y \(G\) (recordando que ambas son lineales) \begin{eqnarray*} p=p_1\hat{i}+p_2\hat{j}+p_3\hat{k} & \Rightarrow & F(p)=p_1F(\hat{i})+p_2F(\hat{j})+p_3F(\hat{k})\\ & \Rightarrow & G(p)=p_1G(\hat{i})+p_2G(\hat{j})+p_3G(\hat{k}) \end{eqnarray*} Finalmente usando \(F(\hat{i})=G(\hat{i}), F(\hat{j})=G(\hat{j})\) y \(F(\hat{k})=G(\hat{k})\) concluimos \(F(p)=G(p)\).
Con junto $\{\mathbf{v}_i \}_{i=1}^l \subset \mathbb{R}^n$ se dice que genera a $\mathbb{R}^n$, si para todo $\mathbf{p}\in \mathbb{R}^n$, existen escalares $\alpha_1,\dots, \alpha_l$ tales que $$ \mathbf{p}=\sum_{i=1}^l \alpha_i \mathbf{v}_i. $$ Nota: se puede probar que si el conjunto $\{\mathbf{v}_i \}_{i=1}^l \subset \mathbb{R}^n$ genera a $\mathbb{R}^n$, entonces $ l \geq n$.
En $\mathbb{R}^n$ considera los vectores $\{ \mathbf{e}_i\}_{i=1}^n$, tal que $\mathbf{e}_i$ tiene todas sus entradas iguales a cero, excepto en la entrada $i$ donde tiene un $1$. Prueba que el conjunto $\{\mathbf{e}_i\}_{i=1}^n$ genera a $\mathbb{R}^n$.
Este ejercicio generaliza el ejercicio Ejercicio 3.8
Sea $F,G:\mathbb{R}^n \to \mathbb{R}^m$, dos funciones lineales y sea $\{\mathbf{v}_i\}_{i=1}^l \subset \mathbb{R}^n$ un conjunto generador. Si $F(\mathbf{v}_i)=G(\mathbf{v}_i)$, para todo $i=1,\dots, l$, entonces $F=G$.
Sea $F:\mathbb{R}^n\to \mathbb{R}^m$ una función lineal. Demuestra que existen vectores $\mathbf{v}_1,\dots,\mathbf{v}_n\in \mathbb{R}^n$ tales que, para todo $\mathbf{p}\in \mathbb{R}^n$ $$ F(\mathbf{p})=p_1\mathbf{v}_1+p_2\mathbf{v}_2 +\cdots + p_n\mathbf{v}_n. $$
Escribiendo \(\mathbf{p}\) como combinación lineal de los vectores canónicos \[ \mathbf{p}=p_1\mathbf{e}_1+\cdots + p_n \mathbf{e}_n \] y aplicando \(F\) obtenemos (usando la linealidad) que \[ F(\mathbf{p})=p_1F(\mathbf{e}_1)+\cdots + p_n F(\mathbf{e}_n). \] Tomando los vectores \(\mathbf{v}_i:=F(\mathbf{e}_i)\) concluimos \[ F(\mathbf{p})=p_1\mathbf{v}_1+\cdots + p_n \mathbf{v}_n. \]
Dada $A$ una matriz de $m \times n$ y un vector $\mathbf{p}\in \mathbb{R}^n $, definimos la multiplicación $A \mathbf{p}$, como el vector en $\mathbb{R}^m$ cuya entrada $i$ está dado por $$ \sum_{r=1}^n A_{i,r}p_r $$ Es decir $$ \left[ \begin{array}{ccc} A_{1,1} & \cdots & A_{1,n} \\ \vdots & \vdots & \vdots \\ A_{m,1}& \cdots & A_{m,n} \end{array} \right] \left[ \begin{array}{c} p_1 \\ \vdots \\ p_n \end{array} \right] = \left[ \begin{array}{c} \sum_{j=1}^n A_{1,j}p_j \\ \vdots \\ \sum_{j=1}^n A_{m,j}p_j \end{array} \right] $$
Escribe las siguientes expresiones como productos de la forma $Ap$, donde $A$ es una matriz y $p$ un vector columna.
En el primer renglón, \(p_1+p_2\), \(p_1\) contribuye 1 y \(p_2\) también. Por lo tanto el primer renglón de \(A\) debe ser \((1,1)\). El segundo renglón es \(p_1-p_2\) por lo que \(p_1\) contribuye 1 y \(p_2\) un -1, por lo que el segundo renglón de \(A\) debe ser \((1,-1)\).
Un cálculo directo prueba que \[ \left[ \begin{array}{cc} 1 & 1 \\ 1& -1 \end{array} \right] \left[ \begin{array}{cc} p_1 \\ p_2 \end{array} \right] = \left[ \begin{array}{cc} p_1+p_2 \\ p_1-p_2 \end{array} \right] \] para todo \(p\in \mathbb{R}^2\).
Sea $M$ una matriz de $m\times n$. Prueba que $$ M(\alpha \mathbf{p}+\mathbf{q})=\alpha M\mathbf{p} + M\mathbf{q}. $$ Por lo tanto, la multiplicación de una matriz por un vector induce una función lineal.
Para probar la identidad \(M(\alpha \mathbf{p}+\mathbf{q})=\alpha M\mathbf{p} + M\mathbf{q}\) debemos probarla entrada por entrada, pues son vectores.
La entrada \(i\) de \(M(\alpha \mathbf{p}+\mathbf{q}) \) es \[ \sum_{r=1}^m M_{i,r}(\alpha p_i+ q_i )=\alpha \left(\sum_{r=1}^n M_{i,r} p_i \right)+ \sum_{r=1}^n M_{i,r}q_i. \]
Por otro lado, la entrada \(i\) de \(\alpha M\mathbf{p} + M\mathbf{q}\) es \[ \alpha \left( \sum_{r=1}^n M_{i,r} p_i\right) + \sum_{r=1}^n M_{i,r}q_i. \] Comparando éstas dos últimas ecuaciones obtenemos el resultado.
Sean $A,B$ dos matrices de $m \times n$. Demuestra que si $A\mathbf{p}=B\mathbf{p}$, para todo $\mathbf{p}\in \mathbb{R}^n$, entonces $A=B$.
Sugerencia: ve tomando $\mathbf{p}=\mathbf{e}_i$, $i=1,\dots, n$.
Fijamos indices \(i,j\). Ya que $A\mathbf{p}=B\mathbf{p}$ se vale para todo \(\mathbf{p}\), tomando \(\mathbf{p}=\mathbf{e}_j\) llegamos a la entrada \(i\) del vector \(A\mathbf{e}_j\) es \[ \sum_{r=1}^n A_{i,r}(\mathbf{e}_{j})_r \] donde \((\mathbf{e}_j)_r\) denota la entrada \(r\) del vector \(\mathbf{e}_j\). Por lo tanto \((\mathbf{e}_j)_r=0\) para todo \(r\ne j\) y \((\mathbf{e}_j)_j=1\). Se sigue que \[ \sum_{r=1}^n A_{i,r}(\mathbf{e}_{j})_r=A_{i,j} \] Finalmente ya que \(A\mathbf{e}_j=B\mathbf{e}_j\) para toda \(j\) obtenemos que \(A_{i,j}=B_{i,j}\) y por lo tanto \(A=B\).
Si $F:\mathbb{R}^n \to \mathbb{R}^m$ es lineal, entonces existe una única matriz $M$, de $m\times n$, tal que $$F(\mathbf{p})=M\mathbf{p},$$ para todo $\mathbf{p}\in \mathbb{R}^n$.
Por el Lema 3.12 existen vectores \(\mathbf{v},\dots, \mathbf{v}_n \in \mathbb{R}^m\) tales que \[ F(\mathbf{p})=\sum_{r=1}^n p_r \mathbf{v}_r \] Si escribimos las entrdas de \(\mathbf{v}_r\) como \[ \mathbf{v}_r=(v_{1,r}, v_{2,r},\dots, v_{n,r}) \] tenemos que la entrada \(i\) del vector \(F(\mathbf{p})\) es \begin{equation}\label{Eqn:Aux1MatrixFunLineal} \textrm{entrada \(i\)}\left(\sum_{r=1}^n p_r \mathbf{v}_r \right)= \sum_{r=1}^n p_r v_{i,r} \end{equation} Si formamos la matrix \(M\) cuya entrada \(i,j\) es \(v_{i,j}\) obtenemos que la entrada \(i\) de \(M\mathbf{p}\) es \begin{equation}\label{Eqn:Aux2MatrixFunLineal} \sum_{r=1}^n M_{i,r}p_r=\sum_{r=1}^n v_{i,r}p_r \end{equation} Comparando las ecuaciones \eqref{Eqn:Aux1MatrixFunLineal} y \eqref{Eqn:Aux2MatrixFunLineal} obtenemos que todas las entradas de \(F(\mathbf{p})\) y \(M\mathbf{p}\) son iguales por lo tanto \(F(\mathbf{p})=M\mathbf{p}\) para toda \(\mathbf{p}\in \mathbb{R}^n\).
La unicidad se sigue directamente del Ejercicio 3.16.
Un vector \(\mathbb{p}\in \mathbb{R}^n\) es combinación lineal de los vectores \(\{\mathbf{v}_1,\dots, \mathbf{v}_k \}\) si existen escalares \(a_1,\dots, a_k\in \mathbb{R}^n\) tales que \[ \mathbf{p}=\sum_{i=1}^k a_i \mathbf{v}_i. \]
Denotemos \begin{eqnarray*} \mathbf{v}_1=(1,1,-2,1), \mathbf{v}_2=(3,0,4,-1), \mathbf{v}_3=(-1,2,5,2) \end{eqnarray*} y \begin{eqnarray*} \alpha=(4,-5,9,-7), \gamma=(3,1,-4,4). \end{eqnarray*}
¿Cuál de los vectores \(\alpha, \beta\) son combinación lineal de los vectores \(\mathbf{v}_1, \mathbf{v}_2, \mathbf{v}_3\) ?
Se desarrollará el ejercicio únicamente para $\alpha$. $\alpha$ es combinación lineal de $v_1,v_2, v_3$ si y sólo si existen $a,b,c \in \mathbb{R}$ tales que \begin{equation*} a(1,1,-2,1) + b(3,0,4,-1) + c(-1,2,5,2) = (4,-5,9,-7), \end{equation*} o equivalentemente, si el siguiente sistema de ecuaciones tiene solución $a,b,c \in \mathbb{R}$ \begin{align*} a + 3b - c =& 4, \\ a + 2c =& -5,\\ -2a + 4b + 5c =& 9,\\ a - b + 2c =& -7. \end{align*}
Empezaremos por considerar únicamente las primeras tres ecuaciones del sistema, y una vez que se obtenga solución para $a,b,c$ se verificará que dicha solución sea compatible con la cuarta ecuación. Note que las primeras tres ecuaciones pueden representarse por medio de la siguiente ecuación matricial: \begin{equation*} \begin{pmatrix} 1 & 3 & -1\\ 1 & 0 & 2 \\ -2 & 4 & 5 \end{pmatrix} \begin{pmatrix} a\\ b \\ c \end{pmatrix} = \begin{pmatrix} 4 \\ -5 \\ 9 \end{pmatrix} \end{equation*} y que nosotros representaremos por medio de una única matriz como \begin{equation*} \begin{pmatrix} 1 & 3 & -1 & 4\\ 1 & 0 & 2 & -5\\ -2 & 4 & 5 & 9 \end{pmatrix} \end{equation*} Denotaremos por $l_1, l_2, l_3$ a las ecuaciones 1, 2 y 3, respectivamente, o en su defecto a la fila correspondiente en la matriz anterior para denotar la suma, resta o multiplicación de éstas. Comenzamos por sumar $l_1$ y $l_2$ a $l_3$ para obtener \begin{equation*} \begin{pmatrix} 1 & 3 & -1 & 4\\ 1 & 0 & 2 & -5\\ 0 & 7 & 6 & 8 \end{pmatrix}, \end{equation*} ahora restamos $l_1$ a $l_2$ \begin{equation*} \begin{pmatrix} 1 & 3 & -1 & 4\\ 0 & -3 & 3 & -9\\ 0 & 7 & 6 & 8 \end{pmatrix}, \end{equation*} multiplicamos $l_2$ por $-1/3$ \begin{equation*} \begin{pmatrix} 1 & 3 & -1 & 4\\ 0 & 1 & -1 & 3\\ 0 & 7 & 6 & 8 \end{pmatrix}, \end{equation*} restamos $7l_2$ a $l_3$ \begin{equation*} \begin{pmatrix} 1 & 3 & -1 & 4\\ 0 & 1 & -1 & 3\\ 0 & 0 & 13 & -13 \end{pmatrix}, \end{equation*} multiplicamos $l_3$ por $1/13$ y obtenemos el siguiente sistema equivalente al original: \begin{align*} a + 3b - c =& 4\\ b - c =& 3\\ c =& -1 \end{align*} De este sistema es fácil deducir que $c=-1, b=2, a = -3$ y finalmente verificamos que \begin{equation*} -3(1,1,-2,1) + 2(3,0,4,-1) + -1(-1,2,5,2) = (4,-5,9,-7), \end{equation*} por lo que $\alpha$ es combinación lineal de $v_1,v_2,v_3$.
Empezaremos con el primer inciso. Denotaremos $v_1 = (1,-1,1)$ y $v_2 = (1,1,1)$. Dado que el producto por una matriz $A$ es una transformación lineal se construirá una matriz $A$ que cumpla que $Av_1 = (1,0)$ y $Av_2=(0,1)$. Empezaremos por obtener un tercer vector linealmente independiente de $v_1,v_2$. Sea $v_3 = 1/2 (v_1 \times v_2)=(-1,0,1)$, para facilitar los cálculos $A$ se construirá de manera que $F(v_3) = Av_3 = 0$. Ahora buscamos las combinaciones lineales requeridas para obtener a los vectores canónicos a partir de $v_1,v_2,v_3$, los sistemas de ecuaciones por resolver son de la forma \begin{equation*} e_i = a(1,-1,1) + b(1,1,1) + c(-1,0,1). \end{equation*} Escribimos el primero como \begin{align*} 1 =& a + b -c,\\ 0 =& -a + b,\\ 0 =& a + b + c \end{align*} De la segunda ecuación $a=b$. Sustituyendo en la primera tenemos que $c=2a - 1$ y sustituyendo en la tercera se tiene que $a=1/4=b$ y $c=-1/2$. Usando esta información tenemos que \begin{equation*} F(e_1) = F(1/4v_1 + 1/4v_2 - 1/2 v_3) = 1/4F(v_1) + 1/4F(v_2) - 1/2F(v_3) = (1/4,1/4). \end{equation*} El segundo sistema se escribe como \begin{align*} 0 =& a + b -c,\\ 1 =& -a + b,\\ 0 =& a + b + c \end{align*} Restando la primera y última ecuación se tiene que $c=0$, sustituyendo en la segunda $a+b = 0$ y sustituyendo en la tercera $b = 1/2$ y $a=-1/2$. Por lo tanto \begin{equation*} F(e_2) = F( -1/2v_1 + 1/2 v_2) = (-1/2,1/2). \end{equation*} De manera similar construimos nuestro tercer sistema de la forma \begin{align*} 0 =& a + b -c,\\ 0 =& -a + b,\\ 1 =& a + b + c \end{align*} De la segunda ecuación $a=b$, sustituyendo en la primera $c=2a$ y sustituyendo en la tercera $a=1/4=b$ y $c=1/2$, así \begin{equation*} F(e_3) = 1/4 F(v_1) + 1/4F(v_2) + 1/2F(v_3) = (1/4,1/4). \end{equation*}
Sabemos ahora que la matriz la podemos construir colocando en la i-ésima columna el vector correspondiente a $F(e_i)$, por lo que la matriz buscada es \begin{equation*} A = \begin{pmatrix} 1/4 & -1/2 & 1/4\\ 1/4 & 1/2 & 1/4\\ \end{pmatrix} \end{equation*} y se verifica que $Av_1 = (1,0)$ y $Av_2= (0,1)$, por lo que la transformación lineal $Tp = Ap$ cumple lo deseado.
Para el segundo inciso veremos que no existe tal transformación lineal. Notemos primero que el vector $(-3,2)$ es combinación lineal de $(1,-1)$ y $(2,-1)$, para ello resolvemos el sistema \begin{align*} a + 2b =& -3\\ -a -b =& 2, \end{align*} de la primera ecuación $a = -3 - 2b$ y sustituyendo en la segunda se concluye que $b=-1$ y $a = -1$. Si existiera tal función fuera lineal entonces \begin{equation*} F((-3,2)) = F(-(1,-1) - (2,-1)) = -(1,0) - (0,1) = (-1,-1) \neq (1,1) = F((-3,2)). \end{equation*}
Prueba que si \(\{\mathbf{u},\mathbf{v}, \mathbf{w}\} \subset \mathbb{R}^n\) es un conjunto linealmente independiente entonces el conjunto \(\{\mathbf{u}+\mathbf{v}+\mathbf{w},\mathbf{u}-\mathbf{v},-\mathbf{u}-\mathbf{v}-2\mathbf{w}\}\) también es linealmente independiente.
Supongamos que $a_1,a_2,a_3 \in \mathbb{R}$ son tales que \begin{equation*} a_1(u + v + w) + a_2(u - v) + a_3(-u -v - 2w) = 0, \end{equation*} utilizando la asociatividad y distributividad de las operaciones obtenemos la ecuación equivalente \begin{equation*} (a_1 + a_2 - a_3)u + (a_1 - a_2 - a_3)v + (a_1 - 2a_3)w = 0. \end{equation*} Por hipótesis los vectores $\{u,v,w\}$ son l.i., por lo que \begin{align*} a_1 + a_2 - a_3 =& 0,\\ a_1 - a_2 - a_3 =& 0,\\ a_1 - 2a_3 =& 0, \end{align*} y al resolver este sistema se encuentra que $a_1,a_2,a_3 = 0$. Dado que la única combinación lineal por la que se obtiene el vector $0$ es la trivial, se concluye que el conjunto $\{u+v + w, u-v,-u-v-2w\}$ es linealmente independiente.
Considera la función identidad $\id:\mathbb{R}^n \to \mathbb{R}^n$, $\id(\mathbf{p})=\mathbf{p}$. Demuestra que la matriz asociada a $\id$ es la matriz que consiste de $0$'s, excepto en la diagonal donde tiene $1$'s. A dicha matriz la denotamos $I_n$.
Para $id: \mathbb{R}^n \to \mathbb{R}^n$ y $p = \begin{pmatrix} p_1 \\ p_2 \\ \vdots \\ p_n \end{pmatrix} \in \mathbb{R}^n$. En primer lugar notamos que $id$ es una transformación lineal: \begin{equation*} id(\alpha p + q) = \alpha p + q = \alpha id(p) + id(q). \end{equation*} Seguido de ello calculamos \begin{equation*} I_n p = \begin{pmatrix} 1 & 0 & ... & 0 \\ 0 & 1 & ... & 0 \\ & & \ddots & \\ 0 & 0 & ... & 1 \end{pmatrix} \begin{pmatrix} p_1 \\ p_2 \\ \vdots \\ p_n \end{pmatrix} = \begin{pmatrix} p_1 \\ p_2 \\ \vdots \\ p_n \end{pmatrix} = id(p). \end{equation*} Por el Teorema $I_n$ es la (única) matriz asociada a la transformación $id$.
Considera $\theta\in [0, 2\pi)$ y la matriz $$ M=\left[ \begin{array}{cc} \cos(\theta ) & -\sen(\theta) \\ \sen(\theta) & \cos(\theta) \end{array} \right] $$
Comenzaremos por recordar las identidades para suma de ángulos del seno y coseno: \begin{align*} \sen(\alpha + \beta) =& \sen (\alpha) \cos (\beta) + \cos (\alpha) \sen (\beta),\\ \cos(\alpha + \beta) =& \cos (\alpha) \cos (\beta) - \sen (\alpha) \sen (\beta) . \end{align*}
Sean $u,v, w \in \mathbb{R}^2$ tres puntos en el circulo unitario tal que lo dividen en tres arcos de circunferencia cada uno de la misma longitud.
Si $u,v,w$ son tres puntos en la circunferencia unitaria que la dividen en tres arcos de la misma longitud entonces sin pérdida de generalidad podemos describirlos como \begin{align*} u =& (\cos (\varphi), \sen(\varphi)),\\ v =& (\cos (\varphi + 2\pi/3), \sen(\varphi+2\pi/3)),\\ w =& (\cos (\varphi + 4\pi/3), \sen(\varphi+4\pi/3)),\\ \end{align*} para algún $\varphi \in [0,2\pi)$. Se trabajará con el caso de una rotación de $\theta = 2\pi/3$ en sentido levógiro, el caso opuesto, cuando se rota por el mismo ángulo en el sentido de las manecillas del reloj, se puede escribir como una rotación por $4\pi/3$ en el sentido opuesto a las manecillas del reloj y se verá que es completamente análogo.
Sea $M=\begin{pmatrix} \cos(\theta) & -\sen(\theta) \\ \sen(\theta) & \cos(\theta) \end{pmatrix}$ la matriz asociada a la rotación por $\theta = 2\pi/3$, por ser una transformación lineal se tiene que \begin{align*} M(u+v+w) =& Mu + Mv + Mw\\ =& (\cos (\varphi + 2\pi/3), \sen(\varphi+2\pi/3)) + (\cos (\varphi+4\pi/3), \sen(\varphi+4\pi/3)) + \\ &(\cos (\varphi+6\pi/3), \sen(\varphi+6\pi/3)),\\ =& (\cos (\varphi + 2\pi/3), \sen(\varphi+2\pi/3)) + (\cos (\varphi+4\pi/3), \sen(\varphi+4\pi/3)) + \\ &(\cos (\varphi), \sen(\varphi)),\\ =& v + w + u. \end{align*} Como $0 <\theta<2\pi$ entonces el Ejercicio garantiza que $u+v+w=0$.
Demuestra que:
Lo anterior se puede interpretar diciendo que la proyección ortogonal de $v$ en $w$ es el punto más cercano a $v$ que cae dentro de la recta generada por $w$.
Denotemos \[ V=\{f:\mathbb{R}^n\to \mathbb{R}: f \textrm{ es lineal} \} \]
Para un vector \(w \ne 0\) definimos la reflexión con respecto a la recta generada por \(w\) como \[ R_w(v)= 2P_w(v)-v \]
Usando la fórmula \(\langle p,q \rangle = \|p\|\|q\|\cos(\theta)\) lo anterior se interpreta como que el ángulo entre \(R_w(v)\) y \(w\) y \(v\) y \(w\) son iguales. Por lo tanto \(R_w(v)\) es la reflexión con respecto a la recta generada por \(w\).
Sean $F:\mathbb{R}^n \to \mathbb{R}^m$ y $G:\mathbb{R}^m \to \mathbb{R}^k$ dos funciones lineales, demuestra que la composición $G\circ F$ también es lineal.
Directamente de la definición \begin{eqnarray*} (G\circ F)(\alpha \mathbf{p}+\mathbf{q})&=& G(F(\alpha \mathbf{p}+\mathbf{q})) \\ &=& G(\alpha F(\mathbf{p})+F(\mathbf{q})) \\ &=& \alpha G(F(\mathbf{p}))+ G(F(\mathbf{q})) \end{eqnarray*}
Para matrices $A$ de $m \times n$, $B$ de $k \times m$, el producto, denotado $BA$, es la matriz de $k\times n$ con entradas $$ (BA)_{i,j}=\sum_{l=1}^m B_{il}A_{lj} $$
Por ejemplo \[ \left[ \begin{array}{cc} b_{1,1} & b_{1,2} \\ b_{2,1} & b_{2,2} \\ b_{3,1} & b_{3,2} \end{array}\right] \left[\begin{array}{cc} a_{1,2} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{array}\right] = \left[ \begin{array}{cc} b_{1,1}a_{1,2}+b_{1,2}a_{2,1} & b_{1,1}a_{1,2}+b_{1,2}a_{2,2} \\ b_{2,1}a_{1,2} + b_{2,2}a_{2,1} & b_{2,1}a_{1,2} + b_{2,2}a_{2,2} \\ b_{3,1}a_{1,2} + b_{3,2}a_{2,1} & b_{3,1}a_{1,2} + b_{3,2}a_{2,2} \\ \end{array}\right] \]
Considera las funciones lineales $F,G:\mathbb{R}^2 \to \mathbb{R}^2$ dadas por $$F(x,y)=(2x-y,x+y), G(x,y)=(x-y, 7x-3y).$$
Inciso 1.
Calculamos \(F(\mathbf{e}_i)\), \(i=1,2\) y los colocamos como columas. \begin{eqnarray*} F(\mathbf{e}_1)&=&(2,1)\\ F(\mathbf{e}_2)&=&(-1,1) \end{eqnarray*} por lo tanto \[ A=\left[ \begin{array}{cc} 2 & -1 \\ 1 & 1 \end{array} \right] \] es la matriz asociada a \(F\) respecto a la base canónica.
De manera similar \begin{eqnarray*} G(\mathbf{e}_1)&=&(1,7)\\ G(\mathbf{e}_2)&=&(-1,-3) \end{eqnarray*} por lo tanto \[ B=\left[ \begin{array}{cc} 1 & -1 \\ 7 & -3 \end{array} \right] \]
Inciso 2.
Haciendo la composición directamente obtenemos \begin{eqnarray*} (G\circ F)(x,y,z)&=&G(F(x,y,z)) \\ &=& =G(2x-y,x+y)\\ &=&((2x-y)-(x+y),7(2x-y)-3(x+y))\\ &=& (x-2y,11x-10y) \end{eqnarray*} evaluando en los vectores canónicos \begin{eqnarray*} (G\circ F)(\mathbf{e}_1)&=&(1,11) \\ (G\circ F)(\mathbf{e}_2)&=&(-2,-10) \end{eqnarray*} por lo tanto \[ C=\left[ \begin{array}{cc} 1 & -2 \\ 11 & -10 \end{array} \right] \]
Inciso 3.
Multiplicando las matrices obtenemos \begin{eqnarray*} BA&=& \left[ \begin{array}{cc} 1 & -1 \\ 7 & -3 \end{array} \right] \left[ \begin{array}{cc} 2 & -1 \\ 1 & 1 \end{array} \right] \\ &=&\left[ \begin{array}{cc} 2-1 & -1-1 \\ 14-3 & -7-3 & \end{array} \right]\\ &=& \left[ \begin{array}{cc} 1 & -2 \\ 11 & -10 \end{array} \right]\\ &=&C \end{eqnarray*}
Considera las funciones lineales $F:\mathbb{R}^n \to \mathbb{R}^m, G:\mathbb{R}^m \to \mathbb{R}^k$. Sean $A,B$ matrices tales que $F(\mathbf{p})=A\mathbf{p}, G(\mathbf{p})=B\mathbf{p}$. Demuestra que $(G\circ F)(\mathbf{p})=(BA)\mathbf{p}$, para toda $\mathbf{p}$.
Denotar $q=Ap \in \mathbb{R}^m$. Entonces $G\circ F(p)=G(F(p))=B(Ap)=B(q)$.
Para $i=1,\dots, k$, fijo \begin{eqnarray*} (Bq)_i&=&\sum_{s=1}^m B_{i,s}q_s \\ &=& \sum_{s=1}^m B_{i,s}\left( \sum_{r=1}^n A_{s,r}p_r \right)\\ &=&\sum_{s=1}^k\sum_{r=1}^m B_{i,s}A_{s,r}p_r\\ &=&\sum_{r=1}^m \left( \sum_{s=1}^k B_{i,s}A_{s,r} \right)p_r \\ &=&\sum_{r=1}^m (BA)_{i,r}p_r \\ &=& (BA p)_i \end{eqnarray*}
Una función lineal $F:\mathbb{R}^n \to \mathbb{R}^n$ se llama invertible si es inyectiva y suprayectiva, es decir, una biyección.
Como consecuencia existe una función, que vamos a denotar $F^{\langle -1 \rangle }:\mathbb{R}^n \to \mathbb{R}^n$, que satisface $F\circ F^{\langle -1 \rangle }(\mathbf{q})=\mathbf{q}$, $F^{\langle -1 \rangle }\circ F(\mathbf{p})=\mathbf{p}$, para todas $\mathbf{p}$, $\mathbf{q}$.
Nota: para encontrar la regla de correspondencia de \(F^{\langle -1 \rangle }\) se plantea la ecuación \[ F(\mathbf{p})=\mathbf{q} \] y se revuelve para las coordenadas de \(\mathbf{p}\) en términos de las coordenadas de \(\mathbf{q}\).
Todas las siguientes funciones, \(F:\mathbb{R}^3 \to \mathbb{R}^3\), son lineales e invertibles. Resuelve el sistema de ecuaciones \[ (u,v,w)=F(x,y,z) \] para \(x,y,z\) (es decir, \(u,v,w\) son los datos y \(x,y,z\) las incógnitas) y así encuentra la regla de correspondencia de la inversa de \(F\)
Observación: la función inversa de una función lineal también es lineal. Lo anterior se probará más adelante.
Inciso 1.
Planteamos el sistema de ecuaciones, \((u,v,w)=F(x,y,z)\) , y los resolvemos \begin{eqnarray*} x+y+z&=& u \\ 2y-z &=& v \\ 5z &=& w \\ &\Rightarrow & \\ x &=& u-y-z \\ y &=& \frac{v}{2}+\frac{z}{2} \\ z&=&\frac{w}{5} \\ & \Rightarrow & \\ x &=& u-\frac{v}{2}-\frac{(w/5)}{2}-\frac{w}{5}= u-\frac{v}{2}-\frac{3w}{10} \\ y &=& \frac{v}{2}+\frac{(w/5)}{2} = \frac{v}{2}+ \frac{w}{10}\\ z&=&\frac{w}{5} \end{eqnarray*} Por lo tanto \begin{eqnarray*} F^{\langle -1 \rangle}(u,v,w)&=& (x,y,z) \\ &=& (u-\frac{v}{2}-\frac{3w}{10}, \frac{v}{2}+ \frac{w}{10} , \frac{w}{5}) \end{eqnarray*}
Sea $F:\mathbb{R}^n \to \mathbb{R}^n$ una función lineal e invertible.
Inciso 1.
Debemos de probar \[ F^{\langle -1 \rangle }(\beta \mathbf{q}_1+\mathbf{q}_2) = \beta F^{\langle -1 \rangle }(\mathbf{q}_1)+F^{\langle -1 \rangle}(\mathbf{q}_2) \] Denotamos \(F^{\langle -1 \rangle}(\mathbf{q}_i)=\mathbf{p}_i\), \(i=1,2\). Por definición \(\mathbf{p}_i\) es el único punto que satisface \(F(\mathbf{p}_i)=\mathbf{q}_i\). De lo anterior y de la linealidad de \(F\) se sigue que \begin{eqnarray*} F(\beta \mathbf{p}_1+\mathbf{p}_2)=\beta F(\mathbf{p}_1)+ F(\mathbf{p}_2)=\beta \mathbf{q}_1+\mathbf{q}_2 \end{eqnarray*} Por lo tanto, por la definición de \(F^{\langle -1 \rangle}\), llegamos a \begin{eqnarray*} F^{\langle -1 \rangle}(\beta \mathbf{q}_1+\mathbf{q}_2)&=& \beta \mathbf{p}_1+\mathbf{p}_2 \\ &=& \beta F^{\langle -1 \rangle }(\mathbf{q}_1)+F^{\langle -1 \rangle}(\mathbf{q}_2) \end{eqnarray*}
Inciso 2.
Sabemos que \begin{eqnarray*} (F^{\langle -1 \rangle }\circ F)(\mathbf{p})&=& ( F\circ F^{\langle -1 \rangle })(\mathbf{p}) \\ &=&\mathbf{p}\\ &=&Id(\mathbf{p}) \\ \end{eqnarray*} para todo \(\mathbf{p}\in \mathbb{R}^n\), donde \(Id\) es la función identidad. Por el Ejercicio 3.33 y la unicidad de la representación de funciones lineales como multiplicación como matriz concluimos \(AB=BA=I_n\), donde \(I_n\) es la matriz identidad.
La función determinante tiene la siguiente identidad: $\det(AB)=\det(A)\det(B)$. Usando ésta propiedad y el hecho de que $\det(I_n)=1$ demuestra que si $A$ es invertible entonces $\det(A)\ne 0$ y $\det(A^{-1})=\det(A)^{-1}$.
Sea \(F:\mathbb{R}^n \to \mathbb{R}^n\) una función lineal y \(A\) la matriz tal que \(F(\mathbf{p})=A\mathbf{p}\), para todo \(\mathbf{p}\in \mathbb{R}^n\).
La función \(F\) es invertible sii \(\det(A)\ne 0\).
Verifica que $$ \left[ \begin{array}{cc} a & b \\ c & d \end{array} \right] \left[ \begin{array}{cc} d & -b \\ -c & a \end{array} \right]= \left[ \begin{array}{cc} ab-bc & 0 \\ 0 & ab-bc \end{array} \right] $$ Concluye que una matriz de $2 \times 2$ es invertible sii su determinante es distinto de cero y $$ \left[ \begin{array}{cc} a & b \\ c & d \end{array} \right]^{-1} =\frac{1}{ad-bc}\left[ \begin{array}{cc} d & -b \\ -c & a \end{array} \right] $$
Con ayuda del ejercicio encuentra las inversas de las siguientes funciones.
Dada una matriz \(A=[A_{i,j}]\) de \(n\times n\) definimos \[ \|A\|_2 = \left( \sum_{i,j=1}^n A_{i,j}^2 \right)^{1/2} \] Prueba que para todo \(\mathbf{p}\in \mathbb{R}^n\) \[ \|A\mathbf{p}\|\leq \|A\|_2 \|\mathbf{p}\|. \]
La entrada \(i\) del vector \(A\mathbf{p}\) está dada por \[ \sum_{r=1}^n A_{i,r}p_r \] y por Cauchy-Schwartz tenemos \begin{eqnarray*} \left( \sum_{r=1}^n A_{i,r}p_r \right)^2 & \leq & \left( \sum_{r=1}^n A_{i,r}^2\right)\left(\sum_{r=1}^n p_r^2 \right) \\ &=&\left( \sum_{r=1}^n A_{i,r}^2\right)\|\mathbf{p}\|^2 \end{eqnarray*} Por lo tanto \begin{eqnarray*} \left\| A\mathbf{p} \right\|^2&=& \sum_{i=1}^n \left( \sum_{r=1}^n A_{i,r}p_r \right)^2 \\ &\leq & \sum_{i=1}^n \left( \sum_{r=1}^n A_{i,r}^2 \right)\|\mathbf{p}\|^2 \\ &=& \left( \sum_{i=1}^n\sum_{r=1}^n A_{i,r}^2 \right)\|\mathbf{p}\|^2 \\ &=& \|A\|_2^2\|\mathbf{p}\|^2 \end{eqnarray*} sacando raíz en ambos lados llegamos a \[ \|A\mathbf{p}\| \leq \|A\|_2 \|\mathbf{p}\|. \]
Sea \(F:\mathbb{R}^n \to \mathbb{R}^n\) una función lineal a invertible.
Por \(B_r(0)\) denotamos la bola con centro en \(0\) y radio \(r\).
Prueba que exsite un \(r>0\) tal que \[ B_r(0)\subseteq F(B_1(0)). \] Notación: \(F(B_1(0)):=\{ F(\mathbf{p}): \mathbf{p}\in B_1(0) \}\), es decir, la imagen directa de \(B_1(0)\) bajo \(F\).
Más adelante, en el Teorema del mapeo abierto veremos que este ejercicio se generaliza.
Afirmamos que para \(r=\frac{1}{2\|A^{-1}\|_2}\) satisface lo que pide el ejercicio (donde \(A\) es la matriz que representa a \(F\)). Acontinuación explicamos ésta elección.
Para probar la contención \(B_r(0)\subseteq F(B_1(0))\) primero notamos que al ser \(F\) invertible, para todo \(\mathbf{q}\in B_1(0)\) existe un \(\mathbf{p}\) tal que \(\mathbf{q}=F(\mathbf{p})\). Lo que debemos de asegurar es que dicho \(\mathbf{p}\) debe de tener \(\|\mathbf{p}\| < 1\).
Sea \(A\) la matriz que representa a \(F\). Ya que \(F(\mathbf{p})=\mathbf{q}\) y al ser \(A\) invertible tenemos que \(\mathbf{p} =A^{-1}\mathbf{q}\). Por lo que la condición \(\|\mathbf{p}\|< 1\) se puede escribir \[ \|A^{-1}\mathbf{q}\| < 1 \] Entonces si podemos encontrar una \(r > 0\) que satisfaga: \[ \|\mathbf{q}\| < r \Rightarrow \| A^{-1}\mathbf{q}\| < 1 \] habremos terminado.
Pero \[ \| A^{-1}\mathbf{p}\| \leq \|A^{-1}\|_2 \|\mathbf{q}\| \] y si tomamos \(r=\frac{1}{ 2 \|A^{-1}\|_2 }\) obtenemos \[ \| A^{-1}\mathbf{p}\| \leq \|A^{-1}\|_2 \|\mathbf{q}\| < \|A^{-1}\|_2 r= \frac{1}{2} < 1 \]
Una matriz \(U\) de \(n\times n\) se llama ortogonal si \[ UU^t=I=U^tU \]
Sea \(U\) una matriz ortogonal de \(2\times 2\) y define \(F:\mathbb{R}^2 \to \mathbb{R}^2\) dada por \( F(\mathbf{p})=U\mathbf{p}\).
Prueba que \[ F(B_1(0))=B_1(0) \]
Sea \(f:\mathbb{R}^3 \to \mathbb{R}\) lineal. Escribamos la función como \[ f(x,y,z)=ax+by+cz \] Si \(c\ne 0\) existe una función \(g:\mathbb{R}^2 \to \mathbb{R}\) tal que \[ f(x,y,g(x,y))=0 \] para todo \((x,y,z)\).
Si denotamos \[ N(f)=\{(x,y,z)\in \mathbb{R}^3: f(x,y,z)=0\} \] lo anterior se puede escribir como \[ \textrm{Gráfica}(g)\subseteq N(f). \]
Sean \(f_1,f_2, \dots, f_m: \mathbb{R}^{k+m} \to \mathbb{R}\) funciones lineales. Vamos a denotar los puntos de \(\mathbb{R}^{k+m}\) como \((\mathbf{x},\mathbf{y})\) con \(\mathbf{x}=(x_1,\dots, x_k), \mathbf{y}=(y_1,\dots, y_m)\).
Por el Teorema de representación de Riesz, para toda función \(f_i\) podemos escribir \[ f_i(x_1,\dots, x_k,y_1,\dots, y_m)=\sum_{r=1}^k a_{i,r}x_r+ \sum_{s=1}^m b_{i,s}y_s \] Denotemos \(B=[b_{i,j}]\), una matriz de \(m\times m\).
Si \(\det(B)\ne 0\) entonces existen funciones \[ g_i:\mathbb{R}^k \to \mathbb{R} \] \(i=1,2,\dots, m\), tales que \[ y_i=g_i(x_1,\dots, x_k) \] y además \[ f_i(\mathbf{x},g_1(\mathbf{x}), \dots, g_m(\mathbf{x}))=0 \] para todo \(\mathbf{x}\) y para toda \(i=1,\dots, m\).
En otras palabras la intersección \[ \textrm{Gráfica}(G)\subseteq \cap_{i=1}^m N(f_i) \] donde \(G(\mathbf{x})=(g_1(\mathbf{x}),\dots, g_m(\mathbf{x}))\).
Recordar \[ N(f)=\{(\mathbf{x},\mathbf{y}): f(\mathbf{x},\mathbf{y})=0 \} \]
Por $M$ denotamos un plano en $\mathbb{R}^n$. Vamos a dar dos definiciones de la proyección ortogonal al plano $M$, ambas equivalentes. Dado un punto cualquiera $p\in \mathbb{R}^n$, la proyección ortogonal a $M$ es:
En este ejercicio vamos a considerar a la proyección ortogonal como el punto que minimiza la distancia.
Sea $M \subset \mathbb{R}^3$ un plano que pasa por el origen y sean $\mathbf{u},\mathbf{v} \in M$ dos vectores distintos de cero y ortogonales. Asi pues, los puntos en el plano $M$ se pueden escribir $$ s\mathbf{u}+t\mathbf{v}, \quad s,t \in \mathbb{R}. $$
Nota que este inciso muestra que las definiciones geométrica y analítica de la proyección otogonal coinciden.
Inciso 1.
Sea $p\in \mathbb{R}^3$ arbitrario. Usando las propiedades del producto interior tenemos \begin{eqnarray*} \| s\mathbf{u}+t\mathbf{v} - \mathbf{p}\|^2 &=& \langle s\mathbf{u}+t\mathbf{v}-\mathbf{p}, s\mathbf{u}+t\mathbf{v}-\mathbf{p} \rangle \\ &=& s^2\|\mathbf{u}\|^2+t^2\|\mathbf{v}\|^2+ \|\mathbf{p} \|^2 \\ &+& 2st \langle \mathbf{u},\mathbf{v} \rangle- 2s \langle \mathbf{u},\mathbf{p} \rangle - 2t \langle \mathbf{v},\mathbf{p} \rangle \\ &=& s^2\|\mathbf{u}\|^2+t^2\|\mathbf{v}\|^2+ \|\mathbf{p} \|^2 \\ &-& 2s \langle \mathbf{u},\mathbf{p} \rangle - 2t \langle \mathbf{v},\mathbf{p} \rangle \end{eqnarray*}
Completando el cuadrado en \(s\) y \(t\) obtenemos \begin{eqnarray*} \| s\mathbf{u}+t\mathbf{v} - \mathbf{p}\|^2 &=& \left( s \|\mathbf{u}\| - \frac{\langle \mathbf{u},\mathbf{p} \rangle}{\|\mathbf{u}\|} \right)^2 \\ &+&\left( t \|\mathbf{v}\| - \frac{\langle \mathbf{v},\mathbf{p} \rangle}{\|\mathbf{v}\|} \right)^2 \\ &+& \|\mathbf{p}\|^2-\frac{\langle \mathbf{u},\mathbf{p} \rangle^2}{\|\mathbf{u}\|^2} -\frac{\langle \mathbf{v},\mathbf{p} \rangle^2}{\|\mathbf{v}\|^2} \end{eqnarray*}
Para terminar la prueba de $$ \min_{s,t \in \mathbb{R}}\| su+tv - p\|^2=\|p\|^2-\frac{\langle u,p \rangle^2}{\|u\|^2}-\frac{\langle v,p \rangle^2}{\|v\|^2} $$ podemos usar dos argumentos.
El geométrico.
Por la ecuación anterior la gráfica de la función \(f(s,t)=\|s\mathbf{u}+t\mathbf{v}-\mathbf{p}\|^2\) es un paraboloide con vértica en el punto \((s_0,t_0)\) donde se satisfacen \begin{eqnarray*} s_0\|\mathbf{u}\|-\frac{\langle \mathbf{u}, \mathbf{p} \rangle}{\|\mathbf{u}\|^2} =0 \\ t_0\|\mathbf{v}\|-\frac{\langle \mathbf{v}, \mathbf{p} \rangle }{\|\mathbf{v}\|^2} =0 \end{eqnarray*} es decir \begin{eqnarray*} s_0=\frac{\langle \mathbf{u}, \mathbf{p} \rangle }{\|\mathbf{u}\|^2} \\ t_0=\frac{\langle \mathbf{v}, \mathbf{p} \rangle }{\|\mathbf{v}\|^2} \end{eqnarray*} y por lo tanto el mínimo se alcanza únicamente en el punto \((s_0,t_0)\) y el mínimo es el término constante del paraboloide, es decir $$ \min_{s,t \in \mathbb{R}}\| su+tv - p\|^2=\|p\|^2-\frac{\langle u,p \rangle^2}{\|u\|^2}-\frac{\langle v,p \rangle^2}{\|v\|^2} $$
El analítico.
En la ecuación \begin{eqnarray*} \| s\mathbf{u}+t\mathbf{v} - \mathbf{p}\|^2 &=& \left( s \|\mathbf{u}\| - \frac{\langle \mathbf{u},\mathbf{p} \rangle}{\|\mathbf{u}\|} \right)^2 \\ &+&\left( t \|\mathbf{v}\| - \frac{\langle \mathbf{v},\mathbf{p} \rangle}{\|\mathbf{v}\|} \right)^2 \\ &+& \|\mathbf{p}\|^2-\frac{\langle \mathbf{u},\mathbf{p} \rangle^2}{\|\mathbf{u}\|^2} -\frac{\langle \mathbf{v},\mathbf{p} \rangle^2}{\|\mathbf{v}\|^2} \end{eqnarray*} los dos primeros términos son no negativos por lo tanto \begin{eqnarray*} \| s\mathbf{u}+t\mathbf{v} - \mathbf{p}\|^2 &\geq & &+& \|\mathbf{p}\|^2-\frac{\langle \mathbf{u},\mathbf{p} \rangle^2}{\|\mathbf{u}\|^2} -\frac{\langle \mathbf{v},\mathbf{p} \rangle^2}{\|\mathbf{v}\|^2} \end{eqnarray*} con igualdad si y sólo si \begin{eqnarray*} \left( s \|\mathbf{u}\| - \frac{\langle \mathbf{u},\mathbf{p} \rangle}{\|\mathbf{u}\|} \right)^2 =0 \\ \left( t \|\mathbf{v}\| - \frac{\langle \mathbf{v},\mathbf{p} \rangle}{\|\mathbf{v}\|} \right)^2 =0 \end{eqnarray*} es decir si y sólo si \begin{eqnarray*} s=\frac{\langle \mathbf{u}, \mathbf{p} \rangle }{\|\mathbf{u}\|^2} \\ t=\frac{\langle \mathbf{v}, \mathbf{p} \rangle }{\|\mathbf{v}\|^2} \end{eqnarray*} Por lo tanto $$ \min_{s,t \in \mathbb{R}}\| su+tv - p\|^2=\|p\|^2-\frac{\langle u,p \rangle^2}{\|u\|^2}-\frac{\langle v,p \rangle^2}{\|v\|^2} $$ y se alcanza únicamente en el punto \begin{eqnarray*} s_0=\frac{\langle \mathbf{u}, \mathbf{p} \rangle }{\|\mathbf{u}\|^2} \\ t_0=\frac{\langle \mathbf{v}, \mathbf{p} \rangle }{\|\mathbf{v}\|^2} \end{eqnarray*}
Inciso 2.
Por definición \(P(\mathbf{p})\) es precisamente el punto en el plano tal que \[ \min_{s,t\in \mathbb{R}}\|s\mathbf{u}+t\mathbf{v} - \mathbf{p}\|=\|P(\mathbf{p})-\mathbf{p} \| \] ya que el mínimo se alcanza en un único punto debemos de tener \[ P(\mathbf{p})=\frac{\langle \mathbf{u}, \mathbf{p} \rangle }{\|\mathbf{u}\|^2} \mathbf{u}+ \frac{\langle \mathbf{v}, \mathbf{p} \rangle }{\|\mathbf{v}\|^2} \mathbf{u} \]
Inciso 3.
Sabemos que las proyecciones sobre las rectas por el origen \begin{eqnarray*} P_u(\mathbf{p})=\frac{\langle \mathbf{u}, \mathbf{p}\rangle }{\|\mathbf{u}\|^2} u \\ P_v(\mathbf{p})=\frac{\langle \mathbf{v}, \mathbf{p}\rangle }{\|\mathbf{v}\|^2} u \\ \end{eqnarray*} son lineales y como \(P=P_u+P_v\) obtenemos que \(P\) es lineal.
Inciso 4.
Tomamos un punto arbitrario en el plano y tenemos que probar que el producto punto con con \(\mathbf{p}-P(\mathbf{p})\) es cero. \begin{eqnarray*} \langle s\mathbf{u}+t\mathbf{v} , \mathbf{p}-P(\mathbf{p}) \rangle &=& s\langle \mathbf{u}, \mathbf{p} \rangle +t \langle \mathbf{v}, \mathbf{p}\rangle \\ &-&s\langle \mathbf{u}, P(\mathbf{p}) \rangle \\ &-&t \langle \mathbf{v}, P(\mathbf{p}) \rangle \\ &=&s\langle \mathbf{u}, \mathbf{p} \rangle +t \langle \mathbf{v}, \mathbf{p}\rangle \\ &-& s\langle \mathbf{u}, \frac{\langle \mathbf{u},\mathbf{p}\rangle }{\|\mathbf{u}\|^2}\mathbf{u} +\frac{\langle \mathbf{v},\mathbf{p}\rangle }{\|\mathbf{v}\|^2}\mathbf{v} \rangle \\ &-&t \langle \mathbf{v}, \frac{\langle \mathbf{u},\mathbf{p}\rangle }{\|\mathbf{u}\|^2}\mathbf{u} +\frac{\langle \mathbf{v},\mathbf{p}\rangle }{\|\mathbf{v}\|^2}\mathbf{v} \rangle \rangle \\ &=&s\langle \mathbf{u}, \mathbf{p} \rangle +t \langle \mathbf{v}, \mathbf{p}\rangle \\ &-& s\langle \mathbf{u}, \mathbf{p} \rangle -t \langle \mathbf{v}, \mathbf{p}\rangle \\ &=&0 \end{eqnarray*} donde en la pernúltima igualdad usamos que \(\mathbf{u}\) y \(\mathbf{v}\) son ortogonales.
En este ejercicio vamos a considerar la definición geométrica de la proyección ortogonal.
Sea $M \subset \mathbb{R}^3$ un plano que pasa por el origen y $p\in \mathbb{R}^3$ un punto fijo y arbitrario.
Sugerencia: nota que $\mathbf{p}-P(\mathbf{p})$ y $P(\mathbf{p})-\mathbf{q}$ son ortogonales y después usa el Teorema de Pitágoras.
Usando la ecuación normal del plano tenemos que un punto $q$ pertenece a $M$ si y sólo si $\langle n, q \rangle = 0$ con $n$ un vector normal al plano $M$. En este caso, como $M$ es generado por los vectores $u, v$ y $w=u \times v$ entonces $w$ es un vector normal a $M$, asímismo es un vector unitario, $\|u \times v\| = \|u\| \|v\| \sen(\theta)$, por lo que no será necesario dividir entre $\|w\|^2$ al calcular $P_w$.
Tenemos que \begin{align*} \langle p- P_w(p),w \rangle =& \langle p, w \rangle - \langle P_w(p), w \rangle,\\ =& \langle p, w \rangle - \langle \langle p,w \rangle w, w\rangle,\\ =& \langle p, w\rangle - \langle p,w \rangle = 0, \end{align*} por lo tanto $p - P_w(p) \in M$.
El vector que une a $p$ con $p-P_w(p)$ es $p - (p-P_w(p)) = P_w(p) = \langle p, w\rangle w$. Dado que todo punto en el plano $M$ es de la forma $tu + sv$ para algunos $t,s \in \mathbb{R}$ entonces \begin{equation*} \langle tu + sv, \langle p, w \rangle w\rangle = \langle p,w \rangle (t\langle u,w\rangle + s\langle v,w \rangle), \end{equation*} y como $w = u \times v$ entonces es ortogonal a ambos vectores y $\langle tu + sv, P_w(p)=0$, es decir, es ortogonal a todo punto del plano $M$.
Como $P_w$ es una función lineal, entonces dados $p,q \in \mathbb{R}^3$ y $\alpha \in \mathbb{R}$ se tiene que \begin{equation*} P(\alpha p + q) = (\alpha p + q) - P_w(\alpha p + q) = \alpha (p - P_w(p)) + (q - P_w(q)) = \alpha P(p) + P(q). \end{equation*}
Empezamos por desarrollar las expresiones $p - P(p)$ y $P(p)-q$: \begin{align*} p - P(p) =& P_w(p),\\ P(p) - q =& p - P_w(p) - q. \end{align*} Veamos ahora que éstos son ortogonales \begin{align*} \langle p- P(p), P(p) - q\rangle =& \langle P_w(p), p- P_w(p) - q \rangle,\\ =& \langle P_w(p), p \rangle - \langle P_w(p), P_w(p)\rangle - \langle P_w(p),q \rangle, \\ =& \langle \langle p,w \rangle w, p\rangle - \langle \langle p,w \rangle w, \langle p , w \rangle w \rangle - \langle \langle p,w \rangle w , q \rangle,\\ =& \langle p,w \rangle \langle w,p \rangle - \langle p,w\rangle \langle p,w \rangle \|w\|^2 - \langle p,w \rangle \langle w,q \rangle,\\ =& \langle p,w\rangle ^2 - \langle p,w\rangle ^2 - \langle p,w\rangle \langle w,q \rangle,\\ =& 0, \end{align*} pues por el segundo inciso $q$ y $w$ son ortogonales.
Por el Teorema de Pitágoras se tiene que \begin{equation*} \|p - P(p)\|^2 + \|P(p) - q\|^2 = \|p-q\|^2, \end{equation*} como $\|P(p) - q\|^2 \geq 0$ entonces \begin{equation*} \|p - P(p)\|^2 \leq \|p-q\|^2, \end{equation*} y la desigualdad deseada se obtiene al tomar la raíz cuadrada de ambos lados.
Nuevamente, como $u,v$ son unitarios entonces podemos ignorar las normas al cuadrado en la la fórmula \eqref{Eqn:FormulaProyOrt} para $P(p)$. Como $P(p) = p-P_w(p)$ entonces \begin{equation*} \langle u, p \rangle u + \langle v, p \rangle v = p - \langle w, p \rangle w, \end{equation*} y basta despejar el término $\langle w , p \rangle w$ para obtener la expresión deseada.