Antes de dar la regla de la cadena en la forma más general tenemos que definir las funciones diferencibles de la forma más general. Hasta ahora sólo se han tratado la diferenciabilidd de funciones con valores escalares (llamadas campos escalares) la siguiente definición generaliza la definición de diferenciabilidad para funciones con valores vectoriales (llamados campos vectoriales).
Sea $U\ne \emptyset$ un subconjunto abierto de $\mathbb{R}^n$ y $F:U \to \mathbb{R}^m$ una función. Escribamos las funciones coordenadas de $F$ como $$F(p)=(f_1(p),\cdots, f_m(p) )$$ donde cada \(f_i\) es una función que con valores escalares, \(f_i:U \to \mathbb{R}\).
Decimos que la función $F$ es diferenciable en $p_0$ si y sólo si todas las funciones escalares $f_i$, $i=1,\dots, m$, son diferenciables en $p_0$.
Si \(F\) es diferenciable en \(p_0\) definimos la matriz de darivadas parciales de \(F\) en \(p_0\) como: $$ D_{p_0}F=[\partial_{p_j}f_i(p_0)]_{1\leq i \leq m, 1 \leq j \leq n} $$
Notas.
Para cada una de las siguientes funciones encuentra la matriz de derivadas parciales
Calculamos $\nabla_p f_1$ y $\nabla_p f_2$ \begin{align*} \nabla_{p}f_1 =& (e^y , xe^y),\\ \nabla_{p}f_2 =& (ye^x, e^x). \end{align*} Por lo tanto la matriz de derivadas parciales está dada por \begin{equation*} D_p F = \begin{pmatrix} e^y & xe^y \\ ye^x & e^x \end{pmatrix}. \end{equation*}
Tenemos que calcular $\nabla_p f_1, \nabla_p f_2, \nabla_p f_3$, \begin{align*} \nabla_p f_1 =& (y + 2x, x),\\ \nabla_p f_2 =& (2x, 2y),\\ \nabla_p f_3 =& (3x^2 + y, x+3y^2), \end{align*} con ello \begin{equation*} D_p F = \begin{pmatrix} y+2x & x\\ 2x & 2y\\ 3x^2+y & x+3y^2 \end{pmatrix}. \end{equation*}
Al igual que en los casos anteriores, primero calculamos los gradientes de las funciones coordenada \begin{align*} \nabla_p f_1 =& (x,y,0),\\ \nabla_p f_2 =& (e^{xy} + xye^{xy}, x^2e^{xy}, 0),\\ \nabla_p f_3 =& (\frac{2xz^2}{1+x^2z^2}, 0, \frac{2zx^2}{1+x^2z^2}), \end{align*} por lo tanto \begin{equation*} D_p F = \begin{pmatrix} y & x & 0\\ e^{xy} + xye^{xy} & x^2e^{xy} & 0\\ \frac{2xz^2}{1+x^2z^2}) & 0 & \frac{2zx^2}{1+x^2z^2}\\ \end{pmatrix}. \end{equation*}
Supongamos que $F:\mathbb{R}^n \to \mathbb{R}^m$ es una función lineal. Demuestra que, para todo $p_0\in \mathbb{R}^n$, $F$ es diferenciable en $p_0$. Además si \(M\) es la matriz que representa a \(F\) entonces $D_{p_0}F=M$.
Escribimos las funciones coordenadas de \(F\) como \[ F(p)=(f_1(p),\dots, f_m(p)) \] Al ser \(F\) lineal resulta que cada \(f_i:\mathbb{R}^n \to \mathbb{R}\) es una función lineal. Ya que las funciones lineales son diferenciables en todo punto concluimos que \(F\) es diferenciable en todo \(\mathbb{R}^n\).
Continuando con la matriz que representa a \(F\), al ser \(f_i\) lineal existe un vector \((a_{i,1}, \dots,a_{i,m} )\in \mathbb{R}^n \) tal que \begin{equation}\label{Eqn:AuxEjmploFunLineal} f_i(p_1,\dots, p_n)=a_{i,1}p_1+\cdots + a_{i,n}p_n \end{equation} y por lo tanto \(M=[a_{i,j}]_{1\leq i \leq n, 1\leq j \leq m}\).
Finalmente tomando la derivada parcial con respecto a \(p_j\) en \eqref{Eqn:AuxEjmploFunLineal} obtenemos \(\partial_{p_j}f_i=a_{i,j}\) y por lo tanto \(D_{p_0}F=M\).
Sea $U$ un abierto de $\mathbb{R}^n$ , $F,G:U\to \mathbb{R}^m$ dos funciones y sea $\alpha\in \mathbb{R}$ un escalar. Sea $p_0 \in U$ un punto tal que tanto $F$ como $G$ son diferenciables en $p_0$.
Demuestra que la función $\alpha F+G$ es diferenciable en $p_0$ y $$ D_{p_0}(\alpha F+G)=\alpha D_{p_0}F+D_{p_0}G. $$
Escribimos las funciones coordenadas de \(F\) y \(G\) como \[ F(p)=(f_1(p),\dots, f_m(p)), G(p)=(g_1(p),\dots, g_m(p)) \] Se sigue que las funciones coordenadas de \(\alpha F+G\) son \[ (\alpha F+G)(p)=((\alpha f_1+g_1)(p), \dots, (\alpha f_m+g_m)(p)) \] Ahora:
\(F, G\) diferenciables en \(p_0\) \(\Rightarrow \) para toda \(i\), \(f_i, g_i\) son diferenciables en \(p_0\),
\(\Rightarrow\) \(\alpha f_i+g_i\) es diferenciable en \(p_0\) para toda \(i\),
\(\Rightarrow \) \(\alpha F+G\) es diferenciable en \(p_0\).
Sea $U\ne \emptyset$ un abierto de $\mathbb{R}^2$, $(x_0,y_0)\in U $ y $F:U \to \mathbb{R}^2 $ una función diferenciable en $(x_0,y_0)$.
Escribamos las funciones coordenadas de $F$ como $F=(f_1,f_2)$. Por simplicidad denotamos por $A$ a la función lineal inducida por la matriz de derivadas parciales $D_{(x_0,y_0)}F$.
En coordenadas tenemos que \begin{eqnarray*} F(x,y)-F(x_0,y_0)&=&(f_1(x,y), f_2(x,y))-(f_1(x_0,y_0), f_2(x_0,y_0))\\ &=&(f_1(x,y)-f_1(x_0,y_0),f_2(x,y)-f_2(x_0,y_0)) \end{eqnarray*} \begin{eqnarray*} A(x-x_0,y-y_0)&=& (\partial_xf_1(x_0,y_0)(x-x_0)+\partial_y f_1(x_0,y_0)(y-y_0), \\ & &\partial_xf_2(x_0,y_0)(x-x_0)+\partial_y f_2(x_0,y_0)(y-y_0)) \end{eqnarray*} Por lo tanto \(F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0)=(a,b)\) donde \begin{eqnarray*} a= f_1(x,y)-f_1(x_0,y_0) - \partial_xf_1(x_0,y_0)(x-x_0)-\partial_y f_1(x_0,y_0)(y-y_0) \\ b= f_2(x,y)-f_2(x_0,y_0) - \partial_xf_2(x_0,y_0)(x-x_0)-\partial_y f_2(x_0,y_0)(y-y_0) \end{eqnarray*}
Usando que \(\|(a,b)\|\leq |a|+|b|\) obtenemos \begin{eqnarray*} & & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{|a|}{\|(x-x_0,y-y_0)\|}+\frac{|b|}{\|(x-x_0,y-y_0)\|} \\ \end{eqnarray*}
Ahora, \(F\) diferenciable en \((x_0,y_0)\) implica \(f_1,f_2\) diferenciables en \((x_0,y_0)\) por lo que \begin{eqnarray*} & \lim_{(x,y)\to (x_0,y_0)} & \frac{|f_1(x,y)-f_1(x_0,y_0)- \partial_xf_1(x_0,y_0)(x-x_0)- \partial_yf_1(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ & = & 0\\ & \lim_{(x,y)\to (x_0,y_0)}& \frac{|f_2(x,y)-f_2(x_0,y_0)- \partial_xf_2(x_0,y_0)(x-x_0)- \partial_yf_2(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ & = & 0 \end{eqnarray*} Por el inciso anterior \begin{eqnarray*} & 0\leq & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{|f_1(x,y)-f_1(x_0,y_0)- \partial_xf_1(x_0,y_0)(x-x_0)- \partial_yf_1(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \\ &+& \frac{|f_2(x,y)-f_2(x_0,y_0)- \partial_xf_2(x_0,y_0)(x-x_0)- \partial_yf_2(x_0,y_0)(y-y_0)|} {\| (x-x_0,y-y_0)\|} \end{eqnarray*} y por la ley del sandwich concluimos \[ \lim_{(x,y)\to (x_0,y_0)}\frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|}=0 \]
Este ejercicio se puede pensar como el regreso del Ejercicio 13.4.
Sea $U\ne \emptyset$ un abierto de $\mathbb{R}^2$, $p_0=(x_0,y_0)\in U$ y $F:U\to \mathbb{R}^2$.
Supongamos que existe una función lineal $A:\mathbb{R}^2\to \mathbb{R}^2$, tal que \begin{equation}\label{Eqn:GenLimiteEquivalenteDefDif} \lim_{(x,y)\to (x_0,y_0)} \frac{\| F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\| (x-x_0, y-y_0) \|}=0. \end{equation} Denotemos \[ A(x,y)=(a_{1,1}x+a_{1,2}y, a_{2,1}x+a_{2,2}y). \] Demuestra que
Denotemos \((a,b)=F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0)\). Tomando coordenadas tenemos que \begin{eqnarray*} a= f_1(x,y)-f_1(x_0,y_0)-a_{1,1}(x-x_0)-a_{1,2}(x-x_0)\\ b= f_2(x,y)-f_2(x_0,y_0)-a_{2,1}(x-x_0)-a_{2,2}(x-x_0) \end{eqnarray*} Usando las desigualdades \(|a|\leq \|(a,b)\|, |b|\leq \|(a,b)\|\) llegamos a \begin{eqnarray*} & & \frac{|f_i(x,y)-f_i(x_0,y_0)-a_{i,1}(x-x_0)- a_{i,2}(y-y_0)|}{\|(x-x_0,y-y_0)\|} \\ &\leq & \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|} \end{eqnarray*}
Usando \eqref{Eqn:GenLimiteEquivalenteDefDif} y la desigualdad anterior obtenemos \[ \lim_{(x,y)\to 0 } \frac{|f_i(x,y)-f_i(x_0,y_0)-a_{i,1}(x-x_0)- a_{i,2}(y-y_0)|}{\|(x-x_0,y-y_0)\|} =0 \] por lo tanto concluimos que \(f_i\) es diferenciable en \((x_0,y_0)\) (ver Definición 8.1).
De los Ejercicio 13.4 y Ejercicio 13.5 se puede concluir que \(F:U\to \mathbb{R}^2\) es diferenciable en \(p_0\) sii si y sólo si existe una transformación lineal $A:\mathbb{R}^2\to \mathbb{R}^2$ tal que $$ \lim_{(x,y)\to (x_0,y_0)} \frac{\|F(x,y)-F(x_0,y_0)-A(x-x_0,y-y_0) \|}{\|(x-x_0,y-y_0)\|}=0 $$ y la matriz que representa \(A\) es la matriz de derivadas parciales \(D_{p_0}F\).
Esta proposición generaliza la observación de la Nota 13.6 para varias dimensiones.
Sea $U$ un subconjunto abierto de $\mathbb{R}^n$, $p_0\in U$ y $F:U\to \mathbb{R}^m$.
$F$ es diferenciable en $p_0$ si y sólo si existe una trandormación lineal $A:\mathbb{R}^n \to \mathbb{R}^m$, tal que $$ \lim_{p\to p_0}\frac{\|F(p)-F(p_0)-A(p-p_0)) \|}{\|p-p_0\|}=0. $$ En tal caso la matriz de derivadas parciales $D_{p_0}F$ es la representación matricial de \(A\).
Sugerencia: copia los pasos de Ejercicio 13.4 Ejercicio 13.5.
Así como las funciones diferenciables con valores reales admiten una aproximación lineal, (ver ejercicio Proposición 10.3), también así lo hacen las funciones con valores vectoriales.
Sea $U\ne \emptyset $ un abierto de $\mathbb{R}^n$, $p_0\in U$ y $F:U\to \mathbb{R}^m$ una función diferenciable en $p_0$.
Demuestra que existe una función con valores vectoriales, definida en una bola centrada en $p_0$, $E:B_r(p_0) \to \mathbb{R}^m$ tal que
Sugerencia: define $E(p)=F(p)-F(p_0)-D_{p_0}F(p-p_0)$ y prueba que el límite que se pide es cero.
Concluye que la función \(F\) es continua en \(p_0\).
Al ser \(U\) abierto exsite un \(r>0\) tal que \(B_r(p_0)\subseteq U\). Para \(p\in B_r(p_0)\) definimos \(E(p)=F(p)-F(p_0)-D_{p_0}F(p-p_0)\). Es claro que para \(p\in B_r(p_0)\) se satisface \[ F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p) \] Además \[ \frac{\|E(p)\|}{\|p-p_0\|}=\frac{\|F(p)-F(p_0)-D_{p_0}F(p-p_0)\| \|}{\|p-p_0\|} \] por lo que \(\lim_{p\to p_0}\frac{\|E(p)\|}{\|p-p_0\|}=0\) se sigue de Proposición 13.9
Antes de probar la continuidad notamos que \(\lim_{p\to p_0}E(p)=0\). Para probar lo anterior usando la ley de multiplicación para límites tenemos: \begin{eqnarray*} 0&=& \lim_{p\to p_0} \| p-p_0\| \lim_{p\to p_0}\frac{\|E(p)\|}{\|p-p_0\|}\\ &=& \lim_{p\to p_0}\left(\|p-p_0\|\frac{\|E(p)\|}{\|p-p_0\|} \right) \\ &=& \lim_{p\to p_0}\| E(p)\| \end{eqnarray*}
Fnalmente para probar la continuidad de \(F\) primero notamos los siguientes límites \begin{eqnarray*} \lim_{p\to p_0}F(p_0)&=&F(p_0) \\ \lim_{p\to p_0} D_{p_0}F(p-p_0)&=&D_{p_0}F(p_0-p_0)=0 \\ \lim_{p\to p_0} E(p)&=&0 \end{eqnarray*} (la segunda identidad se justifica al ser la función lineal \(D_{p_0}F\) continiua). Si tomamos límite en la identidad \[ F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p) \] y usamos la ley de la suma para límites obtenemos que \begin{eqnarray*} \lim_{p\to p_0}F(p)&=&\lim_{p\to p_0}F(p_0)+\lim_{p\to p_0}D_{p_0}F(p-p_0)+\lim_{p\to p_0}E(p) \\ &=&F(p_0) \end{eqnarray*}
Sea $U\ne \emptyset $ un abierto de $\mathbb{R}^n$, $p_0\in U$ y $F:U\to \mathbb{R}^m$ una función.
Supongamos que existe una bola abierta $B_r(p_0)\subseteq U$, una función $\tilde{E}:B_r(p_0) \to \mathbb{R}^m$ y una función lineal $L:\mathbb{R}^n \to \mathbb{R}^m$ que satisfacen
Sugerencia: si $\tilde{E}(p)=(\tilde{E}_1(p), \dots, \tilde{E}_m(p))$, primero prueba que las funciones $\tilde{E}_j$ satisfacen las condiciones del ejercicio Proposición 10.4 y de éste ejercicio concluye que cada función coordenada de $F$ es diferenciable en $p_0$.
Primeramente escribimos las funciones coordenadas de las funciones: \begin{eqnarray*} F(p)&=&(f_1,(p),\dots, f_m(p)), \\ L(p)&=&(L_1(p),\dots, L_m(p)), \\ \tilde{E}(p)&=&(\tilde{E}_1(p),\dots, \tilde{E}_m(p)) \end{eqnarray*} Notamos que al ser \(L\) lineal cada una de las funciones coordenadas \(L_i\) es lineal.
Ahora, si escribimos la identidad $F(p)=F(p_0)+L(p-p_0)+\tilde{E}(p)$ en coordenadas obtenemos \(m\) identidades como siguen: \begin{eqnarray*} f_1(p)&=&f_1(p_0)+L_1(p-p_0)+\tilde{E}_1(p) \\ &\vdots & \\ f_m(p)&=&f_m(p_0)+L_m(p-p_0)+\tilde{E}_m(p) \\ \end{eqnarray*} además usando que \(|\tilde{E}_i(p)|\leq \|\tilde{E}(p)\|\) obtenemos \[ 0\leq \frac{|\tilde{E}_j(p)|}{\|p-p_0\|}\leq \frac{\|\tilde{E}(p)\|}{\|p-p_0\|} \] asi que por la ley del sandwich para límites concluimos \[ \lim_{p\to p_0} \frac{|\tilde{E}_j(p)|}{\|p-p_0\|}=0 \]
Recapitulando tenemos que para cada función coordenada \(f_j\) se cumple \[ f_j(p)=f_j(p_0)+L_j(p-p_0)+\tilde{E}_j(p) \] donde \(L_j\) es una función lineal y \[ \lim_{p\to p_0} \frac{|E_j(p)|}{\|p-p_0\|}=0 \] Es decir, \(f_j\) admite una aproximación lineal en \(p_0\). Por la Proposición 10.4 concluimos que \(f_j\) es diferenciable en \(p_0\).
Por lo tanto toda función coordenada de \(F\) es diferenciable en \(p_0\) lo que nos dice que \(F\) es diferenciable en \(p_0\).
En cuanto a la matriz de derivadas parciales, de nuevo por la Proposición 10.4 \(L_j=\nabla_{p_0} f_j\). Por lo tanto la matriz que representa a \(L\) tiene por renglones los gradientes \(\nabla_{p_0}f_j\), \(j=1,\dots,m\), por lo que \(L=D_{p_0}F\).
Sean $U \subset \mathbb{R}^n$ y $V\subseteq \mathbb{R}^m$ subconjuntos abiertos y $G:V \to \mathbb{R}^n$, $F:U \to \mathbb{R}^k$ tal que $G(V)\subseteq U$ (para que $F\circ G$ esté bien definida). Supongamos que $q_0\in V$, $G$ es diferenciable en $q_0$ y $F$ es diferenciable en $G(q_0)$.
Entonces $F\circ G$ es diferenciable en $q_0$ y $$ D_{q_0}(F\circ G)=(D_{G(q_0)}F)(D_{q_0}G) $$ donde en la última igualdad se tiene multiplicación de matrices.
Este ejercicio es una preparación para dar una prueba de la regla de la cadena.
Considera las funciones $G: \mathbb{R}^3 \to \mathbb{R}^2$, $F:\mathbb{R}^2 \to \mathbb{R}^2$ dadas por \begin{eqnarray*} G(x,y,z)&=&(g_1(x,y,z),g_2(x,y,z)), \\ F(u,v)&=&(f_1(u,v), f_2(u,v) ) \end{eqnarray*} donde \begin{eqnarray*} g_1(x,y,z)&=&xy,\\ g_2(x,y,z)&=&yz, \\ f_1(u,v)&=&u^2-v^2,\\ f_2(u,v)&=&u+v. \end{eqnarray*} Define $H:\mathbb{R}^3 \to \mathbb{R}^2$ por $H(x,y,z)=F(G(x,y,z))$.
Este ejercicio generaliza el anterior, observando que las fórmulas para $F$ y $G$ no son absolutamente necesarias.
Considera funciones clase $C^1$, $G:\mathbb{R}^3 \to \mathbb{R}^2$ y $F:\mathbb{R}^2 \to \mathbb{R}^2$ y $H=F \circ G$.
Componiendo las funciones tenemos \begin{eqnarray*} H(x,y,z)&=&F(G(x,y,z))\\ &=&(f_1(G(x,y,z)),f_2(G(x,y,z))) \\ &=& (f_1(g_1(x,y,z),g_2(x,y,z)), f_2(g_1(x,y,z),g_2(x,y,z))) \end{eqnarray*} de donde sale el resultado.
Fijamos \(y,z\) y definimos la curva \(\gamma(x)=(g_1(x,y,z),g_2(x,y,z))\). Se sigue que \begin{eqnarray*} \partial_xh_i&=& \frac{d f_i(\gamma(x))}{dx}\\ &=&\langle \nabla_{(u,v)} f , \gamma'(x)\rangle \\ &=& \partial_u f \partial_x g_1+ \partial_vf \partial_x g_2 \end{eqnarray*}
Este ejercicio prueba el caso general de la regla de la cadena, con la hipótesis extra de que tanto $F$ como $G$ son funciones clase $C^1$ en sus respectivos dominios.
Este ejercicio prueba la regla de la cadena, en el caso más general.
Sean $U \subset \mathbb{R}^n$ y $V\subseteq \mathbb{R}^m$ subconjuntos abiertos y $G:V \to \mathbb{R}^n$, $F:U \to \mathbb{R}^k$ tal que $G(V)\subseteq U$ (para que $F\circ G$ esté bien definida). Supongamos que $q_0\in V$, $G$ es diferenciable en $q_0$ y $F$ es diferenciable en $G(q_0)$.
Usando que \(F\) admite una aproximación lineal podemos escribir \[ F(p)=F(p_0)+D_{p_0}F(p-p_0)+E(p) \] para \(p\) cercano a \(p_0\) y donde la función \(E\) satisface \[ \lim_{p\to p_0} \frac{\|E(p)\|}{\|p-p_0\|}=0. \]
Ahora definimos $$ K(p)=\left\{ \begin{array}{cc} \frac{E(p)}{\|p-p_0\|} & p\ne p_0 \\ 0 & p=p_0 \end{array} \right. $$ Es claro que \(K\) está definida para \(p\) cercano a \(p_0\) y es continua para todo \(p\ne p_0\). Además es continua en \(p_0\) pues \[ \lim_{p\to p_0}\|K(p)\|=\lim_{p\to p_0}\frac{\|E(p)\|}{\|p-p_0\|}=0 \] Finalmente de la definición de \(K\) y la aproximación lineal para \(F\) se sigue, para \( p\ne p_0\) \begin{eqnarray*} F(p)&=&F(p_0)+D_{p_0}F(p-p_0)+E(p)\\ &=&F(p_0)+D_{p_0}F(p-p_0)+\|p-p_0\|\frac{E(p)}{\|p-p_0\|}\\ &=&F(p_0)+D_{p_0}F(p-p_0)+\|p-p_0\|K(p) \end{eqnarray*}
Ya que \(G\) es continua en \(q_0\) (al ser diferenciable en \(q_0\)) si \(q\) está cercano a \(q_0\) entonces \(G(q)\) está cercano a \(G(q_0)=p_0\).
Por lo tanto podemos utilizar el inciso (1) para obtener (tomando \(p=G(q)\)) \[ F(G(q))= F (G (q_0))+ (D_{p_0}F)( G(q)-G(q_0)) + \|G(q)-G(q_0)\| K(G(q)) \]
La prueba de que $$ G(q)-G(q_0)=D_{q_0}G(q-q_0)+ \| q-q_0\|\tilde{K}(q) $$ con \(\tilde{K}\) una función continua con \(\tilde{K}(q_0)=0\) es similar al inciso 1.
Ahora, substituyendo $$ G(q)-G(q_0)=D_{q_0}G(q-q_0)+ \| q-q_0\|\tilde{K}(q) $$ en $$ F(G(q))= F (G (q_0))+ (D_{p_0}F)( G(q)-G(q_0)) + \|G(q)-G(q_0)\| K(G(q)) $$ se sigue que \begin{eqnarray*} F(G(q))&= &F (G (q_0))+ (D_{p_0}F)(D_{q_0}G)(q-q_0)\\ &+& \|q-q_0\|(D_{p_0}F)(\tilde{K}(q)) + \|G(q)-G(q_0)\| K(G(q)) \end{eqnarray*} por lo tanto \begin{eqnarray*} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|} &\leq & \| (D_{p_0}F)(\tilde{K}(q))\| \\ &+& \frac{\| G(q)-G(q_0)\|}{\|q-q_0\|}\| K(G(q))\| \end{eqnarray*}
Usando el inciso (3) tenemos (para \(q\ne q_0\)) \begin{eqnarray*} \frac{\|G(q)-G(q_0)\|}{\|q-q_0\|}&=&\frac{\| D_{q_0}G(q-q_0)+ \|q-q_0\|\tilde{K}(p)\|}{\|q-q_0\|} \\ &\leq & \frac{\|D_{q_0}G(q-q_0)\|}{\|p-p_0\|}+\frac{\|q-q_0\|\|\tilde{K}(q)\|}{\|q-q_0\|} \\ &\leq & \frac{\|D_{q_0}G(q-q_0)\|}{\|p-p_0\|}+\|\tilde{K}(q)\| \end{eqnarray*} Ahora usamos la desigualdad \(\|D_{q_0}G(q-q_0)\| \leq \|D_{q_0}G\|_2 \|q-q_0\|\) (ver Ejercicio 3.41) llegamos a que \[ \frac{\|G(q)-G(q_0)\|}{\|q-q_0\|}\leq \|D_{q_0}G\|_2+\|\tilde{K}(q)\| \] Finalmente llegamos a \begin{eqnarray*} \lim_{q\to q_0 } \frac{\|G(q)-G(q_0)\|}{\|q-q_0\|}\|K(G(q))\| &\leq & \lim_{q\to q_0} (\|D_{q_0}G\|_2+\|\tilde{K}(q)\|)\|K(G(q))\| \\ &=&(\|D_{q_0}G\|_2+ \|\tilde{K}(q_0) \|)\|K(p_0)\|=0 \end{eqnarray*}
Ahora, usando que las funciones lineales son continuas tenemos \begin{eqnarray*} \lim_{q\to q_0} \|D_{p_0}F(\tilde{K}(q)) \|=\|D_{p_0}F(\tilde{K}(q_0)) \|=\|D_{p_0}F(0)\|=0. \end{eqnarray*}
Por último ya que \begin{eqnarray*} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|} &\leq & \| (D_{p_0}F)(\tilde{K}(q))\| \\ &+& \frac{\| G(q)-G(q_0)\|}{\|q-q_0\|}\| K(G(q))\| \end{eqnarray*} tomando límite cuando \(q\to q_0\) y el inciso anterior llegamos a \[ \lim_{q\to q_0} \frac{\|F(G(q))-F(G(q_0))- (D_{p_0}F)(D_{q_0}G)(q-q_0) \|}{\|q-q_0 \|}=0 \] por Proposición 13.9 concluimos que \(F\circ G\) es diferenciable en \(p_0\) y \[ D_{p_0}F\circ G= (D_{p_0}F)(D_{q_0}G) \]
Los tres ejercicios se resolverán de manera similar.
Tenemos composición de una función de $\mathbb{R}^3 \to \mathbb{R}^3$ con otra de $\mathbb{R}^3 \to \mathbb{R}$. Por un lado notemos que como función de $x,y,z$ la matriz de derivadas parciales de $u$ es el gradiente $D_{(x,y,z)}u = (\frac{\partial u}{\partial x}, \frac{\partial u}{\partial y}, \frac{\partial u}{\partial z})$. y como función de $r,s,t$ es $D_{(r,s,t)}u = (\frac{\partial u}{\partial r},\frac{\partial u}{\partial s},\frac{\partial u}{\partial t})$. Por otro lado, $u = f(x,y,z) = f(X(r,s,t),Y(r,s,t),Z(r,s,t))$, por lo que usando la regla de la cadena se tiene que $D_{(r,s,t)}u = D_{(X(r,s,t),Y(r,s,t),Z(r,s,t))}f D_{(r,s,t)}(X,Y,Z)$. Ya se mencionó que la matriz de derivadas parciales de $u$, o en su defecto de $f$, es un gradiente, la matriz de derivadas parciales de la función $(X,Y,Z)$ es \begin{equation*} D_{(r,s,t)}(X,Y,Z) = \begin{pmatrix} \frac{\partial X}{\partial r} & \frac{\partial X}{\partial s} & \frac{\partial X}{\partial t}\\ \frac{\partial Y}{\partial r} & \frac{\partial Y}{\partial s} & \frac{\partial Y}{\partial t}\\ \frac{\partial Z}{\partial r} & \frac{\partial Z}{\partial s} & \frac{\partial Z}{\partial t} \end{pmatrix}. \end{equation*} Recordemos que si tenemos el producto de matrices $AB = C$, la entrada $i,j$ de la matriz $C$ se obtiene de multiplicar la i-ésima matriz fila de $A$ por la j-ésima matriz columna de $B$, por lo tanto \begin{align*} \frac{\partial u}{\partial r} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial r} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial r} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial r},\\ \frac{\partial u}{\partial s} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial s} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial s} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial s},\\ \frac{\partial u}{\partial t} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial t} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial t} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial t},\\ \end{align*}
En este caso tenemos la composición de una función de $\mathbb{R}^3 \to \mathbb{R}$ con una de de $\mathbb{R}^2 \to \mathbb{R^3}$, sin embargo el procedimiento es similar. $u$ como función de $x,y,z$ tiene gradiente $(\frac{\partial u}{\partial x},\frac{\partial u}{\partial y},\frac{\partial u}{\partial z})$, en tanto que como función de $r,s$ tiene gradiente $(\frac{\partial u}{\partial r},\frac{\partial u}{\partial s})$. La matriz de derivadas parciales de la función $(X,Y,Z)$ ahora está dada por \begin{equation*} D_{(r,s,t)}(X,Y,Z) = \begin{pmatrix} \frac{\partial X}{\partial r} & \frac{\partial X}{\partial s}\\ \frac{\partial Y}{\partial r} & \frac{\partial Y}{\partial s}\\ \frac{\partial Z}{\partial r} & \frac{\partial Z}{\partial s}\\ \end{pmatrix}, \end{equation*} por lo tanto \begin{align*} \frac{\partial u}{\partial r} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial r} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial r} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial r},\\ \frac{\partial u}{\partial s} =& \frac{\partial u}{\partial x}\frac{\partial X}{\partial s} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial s} + \frac{\partial u}{\partial z}\frac{\partial Z}{\partial s},\\ \end{align*}
Finalmente trabajamos con la composición de una función de $\mathbb{R}^2 \to \mathbb{R}$ y otra de $\mathbb{R}^3 \to \mathbb{R}^2$. El gradiente de $u$ respecto a las variables $x,y$ es $(\frac{\partial u}{\partial x},\frac{\partial u}{\partial y})$ y el gradiente respecto a las variables $r,s,t$ es $(\frac{\partial u}{\partial r},\frac{\partial u}{\partial s},\frac{\partial u}{\partial t})$. La matriz de derivadas parciales de la función $(X,Y)$ está dada por \begin{equation*} D_{(r,s,t)}(X,Y) = \begin{pmatrix} \frac{\partial X}{\partial r} & \frac{\partial X}{\partial s} & \frac{\partial X}{\partial t}\\ \frac{\partial X}{\partial r} & \frac{\partial Y}{\partial s} & \frac{\partial Y}{\partial t} \end{pmatrix}. \end{equation*} Utilizando la regla de la cadena y la fórmula para el producto de matrices tenemos \begin{align*} \frac{\partial u}{\partial r} = \frac{\partial u}{\partial x}\frac{\partial X}{\partial r} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial r},\\ \frac{\partial u}{\partial s} = \frac{\partial u}{\partial x}\frac{\partial X}{\partial s} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial s},\\ \frac{\partial u}{\partial t} = \frac{\partial u}{\partial x}\frac{\partial X}{\partial t} + \frac{\partial u}{\partial y}\frac{\partial Y}{\partial t}. \end{align*}
Considera las funciones $F:\mathbb{R}^3\to \mathbb{R}^2$ y $G:\mathbb{R}^3\to \mathbb{R}^3$ dadas por $$ F(x,y,z)=(x^2+y+z, 2x+y+z^2), \quad G(u,v,w)=(2uv^2w^2,w^2\sen(v),u^2e^v) $$
Considera la función $G:\mathbb{R}^2 \to \mathbb{R}^2$ dada por $$ G(x,y)=(x+y,2x-y ) $$
Sean $G:\mathbb{R}^m \to \mathbb{R}^n$, una función de clase $C^1$ en $\mathbb{R}^m$, con funciones coordenadas $G(q)=(g_1(q),\dots, g_n(q))$ y sea $f:\mathbb{R}^n \to \mathbb{R}$ una función de clase $C^1$ en $\mathbb{R}^n$ y sea $h=f\circ G$. Usa la regla de la cadena para demostrar que el gradiente de $h$ es una combinación lineal de los gradientes de las $g_k$, en específico: $$ \nabla_{q_0} h= \sum_{k=1}^n \partial_{p_k}f(G(q_0)) \nabla_{q_0}g_k $$ nota que $\partial_{p_k}f(g(q_0))$ es escalar y $\nabla_{q_0}g_k$ es vector.